WO2017159176A1 - 自動運転支援システム、および、自動運転支援方法 - Google Patents

自動運転支援システム、および、自動運転支援方法 Download PDF

Info

Publication number
WO2017159176A1
WO2017159176A1 PCT/JP2017/005253 JP2017005253W WO2017159176A1 WO 2017159176 A1 WO2017159176 A1 WO 2017159176A1 JP 2017005253 W JP2017005253 W JP 2017005253W WO 2017159176 A1 WO2017159176 A1 WO 2017159176A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation value
route
sensor
automatic driving
section
Prior art date
Application number
PCT/JP2017/005253
Other languages
English (en)
French (fr)
Inventor
武央 西田
奥出 真理子
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to US16/081,415 priority Critical patent/US11267489B2/en
Priority to JP2018505355A priority patent/JP6609369B2/ja
Publication of WO2017159176A1 publication Critical patent/WO2017159176A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • B60W60/0055Handover processes from vehicle to occupant only part of driving tasks shifted to occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Definitions

  • the present invention relates to an automatic driving support system and an automatic driving support method.
  • Patent Document 1 describes that “a route with the minimum number of times and time when automatic driving of a vehicle is interrupted” is a recommended route. Thereby, the driving
  • the navigation device of Patent Document 1 can set a route that avoids interrupted sections where automatic driving is not recommended as much as possible.
  • routes bypass roads
  • the main object of the present invention is to execute appropriate automatic operation control in consideration of the characteristics of the external sensor.
  • an automatic driving support system of the present invention includes: For each traffic environment on the moving path of the mobile object, a database that associates sensor evaluation values indicating the recognition accuracy of each external sensor that recognizes the traffic environment is managed, and in response to a request from the mobile object, the request source A center device for notifying the requesting mobile body of the sensor evaluation value that matches the traffic environment and the external sensor of the mobile body;
  • the mobile unit is configured to change the process of reflecting the recognition data of each of the external sensors on its own automatic operation control based on the sensor evaluation value notified from the center device. Other means will be described later.
  • FIG. 3A is a plan view illustrating an example of a route generated by the route candidate generation unit.
  • FIG. 3B is a table showing each evaluation value in the route of FIG.
  • FIG. 4A shows transmission data of sensor evaluation values provided by the external sensor evaluation unit.
  • FIG. 4B shows the section evaluation value and the route evaluation value transmission data provided by the route evaluation unit.
  • FIG.8 (a) is a top view which shows an example of the 3D path
  • FIG. 8B is a three-dimensional view of the 3D route of FIG.
  • FIG. 1 is a configuration diagram when the automatic driving support system is applied to the connected car 2.
  • the mobile body capable of automatic driving that is a target of the automatic driving support system is not limited to the connected car 2 as long as it is connected to the telematics center 1 by communication.
  • the number of connected cars 2 connected via the network 9 is not limited to the three illustrated in FIG. FIG. 1 shows the details of the internal configuration of one of them, but the other two have the same configuration.
  • Each device of the automatic driving support system is configured as a computer having a CPU (Central Processing Unit), a memory, storage means (storage unit) such as a hard disk, and a network interface.
  • the CPU executes a program (also referred to as an application or its abbreviated application) read on the memory, thereby operating a control unit (control means) configured by each processing unit.
  • a program also referred to as an application or its abbreviated application
  • the telematics center 1 includes an outside world recognition DB 11, a route candidate generation unit 12, an outside world sensor evaluation unit 13, and a route evaluation unit 14.
  • the outside world recognition DB 11 is a database of recognition results by the outside world sensor 22a around the connected car 2 (hereinafter referred to as “outside world”). “Success” in the recognition result means that, for example, an obstacle (such as a rock) that actually exists in front of the connected car 2 can be recognized by the external sensor 22a as “has an obstacle” or connected. This is a case where the external sensor 22a recognizes that there is nothing in front of the car 2 as “no obstacle”.
  • the external environment recognition DB 11 associates information indicating the environment with a recognition result for each external sensor 22a under the environment for each predetermined environment (past time, place, etc.).
  • the external environment recognition DB 11 stores, for example, the following correspondence information.
  • External sensor 22a Extracting obstacles from images taken by camera”
  • Recognition result “Fail, back light Corresponding information that "the vehicle cannot be recognized”.
  • the process of determining the recognition result as “success / failure” may be performed automatically by a computer, manually by a human, or a combination of both determinations. For example, if the output of the external sensor 22a is “no obstacle ahead” ⁇ the output of the manual operation unit 25 of the connected car 2 is “sudden braking”, the computer automatically determines that the recognition result is “failure” due to the mismatch of both outputs. You may judge. Furthermore, the determination result of the computer may be confirmed by human eyes to determine the final “success / failure”.
  • the route candidate generation unit 12 When receiving a route generation request from the connected car 2, the route candidate generation unit 12 generates a route candidate from the current location to the destination.
  • the route candidate is searched in consideration of the shortest travel distance route and the shortest travel time route, whether automatic driving is permitted, whether there is a recommended road for automatic driving, and the like.
  • the route here may include not only a road level route by a node and a link but also a lane level route.
  • the external sensor evaluation unit 13 calculates an evaluation value (sensor evaluation value) for each external sensor 22a for the route candidate generated by the route candidate generation unit 12, and sends the sensor evaluation value to the connected car 2 of the route generation request source. Send.
  • the route evaluation unit 14 evaluates whether or not automatic driving is possible for the route candidate generated by the route candidate generation unit 12 (a route evaluation value obtained by integrating the evaluation value of each section that is part of the route and the evaluation of all the sections of the route). ) And the calculation result is transmitted to the connected car 2 of the route generation request source.
  • the connected car 2 includes an automatic driving plan unit 21, an external environment recognition unit 22, an automatic driving unit 23, a notification unit 24, and a manual driving unit 25.
  • the outside world recognition unit 22 includes one or more outside world sensors 22a, a mode switching unit 22b for each outside world sensor 22a, and one configuration changing unit 22c.
  • the automatic operation planning unit 21 transmits a route generation request to the telematics center 1. In the route generation request, at least the vehicle ID, the current location, the destination, and information on the mounted external sensor 22a are transmitted.
  • the automatic driving plan unit 21 determines an automatic driving plan (automatic for each section in the path) based on each evaluation value (sensor evaluation value, section evaluation value, path evaluation value) included in the reply to the route generation request. Establish a plan for switching between operation and manual operation.
  • the external sensor 22a is a sensor such as a camera, a millimeter wave radar, or an infrared laser, and is mounted on the external recognition unit 22 at least one. Desirably, a plurality of units are mounted so as to recognize the periphery (front, rear, side, etc.) of the connected car 2 and a plurality of types are mounted so as to cover the advantages / disadvantages of each sensor.
  • the mode switching unit 22b switches the mode for each external sensor 22a corresponding to itself based on the sensor evaluation value.
  • the mode means the recognition mode, sampling rate, and recognition parameter of each sensor.
  • the sampling rate is improved to improve the image quality of the captured image of the in-vehicle camera, so that the output of the external sensor 22a can be improved despite the low sensor evaluation value.
  • Increase (complement) confidence when the sensor evaluation value of the in-vehicle camera is low under a certain environment, the sampling rate is improved to improve the image quality of the captured image of the in-vehicle camera, so that the output of the external sensor 22a can be improved despite the low sensor evaluation value. Increase (complement) confidence.
  • the configuration changing unit 22c changes the degree of contribution of each external sensor 22a to the automatic driving unit 23 based on the sensor evaluation value of each external sensor 22a. For example, the configuration changing unit 22c does not use the recognition result of the external sensor 22a having a low sensor evaluation value for automatic driving or reduces the importance as an input parameter for automatic driving, thereby configuring the configuration of the external sensor 22a. change.
  • the automatic driving unit 23 performs automatic driving based on the recognition result recognized by the external recognition unit 22 and the automatic driving plan by the automatic driving planning unit 21.
  • the notification unit 24 notifies the user of the section set as the manual operation section by the automatic operation planning unit 21.
  • the trigger for this notification is, for example, when an automatic operation is planned and before entering a manual operation section.
  • the manual operation unit 25 transfers control of the connected car 2 to the user in the section set as the manual operation section by the automatic operation planning unit 21 and enables operation control by the user.
  • data in the same external world recognition DB 11 may be shared among a plurality of connected cars 2.
  • the telematics center 1 receives a route generation request from a connected car 2
  • the telematics center 1 reads the external recognition history of another connected car 2 from the external recognition DB 11, and based on the history, the current connected car 2 is read. Whether or not automatic driving is possible may be determined.
  • FIG. 2 is a flowchart showing the processing contents of the external sensor evaluation unit 13.
  • the external sensor evaluation unit 13 acquires information about the external sensor 22a mounted on the connected car 2 that requested the path generation from the path generation request (S101).
  • the external sensor evaluation unit 13 acquires the route candidate generated by the route candidate generation unit 12 that satisfies the current location and the destination specified by the route generation request (S102). Then, the external sensor evaluation unit 13 executes a loop for each path candidate in S102 (S111 to S133).
  • the external sensor evaluation unit 13 divides the route candidate selected in the current loop into sections (S112).
  • the section here may be divided into sections based on the characteristics of the external sensor 22a mounted on the connected car 2 that has requested route generation. For example, when the camera is mounted as the external sensor 22a, it is backlit near the tunnel exit, and non-detection or erroneous detection can be considered. For this reason, the division
  • the outside world sensor evaluation unit 13 estimates the traveling environment of the connected car 2 that has transmitted the route generation request this time (location characteristics such as a traveling location and a tunnel exit, weather, time, etc.) (S121), and the estimated traveling It is determined whether or not external recognition information matching the environment (traffic environment) is recorded in the external recognition DB 11 (S122). If recorded (S122, Yes), the outside world sensor evaluation unit 13 reads the recognition result “success / failure” from the outside world recognition DB 11, for example, in a running environment (corresponding section) that matches from the outside world recognition DB 11. The external sensor 22a is evaluated (S123), and the evaluation value of the external sensor 22a selected in the loop of S114 is calculated by making the evaluation value higher (better) as the recognition result is more successful (step S123). S124).
  • the external sensor evaluation unit 13 calculates the evaluation value as it is in S124.
  • the reference value is set to 10 points, and when matching with the external world recognition DB 11 in S122, depending on the content, if the recognition fails, 1 point is deducted, and if the recognition is successful, 1 point is added. You can do it.
  • the evaluation of the external sensor 22a by S123 as a deduction factor, in addition to the number of false detections and non-detections in the same environment, the number of false detections / non-detections, the probability of occurrence, the time stamp or trend when it last occurred Etc. are considered.
  • the external sensor evaluation unit 13 transmits the calculated all route candidates and the evaluation results (sensor evaluation values) for each external sensor 22a in all sections to the connected car 2 that has requested the route generation. That is, the telematics center 1 transmits to the requesting source connected car 2 sensor evaluation values that match the traveling environment around the requesting source connected car 2 and the external sensor 22a mounted on the connected car 2. Thus, the connected car 2 is instructed to change the contents of the automatic driving control.
  • FIG. 3A is a plan view illustrating an example of a route generated by the route candidate generation unit 12. It is assumed that the route candidate generation unit 12 generates a total of two routes, a route “1” passing through the tunnel and a route “2” not passing through the tunnel. When the section is divided from the current location to the destination by a link (road between intersections), the route “1” has a tunnel in the section “5” and the route “2” walks in the section “4”. It is assumed that there is a road with a lot of traffic, and that the external sensor 22a has failed in the past in the external recognition DB 11.
  • FIG. 3B is a table showing each evaluation value in the route of FIG.
  • the table on the left side of FIG. 3B shows sensor evaluation values for each external sensor 22a calculated by the external sensor evaluation unit 13 in the process of FIG.
  • FIG. 3 (a) if the current environment is clear and the daytime time zone is reached, there is a possibility that there will be backlighting at the exit of the tunnel and there will be many pedestrians in the section “4” of the route “2”. Is expensive. Therefore, the sensor evaluation value in the route “1” section “5” (near the tunnel) of the external sensor “A” that is vulnerable to backlight is low as “3”. Similarly, the sensor evaluation value of the route “2” section “4” of the external sensor “B” that is weak to pedestrian recognition is as low as “6”.
  • the route evaluation unit 14 uses statistical values such as an average value and a median value.
  • the route evaluation unit 14 sets the average value of the section evaluation values for each route as the route evaluation value (total evaluation value) for each route.
  • the route evaluation value may be calculated in consideration of a statistical value such as an average value, a distance and time length of a section where automatic driving can be performed, a driving complexity of a section requiring manual driving, and the like.
  • the route evaluation unit 14 transmits these calculation results (section evaluation value, route evaluation value) to the connected car 2, so that the connected car 2 evaluates each external sensor 22a of the own vehicle on the provided route. I understand. Thereby, the configuration and mode of the external sensor 22a in the external recognition unit 22 can be changed in preparation for failure of external recognition during automatic driving.
  • FIG. 4A shows transmission data of sensor evaluation values provided by the external sensor evaluation unit 13.
  • the number of devices of the external sensor 22a mounted on the connected car 2 the number of routes generated by the route candidate generation unit 12, the route ID of the number of routes, and the route are included.
  • the section start point and section end point for each section ID may be numbers assigned to nodes (intersections), may be specified by latitude, longitude, altitude, or may be detailed vehicle positions at the lane level. .
  • FIG. 4B shows section evaluation values and route evaluation value transmission data provided by the route evaluation unit 14. After the header of the packet as in FIG. 4A, each section evaluation value and path evaluation value of the route “1”, each section evaluation value and path evaluation value of the route “2” are sequentially stored in the data portion of the packet. The By referring to this data, the connected car 2 can determine whether or not automatic driving can be permitted in the current driving environment.
  • FIG. 5 is a flowchart showing processing when the connected car 2 receives the transmission data of FIG.
  • the connected car 2 receives each data of FIG. 4 (evaluation of external sensor and evaluation of availability of automatic driving) from the telematics center 1.
  • the automatic driving plan unit 21 sets the route in which the route evaluation value (total evaluation value) in S201 is maximized as the route of automatic driving that the vehicle will run from now.
  • the automatic driving plan unit 21 performs processing for each section of the automatic driving route set in S202.
  • the automatic operation planning unit 21 determines whether the section evaluation value during the loop selection is greater than the threshold value Th1. If section evaluation value> threshold value Th1, the automatic driving plan unit 21 sets the section as an automatic driving section and operates the automatic driving unit 23 (S205). If section evaluation value ⁇ threshold Th1, the automatic operation planning unit 21 sets the section as a manual operation section and operates the manual operation unit 25 (S206).
  • the automatic operation section is set when the possibility of failure in external environment recognition is low, and the manual operation section is set when the possibility of failure in external environment recognition is high. For this reason, the reliability of an automatic driving
  • FIG. 6 is a flowchart showing the processing contents of the external recognition unit 22.
  • the external environment recognition unit 22 acquires the sensor evaluation value received from the telematics center 1 from the automatic operation planning unit 21.
  • S302 to S321 are loops executed for each section of the route set in S202.
  • the external environment recognition unit 22 determines whether or not the section is set as an automatic driving section. If it has been set (S303, Yes), the process proceeds to S311, and if it has not been set (S303, No), the process ends for this section and proceeds to the next section, so the process proceeds to S321.
  • S311 to S316 are loops executed for each external sensor 22a mounted on the connected car 2.
  • the external environment recognition unit 22 determines whether the sensor evaluation value of the external sensor 22a is smaller than the threshold value Th2. If Yes in S312, the process proceeds to S313, and if No, the process proceeds to S316 to execute the next loop of the external sensor 22a.
  • the external environment recognition unit 22 determines whether or not the recognition ability can be improved by changing the mode of the external sensor 22a.
  • the mode here refers to a recognition mode unique to each external sensor 22a, a recognition parameter, a sampling rate, a gain, and the like. If Yes in S313, the process proceeds to S314, and if No, the process proceeds to S315.
  • the external field recognition unit 22 sets the mode of the external sensor 22a to be changed to a mode that increases the recognition ability determined to be possible in S313 in the section.
  • the external environment recognition unit 22 performs setting so as to change the configuration of the external sensor 22a in the section.
  • the change of the configuration means that the recognition result of the recognition device whose evaluation value of the external sensor 22a is lower than Th2 is not used or the importance is lowered.
  • FIG. 7 is a configuration diagram when the automatic driving support system is applied to the autonomous flying object 2b.
  • the connected car 2 in FIG. 1 is replaced with the autonomous flying object 2b in FIG. 7 as a moving body.
  • the autonomous flying object 2b is a small multicopter such as a drone, for example. Therefore, below, it demonstrates centering on the difference with FIG. 1 among the components shown in FIG.
  • the telematics center 1 has a 3D route candidate generation unit 12 b instead of the route candidate generation unit 12. Unlike a vehicle, since an autonomous flying object travels in a three-dimensional space, it is necessary to generate a three-dimensional route. Next, since the surrounding information recognized by the external sensor 22a is three-dimensional (in the air), the external sensor 22a can recognize the periphery (front, rear, upper, lower, side, etc.) of the autonomous flying object 2b. As described above, it is desirable to mount a plurality of types and a plurality of types so as to cover the advantages / disadvantages of each sensor.
  • the elements of manual operation of the connected car 2 are provided in the external manual controller 2c (notification unit 24c, manual operation unit 25c) in the autonomous flying object 2b.
  • the manual controller 2 c is configured to be able to communicate with the autonomous flying object 2 b via a driving network 9 b different from the network 9.
  • FIG. 8 (a) is a top view which shows an example of the 3D path
  • FIG. 8B is a three-dimensional view of the 3D route of FIG. This three-dimensional view simply shows a three-dimensional space.
  • the 3D route candidate generation unit 12b has generated three route candidates from the route “1” to the route “3”.
  • the 3D route candidate generation unit 12b adopts the route “2” as described below. Since the route “3” passes through the prohibited flight area set around the building A, it is excluded from the candidates. Since the route “1” passes through the space B where reflection from the building B is strong, the sensor evaluation value of the external sensor 22a which is weak against backlight or the like becomes low, and is excluded from the candidates.
  • the telematics center 1 that manages the history data in which the external environment around the moving body is associated with the recognition result (success or failure) for each external sensor 22a in the external environment is managed by the external recognition DB 11.
  • the mobile body can implement
  • the connected car 2 does not reflect the recognition result of the camera to the automatic driving at the tunnel exit where the sensor evaluation value of the past camera is low, and determines whether there is an obstacle ahead due to the infrared recognition result alone.
  • the connected car 2 also turns the automatic driving off in a winding tunnel environment where the camera sensor evaluation value is low and the infrared sensor evaluation value is low, because the section evaluation value of the section is low.
  • the manual operation unit 25 is turned on.
  • the connected car 2 can reduce the frequency of manual driving by not adopting route candidates with low route evaluation values that pass through many sections with low zone evaluation values in the first place.
  • this invention is not limited to an above-described Example, Various modifications are included.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function is stored in memory, a hard disk, a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, an SD card, a DVD (Digital Versatile Disc), etc. Can be placed on any recording medium.
  • a recording device such as an SSD (Solid State Drive), an IC (Integrated Circuit) card, an SD card, a DVD (Digital Versatile Disc), etc.
  • the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • the communication means for connecting the devices is not limited to the wireless LAN, but may be changed to a wired LAN or other communication means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自動運転支援システムは、コネクティッドカー(2)からの要求に応じて、その要求元のコネクティッドカー(2)の走行環境および外界センサ(22a)に合致するセンサ評価値を、要求元のコネクティッドカー(2)に通知するテレマティクスセンタ(1)と、テレマティクスセンタ(1)から通知されたセンサ評価値をもとに、自身の各外界センサ(22a)の認識データを自身の自動運転制御に反映させる工程を変化させるコネクティッドカー(2)とを有する。

Description

自動運転支援システム、および、自動運転支援方法 参照による取り込み
 本出願は、2016年3月17日に出願された日本特許願第2016-53211号の優先権を主張し、その内容を参照することにより本出願に取り込む。
 本発明は、自動運転支援システム、および、自動運転支援方法に関する。
 自動車の運転者に目的地までの経路を案内するナビゲーション装置が普及している。ナビゲーション装置が経路を探索するときには、「なるべく短距離で」、「なるべく有料道路を使わないように」などの運転者が指定した様々な希望条件を満たすように、複数の経路候補が提示される。
 特許文献1には「車両の自動運転が中断される回数や時間が最小の経路」を推奨経路とする旨が記載されている。これにより、自動運転の割合を上げることで、運転者の運転負担を減らすことができる。
特開2015-175825号公報
 自動運転を多くすると、運転者の負担は減るものの、自動運転の入力である外界センサのセンサ値の精度が落ちるような道路環境では、円滑な運転ができない場合がある。一方、手動運転を多くすると、運転者の判断により車両運転の安定性は向上するものの、運転者に運転負担を強いてしまう。よって、自動運転と手動運転とのバランスをうまく配分することが必要である。
 特許文献1のナビゲーション装置は、自動運転が推奨されない中断区間をなるべく回避するような経路を設定することはできた。しかし、地方の山道などではそもそも選択できるような複数の経路(バイパス道路)が設置されていない箇所も多く存在する。よって、経路を選択する手法以外で、自動運転が適用可能な走行環境では、なるべく自動運転を採用して運転者の負担を軽減することが望まれる。
 また、自動運転を採用するか否かという大まかな制御ではなく、自動運転を採用するときに、その入力となる外界センサをどのように組み合わせれば、より安定した自動運転制御が可能であるかという、きめ細かい制御が求められる。
 そこで、本発明は、外界センサの特性を考慮して適切な自動運転制御を実行することを、主な課題とする。
 前記課題を解決するために、本発明の自動運転支援システムは、
 移動体の移動経路上の通行環境ごとに、当該通行環境を認識する外界センサごとの認識精度を示すセンサ評価値を対応付けるデータベースを管理し、前記移動体からの要求に応じて、その要求元の前記移動体の前記通行環境および前記外界センサに合致する前記センサ評価値を、要求元の前記移動体に通知するセンタ装置と、
 前記センタ装置から通知された前記センサ評価値をもとに、自身の前記各外界センサの認識データを自身の自動運転制御に反映させる工程を変化させる前記移動体とを有することを特徴とする。
 その他の手段は、後記する。
 本発明によれば、外界センサの特性を考慮して適切な自動運転制御を実行することができる。
本発明の一実施形態に関する自動運転支援システムをコネクティッドカーに適用した場合の構成図である。 本発明の一実施形態に関する外界センサ評価部の処理内容を示すフローチャートである。 図3(a)は、経路候補生成部が生成する経路の一例を示す平面図である。図3(b)は、図3(a)の経路における各評価値を示すテーブルである。 図4(a)は、外界センサ評価部が提供するセンサ評価値の送信データである。図4(b)は、経路評価部が提供する区間評価値、経路評価値の送信データである。 本発明の一実施形態に関するコネクティッドカーが図4の各送信データを受信したときの処理を示すフローチャートである。 本発明の一実施形態に関する外界認識部の処理内容を示すフローチャートである。 本発明の一実施形態に関する自動運転支援システムを自律飛行物体に適用した場合の構成図である。 図8(a)は、図7の自律飛行物体が飛行する3D経路の一例を示す平面図である。図8(b)は、図8(a)の3D経路を俯瞰視点で見たときの立体図である。
 以下、本発明の一実施形態を、図面を参照して詳細に説明する。
 図1は、自動運転支援システムをコネクティッドカー2に適用した場合の構成図である。なお、自動運転支援システムの対象となる自動運転可能な移動体は、テレマティクスセンタ1と通信接続されていればよく、コネクティッドカー2に限定されない。また、ネットワーク9を介して接続されるコネクティッドカー2の台数も図1で例示した3台に限定されない。図1ではそのうちの1台の内部構成の詳細を示しているが、他の2台も同等の構成を有する。
 なお、自動運転支援システムの各装置は、それぞれCPU(Central Processing Unit)と、メモリと、ハードディスクなどの記憶手段(記憶部)と、ネットワークインタフェースとを有するコンピュータとして構成される。
 このコンピュータは、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
 テレマティクスセンタ1は、外界認識DB11と、経路候補生成部12と、外界センサ評価部13と、経路評価部14とを有している。
 外界認識DB11は、コネクティッドカー2の周囲(以下、「外界」とする)の外界センサ22aによる認識結果がデータベース化されたものである。
 認識結果のうちの「成功」とは、例えば、コネクティッドカー2の前方に実際に存在する障害物(岩など)を、外界センサ22aが「障害物あり」として認識できた場合や、コネクティッドカー2の前方に何も存在しない状況を、外界センサ22aが「障害物なし」として認識できた場合である。
 認識結果のうちの「失敗」とは、前記の「成功」とは反対のことであり、例えば、コネクティッドカー2の前方に障害物(岩など)が実際に存在しているにもかかわらず、外界センサ22aが「障害物なし」と認識してしまった場合である。
 つまり、認識結果の「失敗」は認識精度=0%を示し、「成功」は認識精度=100%を示す。一方、失敗または成功という2通りの認識精度だけでなく、認識精度=60%などのように細かい値を設定してもよい。
 外界認識DB11は、所定の環境(過去の時刻、場所など)ごとに、その環境を示す情報と、その環境下での外界センサ22aごとの認識結果とを対応付けている。外界認識DB11には、例えば以下の対応情報が格納されている。
 ・環境「場所=Aトンネルの出口、日時=10月10日の昼11時、天候=雨」→外界センサ22a「カメラによる撮影画像からの障害物抽出」→認識結果「成功、前方の走行車両を正しく認識」という対応情報。
 ・環境「場所=Aトンネルの出口、日時=10月10日の昼11時、天候=晴れ」→外界センサ22a「カメラによる撮影画像からの障害物抽出」→認識結果「失敗、逆光により前方の走行車両を認識できず」という対応情報。
 なお、認識結果を「成功/失敗」と判断する処理は、計算機が自動で行ってもよいし、人間が手入力で行ってもよいし、両方の判断を併用してもよい。例えば、外界センサ22aの出力「前方に障害物無し」→コネクティッドカー2の手動運転部25の出力「急ブレーキ」なら、両出力の不整合により認識結果を自動的に「失敗」と計算機が判断してもよい。さらにその計算機の判断結果を人間が目視などで確認し、最終的な「成功/失敗」を判断してもよい。
 経路候補生成部12は、コネクティッドカー2からの経路生成要求を受け取ると、現在地から目的地までの経路候補を生成する。ここで、経路候補は、走行距離最短経路や走行時間最短経路の他、自動運転の許可の有無、自動運転の推奨道路の有無などを考慮して探索する。また、ここでの経路はノードとリンクによる道路レベルの経路だけでなく、レーンレベルでの経路を含んでもよい。
 外界センサ評価部13は、経路候補生成部12で生成された経路候補に対する外界センサ22aごとの評価値(センサ評価値)を計算し、そのセンサ評価値を経路生成要求元のコネクティッドカー2に送信する。
 経路評価部14は、経路候補生成部12で生成された経路候補に対する自動運転の可否に対する評価(経路の一部である区間ごとの区間評価値、経路の全区間の評価を統合した経路評価値)を計算し、その計算結果を経路生成要求元のコネクティッドカー2に送信する。
 コネクティッドカー2は、自動運転計画部21と、外界認識部22と、自動運転部23と、報知部24と、手動運転部25とを有している。外界認識部22は、1つ以上の外界センサ22aと、その外界センサ22aごとのモード切替部22bと、1つの構成変更部22cとを有している。
 自動運転計画部21は、テレマティクスセンタ1への経路生成要求を送信する。経路生成要求には、少なくとも車両ID、現在地、目的地、搭載している外界センサ22aの情報を送信する。また、自動運転計画部21は、経路生成要求への返信に含まれる各評価値(センサ評価値、区間評価値、経路評価値)に基づいて、自動運転の計画(経路内の区間毎の自動運転/手動運転の切替計画)を立てる。
 外界センサ22aは、カメラやミリ波レーダー、赤外線レーザーなどのセンサであり、外界認識部22に少なくとも一つ搭載されている。望ましくはコネクティッドカー2の周辺(前方や後方、側方など)を認識できるように複数台、またセンサ毎の得手/不得手をカバーできるように複数種類搭載される。
 モード切替部22bは、自身と対応する各外界センサ22aに対して、センサ評価値に基づいてモードを切り替える。ここでモードとは、各センサが有する認識のモードや、サンプリングレート、認識パラメータを意味する。例えば、ある環境下で車載カメラのセンサ評価値が低いときには、サンプリングレートを向上させて車載カメラの撮影画像を高画質化することにより、低いセンサ評価値にもかかわらず、外界センサ22aの出力に対する信頼度を高める(補完する)。
 構成変更部22cは、各外界センサ22aのセンサ評価値に基づいて、各外界センサ22aの自動運転部23に対する貢献度合いを変更する。例えば、構成変更部22cは、低いセンサ評価値となる外界センサ22aの認識結果を自動運転に使わなかったり、自動運転の入力パラメータとしての重要度を下げたりすることで、外界センサ22aの構成を変更する。
 自動運転部23は、外界認識部22で認識された認識結果と、自動運転計画部21による自動運転の計画に基づいて、自動運転を実施する。
 報知部24は、自動運転計画部21にて手動運転区間に設定された区間をユーザーに報知する。この報知する契機は、例えば、自動運転計画時と、手動運転区間に入る前である。
 手動運転部25は、自動運転計画部21にて手動運転区間に設定された区間において、ユーザーにコネクティッドカー2の制御を受け渡し、ユーザーによる運転制御を可能とする。
 なお、同じ外界認識DB11内のデータを複数のコネクティッドカー2間で共有してもよい。例えば、テレマティクスセンタ1は、あるコネクティッドカー2からの経路生成要求を受け取ると、別のコネクティッドカー2の外界認識の履歴を外界認識DB11から読み取り、その履歴に基づいて今回のコネクティッドカー2についての自動運転の可否を判定してもよい。
 図2は、外界センサ評価部13の処理内容を示すフローチャートである。
 外界センサ評価部13は、経路生成を要求したコネクティッドカー2に搭載される外界センサ22aについての情報を経路生成要求から取得する(S101)。
 外界センサ評価部13は、経路生成要求で指定される現在地と目的地とを満たす、経路候補生成部12が生成した経路候補を取得する(S102)。そして、外界センサ評価部13は、S102の経路候補ごとのループを実行する(S111~S133)。
 外界センサ評価部13は、現在のループで選択されている経路候補を区間分割する(S112)。ここでの区間とは、経路生成を要求したコネクティッドカー2に搭載される外界センサ22aの特性に基づいて区間を分割するなどが考えられる。例えば、カメラを外界センサ22aとして搭載している場合、トンネル出口付近で逆光となり、不検知や誤検知が考えられる。このため、トンネル付近で1区間とするような分割方法が考えられる。また、右左折や車線変更など、自動運転にとって直進走行と比較して複雑な走行技術が必要となるか否かで区間を分割するようにしてもよい。
 そして、外界センサ評価部13は、S112で分割した区間ごとのループを実行する(S113~S132)。そのループ内でさらに、外界センサ評価部13は、S101で取得した外界センサ22aごとのループを実行する(S114~S131)。
 外界センサ評価部13は、今回、経路生成要求を送信したコネクティッドカー2の走行環境(走行場所やトンネル出口などの場所の特徴、天候、時刻など)を推定し(S121)、その推定した走行環境(通行環境)にマッチする外界認識情報が外界認識DB11に記録されているか否かを判定する(S122)。記録されている場合は(S122,Yes)、外界センサ評価部13は、例えば外界認識DB11から認識結果「成功/失敗」を読み取るなどして、外界認識DB11からマッチする走行環境(当該区間)での外界センサ22aを評価して(S123)、認識結果が成功であるほど評価値を高い(良い)ものとするなどにより、S114のループで選択された外界センサ22aのセンサ評価値を算出する(S124)。
 一方、S122で記録されていない場合(No)は、外界センサ評価部13がそのままS124で評価値を算出する。このS124の評価の算出は、例えば、基準値を10点などと設け、S122で外界認識DB11にマッチする場合はその内容に応じて認識失敗なら減点-1点、認識成功なら加点+1点するようにすればよい。S123による外界センサ22aの評価においては、減点要因として、同一環境での誤検知数、不検知数の他、誤検知・不検知の発生台数、発生確率、最後に発生したときのタイムスタンプやトレンドなどを考慮する。
 S141では、外界センサ評価部13は、演算された全経路候補、全区間における外界センサ22a毎の評価結果(センサ評価値)を、経路生成を要求したコネクティッドカー2へ送信する。つまり、テレマティクスセンタ1は、要求元のコネクティッドカー2の周囲の走行環境と、コネクティッドカー2の搭載する外界センサ22aとに合致したセンサ評価値を、要求元のコネクティッドカー2へ送信することで、そのコネクティッドカー2に対して自動運転制御の内容変更を指示する。
 図3(a)は、経路候補生成部12が生成する経路の一例を示す平面図である。
 経路候補生成部12は、トンネルを経由する経路「1」と、トンネルを経由しない経路「2」との合計2経路を生成したとする。現在地から目的地まで、リンク(交差点間の道路)で区間を区切った場合、経路「1」には、区間「5」にトンネルが存在し、経路「2」には、区間「4」に歩行者の通行が多い道路があり、外界認識DB11には当該箇所での外界センサ22aの失敗が過去にあったとする。
 図3(b)は、図3(a)の経路における各評価値を示すテーブルである。
 図3(b)の左側のテーブルは、図2の処理で外界センサ評価部13が計算した、外界センサ22aごとのセンサ評価値である。ここで、図3(a)では、現在の環境が晴れで昼間の時間帯であるとすると、トンネルの出口では逆光となり、経路「2」の区間「4」では多数の歩行者がいる可能性が高い。よって、逆光に弱い外界センサ「A」の経路「1」区間「5」(トンネル付近)のセンサ評価値は「3」と低くなる。同様に、歩行者の認識に弱い外界センサ「B」の経路「2」区間「4」のセンサ評価値は「6」と低くなる。
 図3(b)の右側のテーブルにおいて、経路評価部14は、各区間のセンサ評価値に基づいて、各区間の経路ごとの区間評価値を計算する。例えば、経路評価部14は、同じ経路の同じ区間に複数のセンサ評価値が存在するときには、それらのセンサ評価値の最大値を区間評価値とする。これにより、経路「1」区間「5」のセンサ評価値「A=3,B=8」から、経路「1」区間「5」の区間評価値「8」が求まる。
 ただし、評価の高い外界センサ22aが、自動運転の実施には不向き(例えば、検知距離が短いなど)のものである場合などは、経路評価部14は、平均値や中央値など、統計値を用いて自動運転の可否を決定するための区間評価値を計算してもよい。
 さらに、経路評価部14は、経路ごとの区間評価値の平均値を、経路ごとの経路評価値(総合評価値)とする。また、経路評価値については、平均値などの統計値や、自動運転できる区間の距離や時間の長さ、手動運転が必要な区間の運転の複雑さなどを考慮して算出すればよい。
 経路評価部14は、これらの計算結果(区間評価値、経路評価値)をコネクティッドカー2へ送信することにより、コネクティッドカー2は提供された経路上における自車の各外界センサ22aの評価がわかる。これにより、自動運転時に外界認識の失敗に備えて外界認識部22における外界センサ22aの構成やモードを変更することができる。
 図4(a)は、外界センサ評価部13が提供するセンサ評価値の送信データである。図4(a)で示すように、コネクティッドカー2に搭載される外界センサ22aの装置数、経路候補生成部12が生成した経路数、その経路数の内の経路IDとその経路に含まれる区間数がヘッダに格納され、そのヘッダより後に、区間ID=1のデータ、区間ID=2のデータ、…の順にパケットのデータ部に格納される。
 なお、区間IDごとの区間始点及び区間終点はノード(交差点)に割り当てられた番号としてもよいし、緯度、経度、高度による位置の特定でもよいし、レーンレベルでの詳細な車両の位置でもよい。
 図4(b)は、経路評価部14が提供する区間評価値、経路評価値の送信データである。図4(a)と同様なパケットのヘッダの後に、経路「1」の各区間評価値および経路評価値、経路「2」の各区間評価値および経路評価値が順にパケットのデータ部に格納される。コネクティッドカー2は、このデータを参照することで、現在の自身の走行環境において、自動運転を許可して良いか否かを判断することができる。
 図5は、コネクティッドカー2が図4の各送信データを受信したときの処理を示すフローチャートである。
 S201では、コネクティッドカー2は、テレマティクスセンタ1から図4の各データ(外界センサの評価と自動運転の可否の評価)を受信する。
 S202では、自動運転計画部21は、S201の経路評価値(総合評価値)が最大となる経路を、自身のこれから走行する自動運転の経路に設定する。
 ここで、自動運転計画部21は、S203~S207において、S202で設定した自動運転の経路の区間ごとの処理を行う。
 S204では、自動運転計画部21は、ループ選択中の区間評価値が閾値Th1より大きいか否かを判定する。
 区間評価値>閾値Th1なら、自動運転計画部21は、当該区間を自動運転区間に設定し、自動運転部23を動作させる(S205)。
 区間評価値≦閾値Th1なら、自動運転計画部21は、当該区間を手動運転区間に設定し、手動運転部25を動作させる(S206)。
 これにより、外界認識の失敗の可能性が低いところでは、自動運転区間に設定され、外界認識の失敗の可能性が高いところでは、手動運転区間に設定されるようになる。このため、自動運転の信頼性を高めることができる。
 図6は、外界認識部22の処理内容を示すフローチャートである。
 S301では、外界認識部22は、テレマティクスセンタ1から受信したセンサ評価値を、自動運転計画部21から取得する。
 S302~S321は、S202で設定された経路の区間ごとに実行されるループである。
 S303では、外界認識部22は、当該区間が自動運転区間として設定されているか否かを判定する。設定されている場合は(S303,Yes)S311へ進み、設定されていない場合は(S303,No)、当該区間については終了し、次の区間へ進むため、処理をS321に進める。
 S311からS316は、コネクティッドカー2に搭載される外界センサ22aごとに実行されるループである。
 S312では、外界認識部22は、当該外界センサ22aのセンサ評価値が閾値Th2より小さいか否かを判定する。S312でYesならS313に進み、NoならS316に進むことで、次の外界センサ22aのループを実行する。
 S313では、外界認識部22は、外界センサ22aのモードを変更することで、認識能力を高めることが可能か否かを判定する。ここでのモードとは、各外界センサ22a固有の認識モードや、認識パラメータ、サンプリングレート、ゲインなどを指す。S313でYesならS314に進み、NoならS315に進む。
 S314において、外界認識部22は、当該区間では当該外界センサ22aのモードをS313で可能と判定された認識能力を高めるモードへと変更するように設定する。
 S315において、外界認識部22は、当該区間での当該外界センサ22aの構成を変更するように設定する。ここで構成の変更とは、外界センサ22aの評価値がTh2より低くなる認識装置の認識結果を使わなかったり、重要度を下げたりすることを指す。
 これにより、特定の外界センサ22aの外界認識能力が低い区間があったとしても、モード変更や構成変更を実施することにより、全体として外界認識能力を高まる。このため、自動運転部23で実施される自動運転の信頼性を高めることができる。
 図7は、自動運転支援システムを自律飛行物体2bに適用した場合の構成図である。この構成図は、移動体として、図1のコネクティッドカー2を図7の自律飛行物体2bに置き換えたものである。自律飛行物体2bは、例えば、ドローンなどの小型のマルチコプターである。よって、以下では図7に示す構成要素のうちの図1との差分を中心に説明する。
 まず、テレマティクスセンタ1は、経路候補生成部12の代わりに、3D経路候補生成部12bを有している。車両とは異なり、自律飛行物体は3次元空間内を走行するため、3次元の経路を生成する必要がある。
 次に、外界センサ22aが認識する周囲の情報が3次元(空中)となることで、外界センサ22aは、自律飛行物体2bの周辺(前方や後方、上方、下方、側方など)を認識できるように複数台、またセンサ毎の得手/不得手をカバーできるように複数種類搭載されることが望ましい。
 さらに、移動体の内部(車内)から手動運転するか、移動体の外部(リモコン)から手動運転するかの違いがある。よって、コネクティッドカー2の手動運転の要素(報知部24、手動運転部25)が、自律飛行物体2bでは外部の手動コントローラ2c(報知部24c、手動運転部25c)に備えられており、その手動コントローラ2cはネットワーク9とは別の運転用ネットワーク9bを介して自律飛行物体2bと通信可能に構成されている。
 以上の構成により、運転者が搭乗していない自律飛行物体2bであっても、コネクティッドカー2と同様に、自動運転/手動運転を走行環境に応じて適切に切り替えることができる。
 図8(a)は、図7の自律飛行物体2bが飛行する3D経路の一例を示す平面図である。
 図8(b)は、図8(a)の3D経路を俯瞰視点で見たときの立体図である。この立体図は3次元空間を簡易的に示したものであり、3次元空間内には、建築物A、B、Cと樹木があり、空間はグリッドに分割して管理されている。
 3D経路候補生成部12bは経路「1」から経路「3」までの3つの経路候補を生成したとする。3D経路候補生成部12bは、以下に示すように、経路「2」を採用する。
 経路「3」は、建造物Aの周囲に設定された飛行禁止エリアを通過するので、候補から除外される。
 経路「1」は、建築物Bからの反射が強い空間Bを通過するので、逆光などに弱い外界センサ22aのセンサ評価値が低くなってしまい、候補から除外される。
 以上説明した本実施形態では、移動体周囲の外部環境と、その外部環境における外界センサ22aごとの認識結果(成功または失敗)とを対応付けた履歴データを外界認識DB11で管理するテレマティクスセンタ1が、コネクティッドカー2や自律飛行物体2bなどの移動体に対して、現在の外部環境に一致または類似する過去の履歴データを提供する。
 これにより、移動体は、外界認識DB11の履歴データを反映した適切な自動運転制御を実現できる。
 例えば、コネクティッドカー2は、過去のカメラのセンサ評価値が低いトンネル出口では、カメラの認識結果を自動運転に反映させず、赤外線の認識結果だけから前方の障害物の有無を判定するように、構成変更部22cの構成変更処理を動作させることで、カメラの誤認識を回避した安定的な自動運転を実現できる。
 また、コネクティッドカー2は、カメラのセンサ評価値も低く、赤外線のセンサ評価値も低いような曲がりくねったトンネル内部の走行環境では、その区間の区間評価値が低いことにより、自動運転をオフにし手動運転部25をオンにする。
 さらに、コネクティッドカー2は、区間評価値が低い区間を多く通過するような、経路評価値の低い経路候補をそもそも経路として採用しないことで、手動運転の頻度を下げることができる。
 なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
 また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
 また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
 さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
 1   テレマティクスセンタ(センタ装置)
 2   コネクティッドカー(移動体)
 2b  自律飛行物体(移動体)
 2c  手動コントローラ
 9   ネットワーク
 9b  運転用ネットワーク
 11  外界認識DB(データベース)
 12  経路候補生成部
 12b 3D経路候補生成部
 13  外界センサ評価部
 14  経路評価部
 21  自動運転計画部
 22  外界認識部
 22a 外界センサ
 22b モード切替部
 22c 構成変更部
 23  自動運転部
 24  報知部
 24c 報知部
 25  手動運転部
 25c 手動運転部

Claims (10)

  1.  移動体の移動経路上の通行環境ごとに、当該通行環境を認識する外界センサごとの認識精度を示すセンサ評価値を対応付けるデータベースを管理し、前記移動体からの要求に応じて、その要求元の前記移動体の前記通行環境および前記外界センサに合致する前記センサ評価値を、要求元の前記移動体に通知するセンタ装置と、
     前記センタ装置から通知された前記センサ評価値をもとに、自身の前記各外界センサの認識データを自身の自動運転制御に反映させる工程を変化させる前記移動体とを有することを特徴とする
     自動運転支援システム。
  2.  前記移動体は、前記各外界センサの認識データを自身の自動運転制御に反映させる工程として、前記センサ評価値が所定値よりも低い前記外界センサの認識データを自動運転には使用しないように構成を変更することを特徴とする
     請求項1に記載の自動運転支援システム。
  3.  前記移動体は、前記各外界センサの認識データを自身の自動運転制御に反映させる工程として、前記センサ評価値が所定値よりも低い前記外界センサについて、前記センサ評価値を高めるように前記外界センサの動作モードを切り替えることを特徴とする
     請求項1に記載の自動運転支援システム。
  4.  前記センタ装置は、前記移動体が有する前記各外界センサの前記センサ評価値を統合した区間評価値を移動経路の一部である経路区間ごとに計算し、
     前記移動体は、前記センタ装置から受信した前記区間評価値をもとに、前記区間評価値が所定値よりも低い経路区間については、自動運転をオフにして手動運転を運転者に促すことを特徴とする
     請求項1ないし請求項3のいずれか1項に記載の自動運転支援システム。
  5.  前記センタ装置は、移動経路の経路区間ごとの前記区間評価値を統合した経路評価値を移動経路の候補ごとに計算し、
     前記移動体は、前記センタ装置から受信した前記経路評価値をもとに、前記経路評価値が高い移動経路の候補をこれから移動する経路として採用することを特徴とする
     請求項4に記載の自動運転支援システム。
  6.  自動運転支援システムは、センタ装置と移動体とをネットワークで接続して構成され、
     前記センタ装置は、移動体の移動経路上の通行環境ごとに、当該通行環境を認識する外界センサごとの認識精度を示すセンサ評価値を対応付けるデータベースを管理し、前記移動体からの要求に応じて、その要求元の前記移動体の前記通行環境および前記外界センサに合致する前記センサ評価値を、要求元の前記移動体に通知し、
     前記移動体は、前記センタ装置から通知された前記センサ評価値をもとに、自身の前記各外界センサの認識データを自身の自動運転制御に反映させる工程を変化させることを特徴とする
     自動運転支援方法。
  7.  前記移動体は、前記各外界センサの認識データを自身の自動運転制御に反映させる工程として、前記センサ評価値が所定値よりも低い前記外界センサの認識データを自動運転には使用しないように構成を変更することを特徴とする
     請求項6に記載の自動運転支援方法。
  8.  前記移動体は、前記各外界センサの認識データを自身の自動運転制御に反映させる工程として、前記センサ評価値が所定値よりも低い前記外界センサについて、前記センサ評価値を高めるように前記外界センサの動作モードを切り替えることを特徴とする
     請求項6に記載の自動運転支援方法。
  9.  前記センタ装置は、前記移動体が有する前記各外界センサの前記センサ評価値を統合した区間評価値を移動経路の一部である経路区間ごとに計算し、
     前記移動体は、前記センタ装置から受信した前記区間評価値をもとに、前記区間評価値が所定値よりも低い経路区間については、自動運転をオフにして手動運転を運転者に促すことを特徴とする
     請求項6ないし請求項8のいずれか1項に記載の自動運転支援方法。
  10.  前記センタ装置は、移動経路の経路区間ごとの前記区間評価値を統合した経路評価値を移動経路の候補ごとに計算し、
     前記移動体は、前記センタ装置から受信した前記経路評価値をもとに、前記経路評価値が高い移動経路の候補をこれから移動する経路として採用することを特徴とする
     請求項9に記載の自動運転支援方法。
PCT/JP2017/005253 2016-03-17 2017-02-14 自動運転支援システム、および、自動運転支援方法 WO2017159176A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/081,415 US11267489B2 (en) 2016-03-17 2017-02-14 Automatic operation assistance system and automatic operation assistance method
JP2018505355A JP6609369B2 (ja) 2016-03-17 2017-02-14 自動運転支援システム、および、自動運転支援方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016053211 2016-03-17
JP2016-053211 2016-03-17

Publications (1)

Publication Number Publication Date
WO2017159176A1 true WO2017159176A1 (ja) 2017-09-21

Family

ID=59850189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/005253 WO2017159176A1 (ja) 2016-03-17 2017-02-14 自動運転支援システム、および、自動運転支援方法

Country Status (3)

Country Link
US (1) US11267489B2 (ja)
JP (1) JP6609369B2 (ja)
WO (1) WO2017159176A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181895A1 (ja) * 2018-03-19 2019-09-26 本田技研工業株式会社 移動体の管理システム及びその制御方法並びに管理サーバ
WO2019181896A1 (ja) * 2018-03-19 2019-09-26 本田技研工業株式会社 移動体の管理システム及びその制御方法並びに管理サーバ
JP2019207539A (ja) * 2018-05-29 2019-12-05 株式会社Soken 管理装置
WO2020105123A1 (ja) * 2018-11-20 2020-05-28 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
WO2020105124A1 (ja) * 2018-11-20 2020-05-28 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
JPWO2019092802A1 (ja) * 2017-11-08 2020-05-28 三菱電機株式会社 走行計画更新装置および走行計画更新方法
JP2021015059A (ja) * 2019-07-12 2021-02-12 Kddi株式会社 経路探索装置、プログラム及び端末装置
JP2021507206A (ja) * 2017-12-15 2021-02-22 ウェイモ エルエルシー 車両ルーティングのシーン難易度予測モデルの使用
US10939453B2 (en) 2019-03-11 2021-03-02 Honda Motor Co., Ltd. Vehicle and on-board communication devices
JP2022154867A (ja) * 2021-03-30 2022-10-13 トヨタ自動車株式会社 ライドシェア車両のルート検索装置及びルート検索方法
KR20220139707A (ko) * 2021-04-08 2022-10-17 한국자동차연구원 운행설계영역에 기반한 자율주행 경로 계획 장치 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021015565A (ja) * 2019-07-16 2021-02-12 トヨタ自動車株式会社 車両制御装置
US11321211B1 (en) * 2020-10-25 2022-05-03 Motional Ad Llc Metric back-propagation for subsystem performance evaluation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011196786A (ja) * 2010-03-18 2011-10-06 Toyota Central R&D Labs Inc 渋滞時間算出装置、出発時刻算出装置、渋滞なし時間算出装置、及びプログラム
JP2015162175A (ja) * 2014-02-28 2015-09-07 株式会社デンソー 自動運転装置
JP2016028927A (ja) * 2014-07-25 2016-03-03 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5325082A (en) * 1992-11-19 1994-06-28 Rodriguez Juan C Comprehensive vehicle information storage system
US20130197736A1 (en) * 2012-01-30 2013-08-01 Google Inc. Vehicle control based on perception uncertainty
JP6269210B2 (ja) 2014-03-18 2018-01-31 アイシン・エィ・ダブリュ株式会社 経路探索システム、経路探索方法及びコンピュータプログラム
KR102339667B1 (ko) * 2014-03-26 2021-12-14 얀마 파워 테크놀로지 가부시키가이샤 자율 주행 작업 차량
US9409570B2 (en) * 2014-05-09 2016-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for predicting most probable path of vehicle travel and vehicle control loss preview
EP3251023A4 (en) * 2015-01-26 2018-09-26 TRW Automotive U.S. LLC Vehicle driver assist system
US9630619B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US9925987B1 (en) * 2015-12-11 2018-03-27 Lytx, Inc. Driving abnormality detection
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
US9688288B1 (en) * 2016-03-08 2017-06-27 VOLKSWAGEN AG et al. Geofencing for auto drive route planning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011196786A (ja) * 2010-03-18 2011-10-06 Toyota Central R&D Labs Inc 渋滞時間算出装置、出発時刻算出装置、渋滞なし時間算出装置、及びプログラム
JP2015162175A (ja) * 2014-02-28 2015-09-07 株式会社デンソー 自動運転装置
JP2016028927A (ja) * 2014-07-25 2016-03-03 アイシン・エィ・ダブリュ株式会社 自動運転支援システム、自動運転支援方法及びコンピュータプログラム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019092802A1 (ja) * 2017-11-08 2020-05-28 三菱電機株式会社 走行計画更新装置および走行計画更新方法
JP2021507206A (ja) * 2017-12-15 2021-02-22 ウェイモ エルエルシー 車両ルーティングのシーン難易度予測モデルの使用
US10957208B2 (en) 2018-03-19 2021-03-23 Honda Motor Co., Ltd. Mobile body management system, control method for mobile body management system, and management server for mobile body management system
JPWO2019181895A1 (ja) * 2018-03-19 2021-03-11 本田技研工業株式会社 移動体の管理システム及びその制御方法並びに管理サーバ
WO2019181895A1 (ja) * 2018-03-19 2019-09-26 本田技研工業株式会社 移動体の管理システム及びその制御方法並びに管理サーバ
JP7320489B2 (ja) 2018-03-19 2023-08-03 本田技研工業株式会社 移動体の管理システム及びその制御方法並びに管理サーバ
JP6613015B1 (ja) * 2018-03-19 2019-11-27 本田技研工業株式会社 移動体の管理システム
CN111886635A (zh) * 2018-03-19 2020-11-03 本田技研工业株式会社 移动体的管理系统及其控制方法、以及管理服务器
CN111886635B (zh) * 2018-03-19 2022-11-18 本田技研工业株式会社 移动体的管理系统及其控制方法、以及管理服务器
WO2019181896A1 (ja) * 2018-03-19 2019-09-26 本田技研工業株式会社 移動体の管理システム及びその制御方法並びに管理サーバ
JP2019207539A (ja) * 2018-05-29 2019-12-05 株式会社Soken 管理装置
WO2020105123A1 (ja) * 2018-11-20 2020-05-28 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
JPWO2020105123A1 (ja) * 2018-11-20 2021-10-28 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
JP7152507B2 (ja) 2018-11-20 2022-10-12 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
WO2020105124A1 (ja) * 2018-11-20 2020-05-28 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
US11782447B2 (en) 2018-11-20 2023-10-10 Honda Motor Co., Ltd. Autonomous work machine, method of controlling the same, and storage medium
JPWO2020105124A1 (ja) * 2018-11-20 2021-10-28 本田技研工業株式会社 自律作業機、自律作業機の制御方法及びプログラム
US10939453B2 (en) 2019-03-11 2021-03-02 Honda Motor Co., Ltd. Vehicle and on-board communication devices
JP2021015059A (ja) * 2019-07-12 2021-02-12 Kddi株式会社 経路探索装置、プログラム及び端末装置
JP7185600B2 (ja) 2019-07-12 2022-12-07 Kddi株式会社 経路探索装置及びプログラム
JP2022154867A (ja) * 2021-03-30 2022-10-13 トヨタ自動車株式会社 ライドシェア車両のルート検索装置及びルート検索方法
JP7294365B2 (ja) 2021-03-30 2023-06-20 トヨタ自動車株式会社 ライドシェア車両のルート検索装置及びルート検索方法
KR102594281B1 (ko) 2021-04-08 2023-10-26 한국자동차연구원 운행설계영역에 기반한 자율주행 경로 계획 장치 및 방법
KR20220139707A (ko) * 2021-04-08 2022-10-17 한국자동차연구원 운행설계영역에 기반한 자율주행 경로 계획 장치 및 방법

Also Published As

Publication number Publication date
JPWO2017159176A1 (ja) 2018-09-27
JP6609369B2 (ja) 2019-11-20
US11267489B2 (en) 2022-03-08
US20210179146A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP6609369B2 (ja) 自動運転支援システム、および、自動運転支援方法
KR102306142B1 (ko) 센서 고장에 대한 자율 주행 차량 대응방안을 구현하기 위한 시스템 및 방법
US11231286B2 (en) Dynamic routing for self-driving vehicles
US20210162995A1 (en) Navigation relative to pedestrians at crosswalks
US11386785B2 (en) Management of mobile objects
US20210163021A1 (en) Redundancy in autonomous vehicles
JP7031612B2 (ja) 情報提供システム、サーバ、移動端末、及びコンピュータプログラム
CN113071520B (zh) 车辆行驶控制方法及装置
US10518770B2 (en) Hierarchical motion planning for autonomous vehicles
US11927957B2 (en) Speed behavior planning for vehicles
US11346682B2 (en) Augmented 3D map
KR20230074694A (ko) Radar를 사용한 확장 대상체 추적
US20230333555A1 (en) Systems and methods for matching an autonomous vehicle to a rider
US20210191394A1 (en) Systems and methods for presenting curated autonomy-system information of a vehicle
US20210086797A1 (en) Vehicle control device, map information management system, vehicle control method, and storage medium
US20200200553A1 (en) Routing autonomous vehicles using temporal data
KR102518680B1 (ko) 속력 프로파일 추정
US20230134068A1 (en) Autonomous Vehicle Navigation in Response to a Stopped Vehicle at a Railroad Crossing
WO2021216339A1 (en) Using drone data to generate high-definition map for autonomous vehicle navigation
US20210253132A1 (en) Systems and methods for externally assisted self-driving
US20220234621A1 (en) Augmented 3d map
US11312393B2 (en) Artificially falsifying sensor data to initiate a safety action for an autonomous vehicle
US11292491B2 (en) Server and vehicle control system
US20230324188A1 (en) Autonomous vehicle fleet scheduling to maximize efficiency
KR20210109615A (ko) 활동에 기초한 인지된 대상체 분류

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018505355

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17766183

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17766183

Country of ref document: EP

Kind code of ref document: A1