WO2022009900A1 - 自動運転装置、車両制御方法 - Google Patents

自動運転装置、車両制御方法 Download PDF

Info

Publication number
WO2022009900A1
WO2022009900A1 PCT/JP2021/025514 JP2021025514W WO2022009900A1 WO 2022009900 A1 WO2022009900 A1 WO 2022009900A1 JP 2021025514 W JP2021025514 W JP 2021025514W WO 2022009900 A1 WO2022009900 A1 WO 2022009900A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
map data
vehicle
driving device
automatic driving
Prior art date
Application number
PCT/JP2021/025514
Other languages
English (en)
French (fr)
Inventor
警宇 項
弘幸 大澤
Original Assignee
株式会社Soken
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Soken, 株式会社デンソー filed Critical 株式会社Soken
Priority to CN202180047732.4A priority Critical patent/CN115769287A/zh
Priority to JP2022535359A priority patent/JPWO2022009900A1/ja
Publication of WO2022009900A1 publication Critical patent/WO2022009900A1/ja
Priority to US18/061,138 priority patent/US20230115708A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3889Transmission of selected map data, e.g. depending on route
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/085Changing the parameters of the control units, e.g. changing limit values, working points by control input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/05Big data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/30Data update rate
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3896Transmission of map data from central databases

Definitions

  • This disclosure relates to a technology for generating a control plan for an autonomous vehicle using map data.
  • Patent Document 1 discloses a configuration in which a vehicle traveling plan, in other words, a control plan, is generated using a mathematical formula model called an RSS (Responsibility Sensitive Safety) model and map data in automatic driving.
  • RSS Responsibility Sensitive Safety
  • the planner which is a functional block that formulates a control plan in the RSS model, calculates the potential accident liability value for each of multiple control plans using map data, and adopts a control plan in which the potential accident liability value is within the permissible range.
  • the potential accident liability value is a parameter indicating the degree of liability of the own vehicle in the event of an accident between the peripheral vehicle existing around the own vehicle and the own vehicle.
  • the potential accident liability value is a value considering whether or not the inter-vehicle distance between the own vehicle and surrounding vehicles is shorter than the safety distance determined based on the road structure or the like.
  • the RSS model is based on the premise that the vehicle has map data. If the vehicle keeps the map data of all areas in the latest state, it is unlikely that the potential accident liability value cannot be calculated due to a map defect such as missing or deteriorated map data. However, it is difficult for the vehicle to keep the map data of all areas in the latest state from the viewpoint of data capacity and communication frequency.
  • the vehicle will be configured to download and use a partial map, which is a map of the local range according to the current position, etc., from the map server each time.
  • a partial map which is a map of the local range according to the current position, etc.
  • the partial map is downloaded and used, a situation may occur in which the partial map data of the area required for calculating the potential accident liability value cannot be acquired due to a communication error, a download error, a system processing error, or the like.
  • map data distributed by the map server does not match the real world due to changes in the environment in the real world. If the map data cannot be acquired, or if the map data is inconsistent with the real world, the planner will not be able to calculate a legitimate potential accident liability value. If the planner using the RSS model cannot calculate the potential accident liability value, the safety of each control plan cannot be quantitatively evaluated, so that the automatic operation may not be continued.
  • This disclosure was made based on this circumstance, and the purpose of the present disclosure is to provide an automatic driving device and a vehicle control method that can reduce the risk of embarrassing the user.
  • the automatic driving device for achieving the purpose is an automatic driving device that creates a control plan for autonomously driving a vehicle using map data, and is a map management unit that determines the acquisition status of map data. And a control planning unit that creates a control plan using map data, and the control planning unit is configured to change the contents of the control plan according to the acquisition status of the map data determined by the map management unit. ing.
  • the control plan in other words, the behavior of the vehicle changes according to the acquisition status of the map. Therefore, the user can sense a sign that the automatic driving is interrupted based on whether or not the behavior of the vehicle is the same as the normal time. As a result, it is possible to reduce the risk of embarrassing the user.
  • the vehicle control method for achieving the above object is a vehicle control method for autonomously traveling the vehicle using map data, which is executed by at least one processor.
  • the control plan step includes a map management step for determining the acquisition status of map data and a control plan step for creating a control plan for the vehicle using the map data.
  • the control plan step is the acquisition status of the map data determined in the map management step. It is configured to change the contents of the control plan according to the situation.
  • FIG. 1 is a diagram showing an example of a schematic configuration of the automated driving system 100 according to the present disclosure.
  • the automatic driving system 100 includes an in-vehicle system 1 built in the vehicle Ma and a map server 3.
  • the in-vehicle system 1 downloads partial map data, which is local high-precision map data, from the map server 3 by performing wireless communication with the map server 3, and uses it for automatic driving and navigation.
  • the in-vehicle system 1 can be mounted on a vehicle that can travel on the road, and the vehicle Ma may be a four-wheeled vehicle, a two-wheeled vehicle, a three-wheeled vehicle, or the like. Motorized bicycles can also be included in motorcycles.
  • the vehicle Ma may be an owner car owned by an individual, a share car, or a service car. Service cars include taxis, fixed-route buses, and shared buses.
  • the vehicle Ma may be a robot taxi, an unmanned bus, or the like on which the driver is not on board. When the vehicle Ma falls into a situation where automatic driving is difficult, the vehicle Ma may be configured to be remotely controllable by an operator existing outside.
  • the operator here refers to a person who has the authority to control the vehicle by remote control from the outside of the vehicle, such as a predetermined center. Operators can also be included in the driver / driver occupant concept.
  • the operator may be a server or software configured to be able to determine a driving operation according to a scene based on artificial intelligence.
  • the map data corresponds to map data showing the road structure, the position coordinates of the features arranged along the road, and the like with the accuracy that can be used for automatic driving.
  • Map data includes node data, link data, feature data, etc.
  • the node data is composed of each data such as a node ID with a unique number for each node on the map, node coordinates, a node name, a node type, and a connection link ID in which the link ID of the link connecting to the node is described.
  • the node is composed of each data such as a node ID with a unique number for each node on the map, node coordinates, a node name, a node type, and a connection link ID in which the link ID of the link connecting to the node is described. The node.
  • Link data is data about links that are road sections that connect nodes.
  • the link data includes a link ID, which is a unique identifier for each link, a link length indicating the length of the link, a link direction, a link travel time, link shape information (hereinafter referred to as a link shape), and a node between the start and end of the link. It is composed of each data such as coordinates and road attributes.
  • the link shape may be represented by a coordinate sequence indicating the coordinate positions of the shape interpolation points representing both ends of the link and the shape between them.
  • the link shape corresponds to the road shape.
  • the link shape may be represented by a cubic spline curve.
  • Road attributes include road name, road type, road width, lane number information indicating the number of lanes, speed regulation value, and the like.
  • the link data may be described by being subdivided into lane units.
  • the map data includes road link data corresponding to link data for each road that summarizes lanes having the same traveling direction, and lane ring data as a lower layer corresponding to link data for individual lanes. Is also good.
  • the link data may be subdivided into lanes (that is, lanes) in addition to road sections.
  • the feature data includes lane marking data and landmark data.
  • the lane marking data includes a lane marking ID for each lane marking and a coordinate point cloud representing an installation portion.
  • the lane marking data includes pattern information such as broken lines, solid lines, and road studs.
  • the lane marking data is associated with lane information such as lane IDs and link IDs at the lane level.
  • a landmark is a feature that can be used as a marker to identify the position of the own vehicle on the map.
  • Landmarks include predetermined three-dimensional structures located along the road.
  • the three-dimensional structure installed along the road is, for example, a guardrail, a curb, a tree, a utility pole, a road sign, a traffic light, or the like.
  • Road signs include information signs such as direction signs and road name signs.
  • the landmark data represents the position and type of each landmark.
  • the shape and position of each object is represented by a group of coordinate points.
  • POI data affects vehicle travel plans such as junctions for exiting the main highway, confluences, speed limit changes, lane changes, traffic jams, construction sections, intersections, tunnels, tollhouses, etc. It is the data which shows the position and the type of the feature which exerts.
  • POI data includes type and location information.
  • the map data may be three-dimensional map data including a point cloud of feature points of a road shape and a structure.
  • the three-dimensional map data corresponds to map data representing the positions of features such as road edges, lane marking lines, and road signs in three-dimensional coordinates.
  • the three-dimensional map may be generated by REM (Road Experience Management) based on the captured image.
  • the map data may include a traveling track model.
  • the travel track model is track data generated by statistically integrating the travel trajectories of a plurality of vehicles.
  • the travel track model is, for example, an average of travel trajectories for each lane.
  • the travel track model corresponds to data indicating a travel track that serves as a reference during automatic driving.
  • Map data may include static map information and quasi-static map information.
  • the static map information here refers to information on features that are unlikely to change, such as road networks, road shapes, road markings, structures such as guardrails, and buildings.
  • the static map information can also be understood as information about features that are required to be updated within one week to one month, for example.
  • Static map information is also called a base map.
  • Quasi-static map information is information that is required to be updated within one to several hours, for example.
  • Road construction information, traffic regulation information, traffic congestion information, and wide area weather information correspond to quasi-static map information.
  • the map data handled by the map server 3 includes static map information and quasi-static map information.
  • the map information handled by the map server 3 may be only static map information.
  • the map server 3 has all the map data corresponding to the entire map recording area. However, all map data is managed by dividing it into multiple patches. Each patch corresponds to map data for different areas. As shown in FIG. 1, for example, the map data is stored in the unit of map tiles in which the map recording area is divided into a rectangular shape of 2 km square. The broken line in FIG. 1 conceptually indicates the boundary of the map tile. Map tiles correspond to the subordinate concepts of the patch described above.
  • Each map tile is given information indicating the area of the real world to which the map tile corresponds.
  • Information indicating a real-world area is expressed in, for example, latitude, longitude, and altitude.
  • each map tile is given a unique ID (hereinafter, tile ID).
  • An adjacent tile ID which is a tile ID of an adjacent area, is associated with the map tile. The adjacent tile ID can be used for specifying the next area map data and the like.
  • the map data for each patch or map tile is a part of the entire map recording area, in other words, local map data. Map tiles correspond to partial map data.
  • the map server 3 distributes partial map data according to the position of the vehicle-mounted system 1 based on the request from the vehicle-mounted system 1.
  • the shape of the map tile is not limited to a 2km square rectangle. It may have a rectangular shape of 1 km square or 4 km square. Further, the map tile may be hexagonal or circular. Each map tile may be set to partially overlap the adjacent map tile.
  • the map recording area may be the entire country where the vehicle is used, or may be only a part of the area. For example, the map recording area may be limited to an area where automatic driving of a general vehicle is permitted or an area where an automatic driving movement service is provided.
  • map tiles in a rural area where the presence density of map elements such as landmarks is likely to be relatively sparse is higher than a map tile in an urban area where map elements such as landmarks are likely to be densely present.
  • the map tiles in the rural area may have a rectangular shape of 4 km square, while the map tiles in the urban area may have a rectangular shape of 1 km square or 0.5 km square.
  • the urban area here refers to, for example, an area where the population density is above a predetermined value or an area where offices and commercial facilities are concentrated.
  • Rural areas can be areas other than urban areas. Rural areas may be read as rural areas.
  • the division mode of all map data may be defined by the data size.
  • the map recording area may be divided and managed within a range defined by the data size.
  • each patch is set so that the amount of data is less than a predetermined value.
  • the data size in one delivery can be set to a certain value or less.
  • the in-vehicle system 1 shown in FIG. 2 is used in a vehicle capable of automatic driving (hereinafter referred to as an automatic driving vehicle).
  • the in-vehicle system 1 includes a peripheral monitoring sensor 11, a vehicle state sensor 12, a locator 13, a V2X in-vehicle device 14, an HMI system 15, a traveling actuator 16, an operation recording device 17, and an automatic driving device 20.
  • HMI in the member name is an abbreviation for Human Machine Interface.
  • V2X is an abbreviation for Vehicle to X (Everything) and refers to communication technology that connects various things to a car.
  • the various devices or sensors constituting the in-vehicle system 1 are connected as nodes to the in-vehicle network Nw, which is a communication network constructed in the vehicle.
  • the nodes connected to the in-vehicle network Nw can communicate with each other.
  • the specific devices may be configured to be able to directly communicate with each other without going through the in-vehicle network Nw.
  • the automatic driving device 20 and the operation recording device 17 may be directly electrically connected by a dedicated line.
  • the in-vehicle network Nw is configured as a bus type, but is not limited to this.
  • the network topology may be a mesh type, a star type, a ring type, or the like.
  • the network shape can be changed as appropriate.
  • As the in-vehicle network Nw standard various standards such as Controller Area Network (CAN: registered trademark), Ethernet (Ethernet is a registered trademark), FlexRay (registered trademark), and the like can be adopted.
  • each direction of front / rear, left / right, and up / down is defined with reference to the own vehicle Ma.
  • the front-rear direction corresponds to the longitudinal direction of the own vehicle Ma.
  • the left-right direction corresponds to the width direction of the own vehicle Ma.
  • the vertical direction corresponds to the vehicle height direction. From another point of view, the vertical direction corresponds to the direction perpendicular to the plane parallel to the front-back direction and the left-right direction.
  • the own vehicle Ma may be a vehicle capable of automatic driving.
  • degree of automatic driving hereinafter referred to as automation level
  • SAE International the American Society of Automotive Engineers of Japan
  • the automation level is classified into levels 0 to 5 as follows, for example, in the definition of SAE.
  • Level 0 is the level at which the driver performs all driving tasks without the intervention of the system. Driving tasks include, for example, steering and acceleration / deceleration. Level 0 corresponds to the so-called completely manual operation level. Level 1 is a level at which the system supports either steering or acceleration / deceleration. Level 2 refers to the level at which the system supports a plurality of steering operations and acceleration / deceleration operations. Levels 1 and 2 correspond to so-called driving support levels.
  • Level 3 refers to the level at which the system executes all driving operations within the operational design domain (ODD), while the operating authority is transferred from the system to the driver in an emergency.
  • ODD operational design domain
  • the ODD defines conditions under which automatic driving can be executed, such as the traveling position being in a highway.
  • Level 3 the driver's seat occupants are required to be able to respond promptly when there is a request for a driver change from the system. In addition, instead of the driver's seat occupant, an operator existing outside the vehicle may take over the driving operation.
  • Level 3 corresponds to so-called conditional automated driving.
  • Level 4 is a level at which the system can perform all driving tasks except under specific circumstances such as unresponsive roads and extreme environments. Level 4 corresponds to the level at which the system performs all driving tasks within the ODD.
  • Level 4 corresponds to so-called highly automatic driving.
  • Level 5 is the level at which the system can perform all driving tasks in any environment. Level 5 corresponds to so-called fully automated driving. Levels 3 to 5 correspond to so-called automatic driving. Levels 3 to 5 can also be called autonomous driving levels, which automatically execute all controls related to vehicle driving.
  • the level pointed to by "automatic driving” in the present disclosure may be, for example, equivalent to level 3 or level 4 or higher.
  • the automation level of the own vehicle Ma as the operation mode may be switchable. For example, it may be possible to switch between an automated operation mode of automation level 3 or higher, a driving support mode of levels 1 and 2, and a manual operation mode of level 0.
  • the peripheral monitoring sensor 11 is a sensor that monitors the periphery of the own vehicle.
  • the peripheral monitoring sensor 11 is configured to detect the presence and position of a predetermined detection object.
  • the detection target includes, for example, a moving object such as a pedestrian or another vehicle. Other vehicles include bicycles, motorized bicycles, and motorcycles. Further, the peripheral monitoring sensor 11 is configured to be able to detect predetermined features and obstacles.
  • the features to be detected by the peripheral monitoring sensor 11 include road edges, road markings, and three-dimensional structures installed along the road. Road markings refer to paint drawn on the road surface for traffic control and traffic regulation. For example, lane markings indicating lane boundaries, pedestrian crossings, stop lines, diversion zones, safety zones, regulatory arrows, etc. are included in the road markings.
  • Lane lane markings are also referred to as lane marks or lane markers. Lane lane markings also include those realized by road studs such as Cat's Eye and Bot's Dots.
  • the three-dimensional structure installed along the road is, for example, a guardrail, a road sign, a traffic light, or the like. That is, it is preferable that the peripheral monitoring sensor 11 is configured to be able to detect landmarks. Obstacles here refer to three-dimensional objects that exist on the road and obstruct the passage of vehicles. Obstacles include accident vehicles, debris of accident vehicles, and the like.
  • the peripheral monitoring sensor 11 may be configured to be able to detect a fallen object on the road such as a tire that has fallen off the vehicle body.
  • the peripheral monitoring sensor 11 for example, a peripheral monitoring camera, a millimeter wave radar, LiDAR, sonar, or the like can be adopted.
  • LiDAR is an abbreviation for Light Detection and Ringing or Laser Imaging Detection and Ringing.
  • the millimeter wave radar transmits millimeter waves or quasi-millimeter waves in a predetermined direction, and analyzes the received data of the reflected waves reflected by the object and returned to the own vehicle Ma. It is a device that detects the relative position and relative velocity of an object. As a detection result, the millimeter-wave radar generates, for example, data indicating the reception intensity and the relative speed for each detection direction and distance, or data indicating the relative position and reception intensity of the detected object.
  • LiDAR is a device that generates three-dimensional point cloud data indicating the positions of reflection points in each detection direction by irradiating with laser light.
  • the peripheral surveillance camera is an in-vehicle camera that is arranged to take an image of the outside of the own vehicle in a predetermined direction.
  • Peripheral surveillance cameras include front cameras arranged on the upper end of the windshield on the vehicle interior side, the front grill, and the like so as to photograph the front of the own vehicle Ma.
  • the front camera detects the above-mentioned detection target by using a classifier using, for example, a CNN (Convolutional Neural Network) or a DNN (Deep Neural Network).
  • the object recognition process based on the observation data generated by the peripheral monitoring sensor 11 may be executed by an ECU (Electronic Control Unit) outside the sensor such as the automatic driving device 20.
  • the automatic driving device 20 may include a part or all of the object recognition function included in the peripheral monitoring sensor 11 such as the front camera and the millimeter wave radar. In that case, the various peripheral monitoring sensors 11 may provide observation data such as image data and ranging data to the automatic operation device 20 as detection result data.
  • the vehicle state sensor 12 is a group of sensors that detect a state amount related to the running control of the own vehicle Ma.
  • the vehicle state sensor 12 includes a vehicle speed sensor, a steering sensor, an acceleration sensor, a yaw rate sensor, and the like.
  • the vehicle speed sensor detects the vehicle speed of the own vehicle.
  • the steering sensor detects the steering angle of the own vehicle.
  • the acceleration sensor detects accelerations such as front-rear acceleration and lateral acceleration of the own vehicle.
  • the accelerometer may also detect deceleration, which is acceleration in the negative direction.
  • the yaw rate sensor detects the angular velocity of the own vehicle.
  • the type of sensor used by the vehicle-mounted system 1 as the vehicle state sensor 12 may be appropriately designed, and it is not necessary to include all the above-mentioned sensors.
  • the locator 13 is a device that generates highly accurate position information and the like of the own vehicle Ma by compound positioning that combines a plurality of information.
  • the locator 13 is configured by using, for example, a GNSS receiver.
  • the GNSS receiver is a device that sequentially detects the current position of the GNSS receiver by receiving a navigation signal transmitted from a positioning satellite constituting a GNSS (Global Navigation Satellite System). For example, if the GNSS receiver can receive navigation signals from four or more positioning satellites, it outputs the positioning result every 100 milliseconds.
  • GPS, GLONASS, Galileo, IRNSS, QZSS, Beidou and the like can be adopted.
  • the locator 13 sequentially positions the position of the own vehicle Ma by combining the positioning result of the GNSS receiver and the output of the inertial sensor. For example, when the GNSS receiver cannot receive the GNSS signal, such as in a tunnel, the locator 13 performs dead reckoning (that is, autonomous navigation) using the yaw rate and the vehicle speed.
  • the yaw rate used for dead reckoning may be calculated by a front camera using SfM technology or may be detected by a yaw rate sensor.
  • the locator 13 may perform dead reckoning using the output of the acceleration sensor or the gyro sensor.
  • the vehicle position is represented, for example, in three-dimensional coordinates of latitude, longitude, and altitude.
  • the positioned vehicle position information is output to the in-vehicle network Nw and used by the automatic driving device 20 or the like.
  • the locator 13 may be configured to be capable of performing localization processing.
  • the localization process collates the coordinates of the landmark identified based on the image captured by the peripheral surveillance camera such as the front camera with the coordinates of the landmark registered in the map data, and the details of the own vehicle Ma are matched. Refers to the process of specifying the position.
  • Landmarks are, for example, three-dimensional structures installed along roads such as traffic signs, traffic lights, poles, and commercial signs.
  • the locator 13 is configured to specify a traveling lane ID which is an identifier of the lane in which the own vehicle Ma is traveling based on the distance from the road edge detected by the front camera or the millimeter wave radar. May be.
  • the travel lane ID indicates, for example, which lane from the leftmost or rightmost road end the own vehicle Ma is traveling. Some or all the functions of the locator 13 may be provided by the automatic driving device 20.
  • the lane in which the own vehicle Ma is traveling can be called an ego lane.
  • V2X on-board unit 14 a device for own vehicle Ma to carry out wireless communication with other devices.
  • V of V2X refers to a vehicle as own vehicle Ma
  • X can refer to various existences other than own vehicle Ma such as pedestrians, other vehicles, road equipment, networks, and servers.
  • the V2X on-board unit 14 includes a wide area communication unit and a narrow area communication unit as communication modules.
  • the wide area communication unit is a communication module for carrying out wireless communication conforming to a predetermined wide area wireless communication standard.
  • various standards such as LTE (Long Term Evolution), 4G, and 5G can be adopted.
  • the wide area communication unit In addition to communication via a wireless base station, the wide area communication unit carries out wireless communication directly with other devices, in other words, without going through a base station, by a method compliant with the wide area wireless communication standard. It may be configured to be possible. That is, the wide area communication unit may be configured to carry out cellular V2X.
  • the own vehicle Ma becomes a connected car that can be connected to the Internet by mounting the V2X on-board unit 14.
  • the automatic driving device 20 downloads the latest partial map data according to the current position of the own vehicle Ma from the map server 3 in cooperation with the V2X in-vehicle device 14.
  • the V2X on-board unit 14 corresponds to a wireless communication device.
  • the narrow-range communication unit included in the V2X on-board unit 14 is directly connected to other moving objects and roadside units existing around the own vehicle Ma by the narrow-range communication standard, which is a communication standard in which the communication distance is limited to several hundred meters or less. It is a communication module for carrying out wireless communication. Other moving objects are not limited to vehicles, but may include pedestrians, bicycles, and the like.
  • the narrow range communication standard various ones such as WAVE (Wireless Access in Vehicle Environment) and DSRC (Dedicated Short Range Communications) can be adopted.
  • the narrow-area communication unit broadcasts vehicle information about its own vehicle Ma to neighboring vehicles at a predetermined transmission cycle, and receives vehicle information transmitted from another vehicle.
  • the vehicle information includes a vehicle ID, a current position, a traveling direction, a moving speed, an operating state of a turn signal, a time stamp, and the like.
  • the HMI system 15 is a system that provides an input interface function that accepts user operations and an output interface function that presents information to the user.
  • the HMI system 15 includes a display 151 and an HCU (HMI Control Unit) 152.
  • HCU HMI Control Unit
  • the display 151 is a device for displaying an image.
  • the display 151 is, for example, a center display provided at the center of the instrument panel in the vehicle width direction.
  • the display 151 is capable of full-color display, and can be realized by using a liquid crystal display, an OLED (Organic Light Emitting Diode) display, a plasma display, or the like.
  • the HMI system 15 may be provided with a head-up display (HUD: Head-Up Display) that projects a virtual image on a part of the front of the driver's seat of the windshield as the display 151.
  • the display 151 may be a meter display.
  • the HCU 152 has a configuration that controls the presentation of information to the user in an integrated manner.
  • the HCU 152 is realized by using a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), a RAM, a flash memory, or the like.
  • the HCU 152 controls the display screen of the display 151 based on a control signal input from the automatic driving device 20 and a signal from an input device (not shown).
  • the HCU 152 displays a map icon 80 indicating the acquisition status of partial map data on the display 151, as illustrated in FIG. 3, based on the request from the automatic driving device 20.
  • FIG. 3A shows an example of the map unacquired icon 80A indicating a state in which the partial map data cannot be downloaded.
  • FIG. 3A shows an example of the map unacquired icon 80A indicating a state in which the partial map data cannot be downloaded.
  • FIG. 3B shows an example of the map acquired icon 80B indicating a state in which the partial map data has been successfully downloaded.
  • FIG. 3C shows an example of the map acquisition icon 80C indicating that the partial map data is being downloaded.
  • the display destination of the map icon 80 may be, for example, the upper end corner of the display 151.
  • the traveling actuator 16 is a traveling actuator.
  • the traveling actuator 16 includes, for example, a brake actuator as a braking device, an electronic throttle, a steering actuator, and the like.
  • the steering actuator also includes an EPS (Electric Power Steering) motor.
  • the traveling actuator 16 is controlled by the automatic driving device 20.
  • a steering ECU for steering control, a power unit control ECU for acceleration / deceleration control, a brake ECU, and the like may be interposed between the automatic driving device 20 and the traveling actuator.
  • the operation recording device 17 is a device that records data indicating at least one of the situation inside the vehicle and the situation outside the vehicle interior when the vehicle is running.
  • the state inside the vehicle when the vehicle is running can include the operating state of the automatic driving device 20 and the state of the driver's seat occupant.
  • the data indicating the operating state of the automatic driving device 20 includes the recognition result of the surrounding environment in the automatic driving device 20, the running plan, the calculation result of the target control amount of each running actuator, and the like. Further, an image captured from the display screen of the display 151, a so-called screenshot, may be included in the recording target.
  • the data to be recorded is acquired from the ECU and sensors mounted on the vehicle such as the automatic driving device 20 and the peripheral monitoring sensor 11 via the in-vehicle network Nw and the like.
  • the operation recording device 17 When a predetermined recording event occurs, the operation recording device 17 records various data at a predetermined time before and after the event occurrence.
  • the recording event for example, transfer of authority of driving operation, exit of ODD, implementation of emergency action described later, change of automation level, execution of MRM (Minimum Risk Maneuver), etc. can be adopted.
  • the operation recording device 17 stores data that can identify the partial map data acquired at that time.
  • the data that can identify the acquired partial map data is, for example, tile ID, version information, acquisition date and time, and the like.
  • the data recording destination may be a non-volatile storage medium mounted on the own vehicle Ma, or may be an external server.
  • the automatic driving device 20 is an ECU (Electronic Control Unit) that executes a part or all of the driving operation on behalf of the driver's seat occupant by controlling the traveling actuator 16 based on the detection result of the peripheral monitoring sensor 11. be.
  • the automatic operation device 20 is configured to be able to execute up to the automation level 5, and is configured to be able to switch the operation mode corresponding to each automation level.
  • the level 3 mode refers to an operation mode for performing control equivalent to the automatic operation level 3.
  • the automatic driving device 20 steers, accelerates, and decelerates (in other words,) the vehicle so that the vehicle Ma travels along the road to the destination set by the driver's seat occupant or the operator. If you do, braking) etc. will be performed automatically. It should be noted that the switching of the operation mode is automatically executed due to the system limit, the exit of the ODD, and the like, in addition to the user operation.
  • the automatic driving device 20 is mainly composed of a computer including a processing unit 21, a RAM 22, a storage 23, a communication interface 24, a bus connecting these, and the like.
  • the processing unit 21 is hardware for arithmetic processing combined with the RAM 22.
  • the processing unit 21 is configured to include at least one arithmetic core such as a CPU.
  • the processing unit 21 executes various processes for realizing the functions of the functional units described later by accessing the RAM 22.
  • the storage 23 is configured to include a non-volatile storage medium such as a flash memory.
  • the storage 23 stores an automatic operation program, which is a program executed by the processing unit 21. Executing the automatic driving program by the processing unit 21 corresponds to executing a method corresponding to the automatic driving program as a vehicle control method.
  • the communication interface 24 is a circuit for communicating with other devices via the in-vehicle network Nw.
  • the communication interface 24 may be realized by using an analog circuit element, an IC, or the like. The details of the automatic driving
  • the automatic driving device 20 provides a function corresponding to various functional blocks shown in FIG. 4 by executing an automatic driving program stored in the storage 23. That is, the automatic driving device 20 has its own vehicle position acquisition unit F1, sensing information acquisition unit F2, vehicle state acquisition unit F3, map acquisition unit F4, map management unit F5, driving environment recognition unit F6, and control planning unit F7 as functional blocks. , And a control signal output unit F8.
  • the map management unit F5 includes a consistency determination unit F51 as a sub-function
  • the control planning unit F7 includes a responsibility value calculation unit F71, a safety distance setting unit F72, and an action determination unit F73 as sub-functions.
  • the automatic driving device 20 includes a map holding unit M1.
  • the own vehicle position acquisition unit F1 acquires the current position coordinates of the own vehicle Ma from the locator 13.
  • the own vehicle position acquisition unit F1 is configured to read out the latest own vehicle position information stored in the non-volatile memory as the current position information immediately after the vehicle's running power is turned on. May be.
  • the latest position calculation result stored in the memory corresponds to the end point of the previous trip, that is, the parking position.
  • Trip refers to a series of trips from when the power for driving is turned on to when it is turned off.
  • the automatic driving device 20 is configured to store the vehicle position information observed at the time of parking in the non-volatile memory as a shutdown process after parking. ..
  • the traveling power source here is a power source for the vehicle to travel, and when the vehicle is a gasoline vehicle, it refers to an ignition power source.
  • the system main relay corresponds to a driving power source.
  • the sensing information acquisition unit F2 acquires the detection result (that is, sensing information) of the peripheral monitoring sensor 11.
  • the sensing information includes the positions of other moving objects, features, obstacles, etc. existing around the own vehicle Ma, and the moving speed.
  • the vehicle in front here may include a so-called preceding vehicle traveling in the same lane as the own vehicle, as well as a vehicle traveling in an adjacent lane. That is, the front here can include not only the direction directly in front of the own vehicle Ma but also the diagonal front.
  • the sensing information includes a lateral distance to the road edge, a traveling lane ID, an offset amount from the center line in the traveling lane, and the like.
  • the vehicle state acquisition unit F3 acquires the traveling speed, acceleration, yaw rate, etc. of the own vehicle Ma from the vehicle state sensor 12.
  • the map acquisition unit F4 acquires partial map data corresponding to the current position of the own vehicle Ma by wirelessly communicating with the map server 3 via the V2X on-board unit 14. For example, the map acquisition unit F4 requests the map server 3 to acquire partial map data related to the road that the own vehicle Ma plans to pass within a predetermined time.
  • the partial map data acquired from the map server 3 is stored in, for example, the map holding unit M1.
  • the map holding unit M1 is configured to hold data by using a non-volatile memory or the like even when the traveling power supply is set to off.
  • the map holding unit M1 is realized by using, for example, a part of the storage area included in the storage 23.
  • the map holding unit M1 may be realized by using a part of the storage area included in the RAM 22. Even if the map holding unit M1 is realized by using the RAM 22, it is possible to hold the data even while the traveling power is off by supplying the power of the vehicle-mounted battery to the RAM 22. Further, as another aspect, the map holding unit M1 may be configured so that the stored data is lost when the traveling power supply is set to off.
  • the map holding unit M1 is a non-transitional storage medium.
  • the partial map data including the current position is referred to as the current area map data
  • the recording range of the current area map data is described as the local map range or the current area.
  • the partial map data to be used next is referred to as the next area map data.
  • the next area map data corresponds to the partial map data adjacent to the traveling direction side of the own vehicle Ma in the current area map data.
  • the next area map data corresponds to partial map data for the area scheduled to enter within a predetermined time.
  • the next area map data may be determined based on the planned travel route.
  • Next area The recording range of map data is also described as the next map range or the next area. If the adjacent partial map data are configured to overlap, the local map range (current area) and the next map range (next area) may partially overlap.
  • the map management unit F5 manages the acquisition and retention status of partial map data corresponding to the traveling direction or the planned travel route of the own vehicle. For example, the map management unit F5 manages the partial map data acquired by the map acquisition unit F4 and the map data stored in the map holding unit M1. Here, as an example, the map management unit F5 is configured to delete all the map data in the map holding unit M1 at least at the timing when the traveling power is turned off.
  • the storage rules of the map data downloaded by the map acquisition unit F4 various rules can be applied in consideration of the capacity of the map holding unit M1 and the like.
  • the map management unit F5 may delete the partial map data for the area where the own vehicle Ma has already left, as soon as it leaves or at a timing separated by a predetermined distance or more.
  • the automatic driving device 20 can be realized by using the map holding unit M1 having a small capacity. That is, the introduction cost of the automatic driving device 20 can be reduced.
  • the map management unit F5 may be configured to delete the map data downloaded to the map holding unit M1 at a timing when a predetermined time (for example, one day) has elapsed from the time of downloading.
  • Map data for roads used on a daily basis such as commuting routes and school routes, may be configured to be cached in the map holding unit M1 as much as possible. For example, as long as the free space does not fall below a predetermined value, map data for roads used on a daily basis may be retained.
  • the retention period of the downloaded map data may be changed according to the attributes of the data. For example, static map data is stored in the map holding unit M1 up to a certain amount.
  • dynamic map data such as construction information may be configured to be deleted after passing through the area corresponding to the dynamic map data.
  • the map management unit F5 calculates, for example, the remaining time until the control planning unit F7 or the like starts using the next area map data as the next map use start time Tmx.
  • the timing for starting to use the next area map data may be, for example, when the own vehicle Ma leaves the local map range.
  • the map management unit F5 sets the next map use start time Tmx to the current position and traveling speed of the own vehicle Ma. Based on this, the remaining time until leaving the local map range is calculated.
  • FIG. 5 is a diagram conceptually showing the operation of the map management unit F5 over the time to start using the next map. “L” shown in FIG. 5 represents the distance from the current position to the exit point in the range of the local map.
  • the next map use start time Tmx is determined, for example, based on a value obtained by dividing the distance L by the vehicle speed V.
  • the timing to start using the next area map data can be, for example, when entering the next map range.
  • the map management unit F5 shall use the current position of the own vehicle Ma, the next map range information, and the own vehicle Ma.
  • the next map use start time Tmx can be calculated based on the traveling speed of the vehicle.
  • the timing to start using the next area map data is set. May be good. It is preferable that the map reference distance is set sufficiently longer than, for example, the safety distance described later.
  • the map reference distance may be set to 1.5 times the safe distance. Further, the map reference distance is a fixed value and may be, for example, 200 m. The map reference distance may be set longer as the traveling speed increases. Further, the map reference distance may be changed according to the road type. For example, the map reference distance of a motorway may be set longer than the map reference distance of a general road.
  • the map management unit F5 notifies the control planning unit F7 of the acquisition status of the map data, such as whether or not the next area map data has been acquired. For example, if the map management unit F5 has not yet acquired the next area map data in a state where the next map use start time Tmx is less than the predetermined preparation deadline time, the map acquisition of the next map use start time Tmx. It is output to the control planning unit F7 as the remaining time Tmg.
  • the remaining map acquisition time Tmg corresponds to the remaining time until the next area map data is required for formulating the control plan.
  • the state in which the next area map data is required for formulating the control plan includes the case where the next area map data is used for calculating the potential accident liability value described later.
  • the state in which the next area map data is required includes the case of leaving the local map area and the case of entering the next area map area.
  • the map acquisition remaining time Tmg may be set to a value obtained by subtracting a predetermined margin time from the next map use start time Tmx.
  • the spare time is, for example, a time in consideration of a communication delay, a processing delay after reception, and the like, and can be, for example, 5 seconds.
  • the remaining map acquisition time Tmg can be shorter than the next map use start time Tmx.
  • the map acquisition remaining time Tmg may be the next map use start time Tmx as it is.
  • the configuration of the present disclosure can be implemented by replacing the remaining map acquisition time Tmg with the next map use start time Tmx. If the next map use start time Tmx is longer than the predetermined preparation deadline time, or if the next area map data has already been acquired, the map acquisition remaining time Tmg is set to a sufficiently large value and output. Is also good.
  • the map management unit F5 acquires the next area map data for the V2X on-board unit 14 when the next area map data cannot be acquired yet in a state where the next map use start time Tmx is less than the preparation deadline. You may request that the communication for the purpose be executed preferentially. The request may be made via the map acquisition unit F4.
  • the preparation deadline time is preferably set to be longer than the first time Th1 described later, for example, 2 minutes.
  • the consistency determination unit F51 collates the content indicated by the current area map data acquired by the map acquisition unit F4 with the sensing information of the peripheral monitoring sensor 11 to check whether the map data is consistent with the real world. judge. For example, the consistency determination unit F51 detects that the front vehicle Mb straddles the lane marking line Ln1 as shown in FIG. 6, and detects a stationary object Obt on the lane in which the front vehicle Mb is traveling. If so, it is determined that the map data and the real world are inconsistent. The avoidance behavior and the detection of the stationary object Obt by the vehicle in front Mb may be detected based on the sensing information such as the recognition result of the front camera. As a premise, it is assumed that the information of the stationary object Obt on the road shown in FIG.
  • the stationary object Obt is, for example, a parked vehicle on the road, road construction, lane regulation, a falling object, or the like. If such quasi-static information is not reflected in the map data, inconsistencies between the map data and the real world can occur.
  • the consistency determination unit F51 determines that the map and the real world do not match when the vehicle in front is performing avoidance actions such as changing lanes in a section where the map can go straight.
  • Going straight means traveling along the road along the lane in which the vehicle has traveled so far without changing the driving position such as changing lanes.
  • the straight running here is not necessarily limited to the behavior of traveling while maintaining the steering angle at 0 °.
  • the avoidance behavior is, for example, a vehicle behavior for avoiding an obstacle, and refers to, for example, a change in a traveling position.
  • the change of the traveling position here means changing the lateral position of the vehicle on the road.
  • the change of the traveling position includes not only the change of the lane but also the movement of moving the traveling position to either the left or right corner in the same lane and the mode of traveling across the lane boundary line.
  • the avoidance action is a change / steering of the traveling position accompanied by deceleration and subsequent acceleration.
  • a change in the traveling position accompanied by a deceleration operation or a change in the traveling position accompanied by a deceleration to a predetermined speed or less can be taken as an avoidance action.
  • the above description of the avoidance behavior shows the concept of the avoidance behavior assumed in the present disclosure. Whether or not the change of the traveling position as an avoidance action is executed can be determined from the traveling locus of the vehicle in front based on the sensing information, the operation history of the direction indicator, and the like.
  • the consistency determination unit F51 detects that a plurality of vehicles in front are continuously performing avoidance actions in a road section that can go straight on the map, the map data and the real world are matched. It may be determined that it is not. Further, it may be determined that the map data and the real world do not match based on the fact that the feature information shown in the map data and the feature information represented by the sensing information do not match. Further, the consistency determination unit F51 may determine that the map and the real world do not match when the traveling position of the surrounding vehicle is outside the road range indicated by the map data.
  • FIG. 7 shows an example of a consistency determination method by the consistency determination unit F51.
  • the consistency determination process shown in FIG. 7 includes a step S101 for determining whether or not the traveling position of the vehicle in front is out of the lane, and a step for determining whether or not a stationary object not registered in the map data is detected. Includes S102.
  • the consistency determination unit F51 detects that the traveling position of the vehicle in front is out of the lane (S101 YES) and detects a stationary object that is not registered in the map (S102 YES). It is determined that the map data is inconsistent with the real world (S103). Either one of step S101 and step S102 may be omitted. If step S101 is omitted, the flow may be started from step S102.
  • the driving environment recognition unit F6 recognizes the surrounding environment, which is the surrounding environment of the own vehicle Ma, based on the detection result of the peripheral monitoring sensor 11.
  • the surrounding environment here includes not only static environmental factors such as the current position, traveling lane, road type, speed limit, and relative position of the feature, but also the position and moving speed of other moving objects, and the shape of surrounding objects. And size etc. are also included.
  • Other moving objects include automobiles as other vehicles, pedestrians, bicycles, and the like.
  • the driving environment recognition unit F6 distinguishes whether the peripheral object detected by the peripheral monitoring sensor 11 is a moving object or a stationary object. It is also preferable to distinguish and recognize the types of peripheral objects.
  • the types of peripheral objects for example, the types may be distinguished and recognized by performing pattern matching on the images captured by the peripheral surveillance camera. As for the type, for example, a structure such as a guardrail, a falling object on the road, a pedestrian, a bicycle, a motorcycle, an automobile, or the like may be recognized separately.
  • the type of the peripheral object may be a vehicle class, a vehicle type, or the like. Whether the peripheral object is a moving object or a stationary object may be recognized according to the type of the peripheral object.
  • the type of peripheral object is a structure or a falling object on the road, it may be recognized as a stationary object. If the type of peripheral object is a pedestrian, a bicycle, a motorcycle, or a car, it may be recognized as a moving object. An object that is unlikely to move immediately, such as a parked vehicle, may be recognized as a stationary object. Whether or not the vehicle is parked may be determined based on the fact that the vehicle is stopped and the brake lamp is not lit by image recognition.
  • the driving environment recognition unit F6 may recognize the position and type of an object existing around the own vehicle by acquiring detection results from each of the plurality of peripheral monitoring sensors 11 and combining them in a complementary manner.
  • the position and speed of the peripheral object may be a relative position and a relative speed with respect to the own vehicle Ma, or may be an absolute position and an absolute speed with respect to the ground.
  • the driving environment recognition unit F6 may recognize the road markings around the own vehicle, the position and type of the landmark, and the lighting state of the traffic light based on the detection result and the map data of the peripheral monitoring sensor 11.
  • the driving environment recognition unit F6 uses at least one of the detection result of the peripheral monitoring sensor 11 and the map data as boundary information regarding the boundary of the lane, which is the left and right lane markings of the lane in which the own vehicle Ma is currently traveling.
  • the relative position and shape of the road edge may be specified.
  • the data acquired by the traveling environment recognition unit F6 from each peripheral monitoring sensor 11 may be observation data such as image data instead of the analysis result. In that case, the traveling environment recognition unit F6 may specify the surrounding environment including the positions and shapes of the left and right lane markings or road edges based on the observation data of various peripheral monitoring sensors 11.
  • the driving environment recognition unit F6 may specify the surrounding environment by using other vehicle information received by the V2X on-board unit 14 from another vehicle, traffic information received from the roadside unit in road-to-vehicle communication, and the like.
  • the traffic information that can be acquired from the roadside device can include road construction information, traffic regulation information, traffic jam information, weather information, speed limit, traffic light lighting state, lighting cycle, and the like.
  • the control planning unit F7 uses the driving environment and map data specified by the driving environment recognition unit F6 to generate a driving plan for autonomously driving the own vehicle Ma by automatic driving, in other words, a control plan.
  • the control planning unit F7 performs a route search process as a medium- to long-term travel plan to generate a recommended route for directing the vehicle from the position of the own vehicle to the destination.
  • the control planning unit F7 has a short-term control plan for driving in line with the medium- to long-term driving plan, such as a lane change driving plan, a driving plan for traveling in the center of the lane, a traveling plan for following the preceding vehicle, and a traveling plan for following the preceding vehicle.
  • a driving plan for avoiding obstacles is generated.
  • the control planning unit F7 As a short-term control plan, the control planning unit F7 generates, for example, a route that is a certain distance or the center from the recognized travel lane marking as a travel plan, or a travel plan that follows the recognized behavior or travel locus of the preceding vehicle. Or generate as.
  • the control planning unit F7 may generate a plan candidate for changing lanes to an adjacent lane.
  • the control planning unit F7 may generate a traveling plan that passes by the side of the obstacle.
  • control planning unit F7 may generate a deceleration that stops in front of the obstacle as a travel plan.
  • the control planning unit F7 may be configured to generate a travel plan that is determined to be optimal by machine learning or the like.
  • the control planning unit F7 calculates, for example, one or more plan candidates as candidates for a short-term driving plan. Multiple plan candidates have different acceleration / deceleration amounts, jerks, steering amounts, timings for performing various controls, and the like. That is, the short-term travel plan may include acceleration / deceleration schedule information for speed adjustment on the calculated route. Plan candidates can also be called route candidates.
  • the action determination unit F73 finally determines the plan having the smallest potential accident liability value calculated by the responsibility value calculation unit F71, which will be described later, or the plan having the potential accident liability value at an allowable level, among a plurality of control plans. Adopt as a typical execution plan.
  • the map data is used, for example, to specify an area in which a vehicle can travel based on the number of lanes and the road width, and to set a steering amount and a target speed based on the curvature of the road ahead.
  • the map data is also used in the calculation process of the safe distance based on the road structure and the traffic rule, and the calculation process of the potential accident liability value.
  • the responsibility value calculation unit F71 corresponds to a configuration for evaluating the safety of the travel plan generated by the control planning unit F7. As an example, the responsibility value calculation unit F71 determines whether or not the distance between the object of the own vehicle and the surrounding object (hereinafter referred to as the distance between the objects) is equal to or greater than the set value of the safety distance set by the safety distance setting unit F72. Evaluate safety based on.
  • the responsibility value calculation unit F71 determines that the own vehicle Ma travels on each plan candidate planned by the control planning unit F7, and when the own vehicle Ma travels on the plan candidate and an accident occurs in the own vehicle Ma. Determine the potential accident liability value that indicates the degree of liability.
  • the potential accident liability value is determined by using the comparison result of the inter-vehicle distance and the safe distance between the own vehicle Ma and the surrounding vehicles when the own vehicle Ma travels as one of the factors for the plan candidate.
  • the potential accident liability value becomes smaller as the own vehicle Ma is driving safely. For example, if the inter-vehicle distance is sufficiently secured, the potential accident liability value will be small. Further, the potential accident liability value can be a large value when the own vehicle Ma suddenly accelerates or decelerates.
  • the responsibility value calculation unit F71 can set the potential accident responsibility value to a low value when the own vehicle Ma is traveling according to the traffic rules. In other words, whether or not the route complies with the traffic rules at the vehicle position can also be adopted as a factor that affects the value of the potential accident liability value.
  • the responsibility value calculation unit F71 can be provided with a configuration for acquiring the traffic rule at the point where the own vehicle Ma is traveling.
  • the traffic rules at the point where the own vehicle Ma is traveling may be acquired from a predetermined database, or the image taken by the camera that captures the surroundings of the own vehicle Ma may be analyzed, and signs, traffic lights, road markings, etc. may be obtained. By detecting, the traffic rule of the current position may be acquired. Traffic rules may be included in the map data.
  • the safety distance setting unit F72 is used in the responsibility value calculation unit F71 to dynamically set the safety distance according to the driving environment.
  • the safe distance is a reference distance for evaluating the safety between objects.
  • the safety distance includes a safety distance to the preceding vehicle, that is, a vertical safety distance, and a left-right direction, that is, a horizontal safety distance.
  • Mathematical formula models include models for determining these two types of safety distances.
  • the safety distance setting unit F72 calculates the safety distance in the vertical direction and the horizontal direction using a mathematical formula model that formulates the concept of safe driving, and sets the calculated value as the safety distance at that time.
  • the safety distance setting unit F72 calculates and sets the safety distance using at least information on behavior such as acceleration of the own vehicle Ma.
  • a mathematical formula model for calculating the safety distance for example, an RSS (Responsibility Sensitive Safety) model can be used.
  • SFF Safety Force Field, registered trademark
  • the safety distance calculated by the safety distance setting unit F72 using the above mathematical formula model is also described below as the standard value dm of the safety distance.
  • the safety distance setting unit F72 is configured to be able to set the safety distance longer than the standard value dmin based on the determination result of the consistency determination unit F51.
  • the above mathematical formula does not guarantee that the accident will not occur completely, and will be liable for the accident as long as appropriate actions are taken to avoid a collision when the distance is less than the safe distance. This is to ensure that you will not be on your side.
  • braking with a rational force can be mentioned. Braking with a reasonable force includes, for example, braking at the maximum deceleration possible for the own vehicle.
  • the safe distance calculated by the mathematical formula model can be rephrased as the minimum distance that the vehicle should have between the vehicle and the obstacle in order to avoid the proximity of the vehicle to the obstacle.
  • the action determination unit F73 is configured to determine the final execution plan based on the potential accident liability value calculated by the responsibility value calculation unit F71 as described above among the plurality of control plans. Further, the control planning unit F7 as the action determination unit F73 determines the final execution plan based on the map acquisition remaining time Tmg input from the map management unit F5. Map acquisition remaining time The action content based on Tmg, in other words, the map non-acquisition handling process, which is the process for determining the control plan, will be described later.
  • the control signal output unit F8 is configured to output a control signal corresponding to the control plan determined by the action determination unit F73 to the traveling actuator 16 and / or the HCU 151 to be controlled. For example, when deceleration is scheduled, a control signal for achieving the planned deceleration is output to the brake actuator and the electronic throttle. In addition, a control signal for displaying a map icon according to the acquisition status of partial map data is output to the HCU 151. When a predetermined recording event occurs, the output signal of the control signal output unit F8 can be recorded by the operation recording device 17.
  • the automatic driving device 20 when the automatic driving device 20 carries out an emergency action, the automatic driving device 20 outputs data indicating the acquisition status of the partial map data to the operation recording device 17.
  • the acquisition status of the partial map data includes the ID of the map tile that could be acquired. Further, whether or not the consistency determination unit F51 has determined that the map data and the real world do not match is also output as data indicating the acquisition status of the partial map data.
  • the flowchart shown in FIG. 8 is executed at a predetermined cycle (for example, every 500 milliseconds) while executing a predetermined application using map data such as automatic operation.
  • the predetermined application may include an ACC (Adaptive Cruise Control), an LTC (Lane Trace Control), a navigation application, and the like, in addition to the application that performs automatic driving. This flow can be omitted when the map management unit F5 has notified that the next area map data has been acquired, that is, when the next area map data has been acquired.
  • step S201 the map acquisition remaining time Tmg is acquired from the map management unit F5, and step S202 is executed.
  • step S202 it is determined whether or not the map acquisition remaining time Tmg is less than the predetermined first time Th1. If the remaining map acquisition time Tmg is less than the first time Th1, affirmative determination is made in step S202 and the process proceeds to step S204. On the other hand, when the map acquisition remaining time Tmg is 1st time Th1 or more, step S202 is negatively determined and the process proceeds to step S203. Even when the next area map data has already been acquired, step S202 may be negatively determined and the process may proceed to step S203.
  • the first time Th1 used in this determination is a parameter that functions as a threshold value for determining whether or not it is necessary to perform the first emergency action described later separately.
  • the first time Th1 is set to, for example, 60 seconds.
  • the first time Th1 may be, for example, 45 seconds, 90 seconds, 100 seconds, or the like.
  • step S203 normal control is executed. That is, the control plan determined based on the potential accident responsibility value is executed from among the plurality of plan candidates for autonomously traveling toward the destination.
  • step S204 it is determined whether or not the map acquisition remaining time Tmg is less than the predetermined second time Th2.
  • the second time Th2 is set to be longer than 0 seconds and shorter than the first time Th1.
  • the second time Th2 used in this determination is a parameter that functions as a threshold value for determining whether or not it is necessary to perform a second emergency action, which will be described later.
  • the second time Th2 is set to, for example, 30 seconds.
  • the second time Th2 may be, for example, 20 seconds or 40 seconds. If the remaining map acquisition time Tmg is less than the second time Th2, step S204 is positively determined and the process proceeds to step S206.
  • step S204 is negatively determined and the process proceeds to step S205.
  • the case where step S205 is executed is a case where the map acquisition remaining time Tmg is less than the first time Th1 and the second time Th2 or more.
  • step S205 the execution of the predetermined first emergency action is planned and the execution is started.
  • the first emergency action is, for example, to notify the driver's seat occupant or an operator existing outside the vehicle that the map that is soon required for continuing automatic driving or the like has not been obtained.
  • the process of notifying the occupants and the like that the next area map data has not been acquired is also described as the map non-acquisition notification process.
  • the content of the notification in the map non-acquisition notification process can be information indicating that the map necessary for continuing automatic driving or the like has not been acquired.
  • the map unacquired icon 80A shown in FIG. 3A may be displayed on the display 151 together with a text or a voice message.
  • the content of the notification in the map non-acquisition notification process may be an image or a voice message indicating that the automatic operation may be interrupted soon due to the defect of the map.
  • the above configuration corresponds to a configuration for notifying the occupant or the operator that the acquisition of the partial map data has failed.
  • the medium of the notification may be an image or a voice message.
  • the control signal output unit F8 outputs a control signal instructing the display 151 to output an icon image or a message image corresponding to the above contents to the HCU 152.
  • a control plan selected from a plurality of plan candidates by a normal procedure may be separately executed in parallel.
  • step S206 it is determined whether or not the map acquisition remaining time Tmg is less than the predetermined third time Th3.
  • the third time Th3 is set to be longer than 0 seconds and shorter than the second time Th2.
  • the third time Th3 used in this determination is a parameter that functions as a threshold value for determining whether or not it is necessary to perform the third emergency action, which will be described later.
  • the third time Th3 is set to, for example, 10 seconds.
  • the third time Th3 may be, for example, 5 seconds, 15 seconds, or the like. If the remaining map acquisition time Tmg is less than the third time Th3, step S206 is affirmed and the process proceeds to step S208.
  • step S206 is negatively determined and the process proceeds to step S207.
  • step S207 is executed means that the map acquisition remaining time Tmg is less than the second time Th2 and is more than the third time Th3.
  • step S207 the execution of the predetermined second emergency action is planned and the execution is started.
  • the second emergency action can be, for example, a process of reducing the traveling speed of the vehicle by a predetermined amount from the planned target speed.
  • the process of suppressing the traveling speed is also referred to as a speed suppression process.
  • the deceleration amount as the second emergency action can be a fixed value such as 5 km / h or 10 km / h.
  • the target speed after deceleration may be a value obtained by multiplying the initially planned target speed by a predetermined coefficient less than 1. For example, the target speed after deceleration may be 0.9 times or 0.8 times the originally planned target speed. If the current driving lane is an overtaking lane or the like, it may be planned to change lanes to the driving lane in accordance with the decision to implement the second emergency action.
  • the driving lane here refers to a lane that is not an overtaking lane.
  • the lane other than the right end corresponds to the driving lane.
  • the rightmost lane corresponds to the driving lane.
  • the overtaking lane and driving lane settings may be changed to comply with the traffic rules of the driving area.
  • step S208 the execution of the predetermined third emergency action is planned and the execution is started.
  • the third emergency action can be, for example, MRM.
  • the content of the MRM can be, for example, a process of autonomously driving the vehicle to a safe place and parking the vehicle while issuing an alarm to the surroundings. Safe places include road shoulders with a width greater than or equal to a predetermined value, and places specified as emergency evacuation areas.
  • the content of the MRM may be such that the vehicle stops in the lane in which the vehicle is currently traveling with a gentle deceleration.
  • the deceleration at that time it is preferable to adopt a value of 4 [m / s ⁇ 2] or less, such as 2 [m / s ⁇ 2] or 3 [m / s ⁇ 2].
  • a deceleration exceeding 4 [m / s ⁇ 2] can be adopted.
  • the deceleration during MRM may be dynamically determined and sequentially updated in consideration of the traveling speed at the start of MRM and the distance between the following vehicle, for example, within a range that can be stopped within 10 seconds.
  • Starting MRM is equivalent to starting deceleration for an emergency stop.
  • the inconsistency handling process executed by the automatic driving device 20 will be described using the flowchart shown in FIG.
  • the flowchart shown in FIG. 9 is executed at a predetermined cycle (for example, every 200 milliseconds) while a predetermined application using map data such as automatic driving or navigation is being executed. It should be noted that this flow can be sequentially executed in parallel, in other words, independently of the map non-acquisition correspondence process shown in FIG.
  • the inconsistency handling process includes steps S301 to S306.
  • step S301 the sensing information of the peripheral monitoring sensor 11 is acquired and the process proceeds to step S302.
  • step S302 the consistency determination unit F51 executes the consistency determination process.
  • the consistency determination process may be described using, for example, the flowchart shown in FIG. 7. If it is determined that there is a gap between the map and the real world as a result of step S302, the process proceeds to step S304. On the other hand, if it is not determined that there is a gap between the map and the real world as a result of step S302, the process proceeds to step S305.
  • the state where there is a gap between the map and the real world corresponds to the state where the map and the real world do not match.
  • a state where the map and the real world do not match for example, an obstacle not registered in the map exists on the road, or an area that can be traveled on the map becomes inoperable in reality.
  • the road shape shown on the map and the road shape detected by the peripheral monitoring sensor 11 are different also corresponds to an example of the case where the map data and the real world do not match.
  • the road shape here refers to at least one of the number of lanes, curvature, road width, and the like.
  • the road edge shape shown on the map is different from the shape actually observed by the front camera, or if a landmark that is not registered in the map data is detected, there is a gap between the map and the real world.
  • the map data and the real world are aligned. It corresponds to an example when it is not.
  • the case where the color, shape, position, and display content of the signboard registered in the map data differ from the image recognition result corresponds to an example of the case where the map data and the real world do not match.
  • step S304 the safety distance setting unit F72 sets the safety distance setting value dset longer than the standard value dmin.
  • the set value dset of the safety distance can be set by the following equation 1.
  • Equation 1 a parameter corresponding to the extension, and is referred to as an extension distance for convenience.
  • the extended distance ⁇ d is a value larger than 0.
  • the extended distance ⁇ d can be a fixed value such as 20 m or 50 m.
  • the extended distance ⁇ d may be dynamically determined according to the speed and acceleration of the own vehicle Ma. For example, the extended distance ⁇ d may be set longer as the vehicle speed increases. Further, the extended distance ⁇ d may be set longer as the acceleration of the own vehicle Ma increases or the degree of deceleration decreases.
  • the extended distance ⁇ d may be adjusted according to the type of road on which the own vehicle Ma is traveling. For example, when the travel path of the own vehicle Ma is a general road, the extended distance ⁇ d may be set to a value smaller than that when the travel path is a motorway such as an expressway.
  • the set value dset of the safety distance may be set as in the following equation 2.
  • dset dmin ⁇ ⁇ ⁇ ⁇ ⁇ (Equation 2)
  • ⁇ in Equation 1 is a coefficient for extending the safety distance, and is referred to as an extension coefficient for convenience.
  • the expansion factor ⁇ is a real number greater than 1.
  • the expansion coefficient ⁇ can be a fixed value such as 1.1 or 1.2.
  • the expansion coefficient ⁇ may be dynamically determined according to the speed or acceleration of the own vehicle Ma. For example, the expansion coefficient ⁇ may be set to a larger value as the vehicle speed increases. Further, the expansion coefficient ⁇ may be set larger as the acceleration of the own vehicle Ma is larger or as the degree of deceleration is smaller.
  • the expansion coefficient ⁇ may be adjusted according to the type of road on which the own vehicle Ma is traveling.
  • the expansion coefficient ⁇ when the travel path of the own vehicle Ma is a general road may be set to a value smaller than that when the travel path is a motorway such as an expressway.
  • step S305 the standard value dmin calculated based on the mathematical formula model is set as the set value dset of the safety distance, and the process proceeds to step S306.
  • the control planning unit F7 creates a control plan capable of securing the safety distance determined by the above processing.
  • the responsibility value calculation unit F71 calculates the potential self-responsibility value, and the action to be finally executed is selected based on the calculated potential accident responsibility value.
  • the vehicle speed is suppressed as an emergency action.
  • the driver's seat occupant is notified before the vehicle speed is suppressed as an emergency action. According to such a configuration, the driver's seat occupant can estimate the reason why the vehicle speed is suppressed, so that the risk of embarrassing or causing discomfort to the user due to the suppression of the vehicle speed can be reduced.
  • the MRM when the map acquisition remaining time Tmg becomes less than the third time Th3 as a predetermined threshold value, MRM, that is, deceleration toward a stop is started. With such a configuration, it is possible to reduce the possibility that the automatic operation will be continued without the map data existing. Further, since the MRM is executed within the range where the map data is retained, the MRM can be executed more safely than when the MRM is executed within the range where the map data is not retained.
  • the safety distance is extended when there is a gap between the map and the real world.
  • it corresponds to a state where the reliability of the map is impaired.
  • the safety can be improved by temporarily making the safety distance longer than the standard value dmin.
  • ⁇ Supplement to the operation of the control planning unit F7> As an emergency action based on the remaining map acquisition time Tmg, a mode of executing at least one of notification to the driver's seat occupant, suppression of vehicle speed, and MRM has been disclosed. Not limited to this.
  • the control planning unit F7 may be configured to be able to adopt non-map autonomous driving, which is a control for continuing autonomous driving without having the map data provided by the map server 3.
  • the mapless autonomous driving can be set to, for example, an operation mode in which driving is continued using an instant map which is a map around the own vehicle instantly created based on the detection result of the peripheral monitoring sensor 11.
  • the instant map can be generated by, for example, Visual SLAM, which is SLAM (Simultaneous Localization and Mapping) mainly composed of camera images.
  • Instant maps may be created by sensor fusion.
  • Instant maps can also be called simple maps, self-made maps, or sensing maps.
  • the non-map autonomous driving is an operation mode in which the locus of the preceding vehicle is adopted as the traveling locus of the own vehicle, and deceleration is performed in response to the interrupted vehicle or the road crossing person detected by the peripheral monitoring sensor 11. Is also good.
  • Mapless autonomous driving can be, for example, an alternative to MRM.
  • the control planning unit F7 may adopt non-map autonomous driving as an emergency action according to the surrounding traffic conditions. For example, when the remaining map acquisition time Tmg is less than the second hour Th2 or less than the third hour Th3, and there are other vehicles in front, back, left and right of the own vehicle Ma, map-free autonomous driving is adopted. Is also good. This is because if there are other vehicles on the front, rear, left and right sides of the own vehicle Ma, it is expected that safety can be ensured by traveling so as to maintain the inter-vehicle distance from the surrounding vehicles.
  • the conditions for adopting map-free autonomous driving in other words, the situation, can be determined based on the design concept of the vehicle manufacturer. Mapless autonomous driving can be called exceptional emergency behavior.
  • the handover request processing corresponds to executing a request for taking over the driving operation to the driver's seat occupant or the operator in conjunction with the HMI system 15.
  • the handover request processing can be called a handover request.
  • the control planning unit F7 may be configured to plan and execute the handover request as an emergency action when the map acquisition remaining time Tmg becomes less than the second time.
  • the control planning unit F7 may be configured to extend the safety distance as an emergency action based on the fact that the map acquisition remaining time Tmg is less than a predetermined threshold value such as the second time Th2. ..
  • the safety distance extension method the same method as in step S304 can be adopted.
  • control planning unit F7 may be configured to calculate the urgency based on the map acquisition remaining time Tmg and execute an emergency action according to the urgency.
  • the degree of urgency is a parameter that is set higher as the remaining map acquisition time Tmg is shorter.
  • the degree of urgency can be expressed in three stages of levels 1 to 3.
  • Level 1 can be, for example, a state in which the remaining map acquisition time Tmg is less than the first time Th1 and more than the second time Th2.
  • Level 2 for example, the remaining map acquisition time Tmg can be set to be less than the second time Th2 and more than the third time Th3.
  • Level 3 can be, for example, a state in which the remaining map acquisition time Tmg is less than the third time Th3.
  • control planning unit F7 plans and executes a notification to the driver's seat occupant or the operator as the first emergency action when the urgency is level 1. Further, the control planning unit F7 plans and executes the speed suppression process as the second emergency action when the urgency is level 2. Further, the control planning unit F7 plans and executes MRM as a third emergency action when the urgency is level 3.
  • the content and combination of emergency actions to be executed according to the degree of urgency or the remaining map acquisition time Tmg can be changed as appropriate. For example, as shown in FIG. 11, as an emergency action when the degree of urgency is level 1, a speed suppression process having a relatively small deceleration amount may be executed together with a notification to the driver's seat occupant or the operator. Further, as an emergency action when the degree of urgency is level 2, a speed suppression process having a relatively larger deceleration amount than level 1 may be executed. The deceleration amount of the speed suppression process when the urgency is level 1 is smaller than the deceleration amount of the speed suppression process when the urgency is level 2.
  • the deceleration amount of the speed suppression process when the urgency is level 1 is 5 km / h
  • the deceleration amount of the speed suppression process when the urgency is level 2 can be 10 km / h.
  • a handover request may be executed as an emergency action when the degree of urgency is level 2, a handover request may be executed.
  • the number of urgency levels and judgment criteria can be changed as appropriate.
  • the degree of urgency may be determined on a scale of 5 or higher. Further, the degree of urgency may be determined in consideration of the traffic conditions around the own vehicle in addition to the map acquisition remaining time Tmg. For example, in a traffic jam situation, the urgency may be set lower than in a non-traffic jam situation. This is because it is unlikely that the positional relationship with surrounding vehicles will change suddenly in a traffic jam situation.
  • the traffic jam condition means, for example, a state in which other vehicles are present in front, back, left and right of the own vehicle, and the traveling speed is 60 km / h or less.
  • the operation of the automatic driving device 20 at the end of the emergency action will be described with reference to the flowchart shown in FIG.
  • the flowchart shown in FIG. 12 is executed at a predetermined cycle (for example, every 200 milliseconds) while a predetermined application using map data such as automatic driving or navigation is being executed. It should be noted that this flow can be sequentially executed independently of the map non-acquisition handling process shown in FIG. 8 and the inconsistency handling process shown in FIG.
  • the emergency action end processing includes steps S401 to S403. Each step may be executed by the control planning unit F7.
  • step S401 it is determined whether or not an emergency action is being carried out. This flow ends if no emergency action is being implemented. On the other hand, when the emergency action is being carried out, step S401 is affirmed and step S402 is executed.
  • step S402 it is determined whether or not the predetermined cancellation condition is satisfied.
  • the cancellation condition is a condition for ending the emergency action currently being executed.
  • the control planning unit F7 can acquire the partial map data necessary for the continuation of automatic operation such as the next area map data, in other words, when the remaining map acquisition time Tmg recovers to a sufficiently large value, the cancellation condition. Is determined to be satisfied.
  • the control planning unit F7 may determine that the cancellation condition is satisfied when the operation for acquiring the driving operation authority by the driver's seat occupant or the operator, that is, the overriding operation is executed. In other words, it may be determined that the release condition is satisfied when the automatic operation mode is switched to the manual operation mode or the operation support mode. In addition, when the vehicle is stopped, it may be determined that the cancellation condition is satisfied.
  • step S403 is executed. On the other hand, if it is determined that the cancellation condition is not satisfied, this flow ends. In that case, the emergency action according to the remaining map acquisition time Tmg or the degree of urgency is continued.
  • step S403 the emergency action currently being executed is terminated, and this flow is terminated.
  • the image display and the output of the voice message are terminated.
  • the speed suppression process is being executed, the suppression of the target speed is released and the original target speed is restored.
  • a notification to the effect that the emergency action is terminated may be given. It is preferable that the driver's seat occupant is notified of the end of the emergency action together with the reason for the end. For example, it may be notified that the emergency action is terminated when the map data required for automatic driving, that is, the next area map data can be acquired.
  • the processing unit 21 as the map management unit F5 is configured to leave map data related to roads used on a daily basis, such as commuting routes and school routes, as a cache in the map holding unit M1 as much as possible. May be.
  • Map data related to roads that are used on a daily basis are, for example, map data of tile IDs that have been downloaded more than a certain number of times, and partial maps of areas within a certain distance from home / work / school. Data can be mentioned.
  • the processing unit 21 is not limited to the roads used on a daily basis, and the downloaded map data is either full of the capacity of the map holding unit M1 or the expiration date appropriately set for each map data expires. May be configured to save up to.
  • the map data stored in the map holding unit M1 will also be referred to as saved map data.
  • the saved map data here refers to the data already saved in the map holding unit M1 when the running power is turned on. In other words, it refers to the map data acquired during the previous run.
  • the saved map data can be called previously acquired map data.
  • the map data downloaded from the map server 3 after the running power is turned on can be called newly acquired map data.
  • the stored map data can also be called cache map data depending on the storage format and storage area.
  • the processing unit 21 may be configured to positively reuse the map data stored in the map holding unit M1. ..
  • the processing unit 21 may be configured to determine whether or not the map data needs to be downloaded according to the processing procedure shown in FIG.
  • the processing flow shown in FIG. 13 may be started, for example, by triggering that the map data to be used has been switched or that the remaining time until leaving the current area is less than a predetermined value.
  • the processing unit 21 refers to the map holding unit M1 based on the fact that the partial map used for creating the control plan is switched with the movement, and whether or not the next area map data is stored in the map holding unit M1.
  • Step S501 the map management unit F5 identifies the tile ID of the next area based on the adjacent tile ID associated with the current area map data and the traveling direction of the own vehicle. Then, in the map holding unit M1, the map data having the tile ID of the next area is searched. If there is map data having the tile ID of the next area (step S501 YES), the saved partial map data is adopted as the map data used for the control plan (step S502).
  • the processing unit 21 processes to download the next area map data from the map server 3. Is started (step S503).
  • the process for downloading the map data includes, for example, a step of transmitting a map request signal to the map server 3.
  • the map request signal is a signal that requests the distribution of map data, and includes the tile ID of the requested partial map. That is, S503 can be a process of transmitting a map request signal including the tile ID of the next area and receiving the map data delivered as a response from the map server 3.
  • the map request signal may include information that can identify the map tile to be distributed by the map server 3, for example, instead of the tile ID or in combination with it, the current position and traveling direction of the own vehicle. It may be included. In addition, when the map data having the tile ID of the next area is not saved, the case where the map data having the tile ID of the next area is saved but the data has expired may be included. can.
  • the saved map data may not be the latest version.
  • the shape / shade of a commercial sign registered on a map as a landmark may differ from the shape / shade of the real world. If there is a contradiction between what the map shows and the real world, the accuracy of self-position estimation may deteriorate.
  • the processing unit 21 sequentially determines the consistency between the stored map data and the real world as shown in FIG. It may be done (step S601).
  • the processing unit 21 may continue to use the stored map data as long as it is determined that the stored map data is consistent with the real world (step S602 YES).
  • the processing unit 21 may re-download the partial map data of the current area from the map server 3 based on the determination that the stored map data does not match the real world (step S602 NO) (step S602 NO).
  • Step S604 The saved map data corresponding to the current area can be deleted / overwritten as soon as the map data download is completed.
  • the series of processes shown in FIG. 14 may be performed periodically, for example, every second while using the stored map data.
  • the map management unit F5 determines that the saved map data is inconsistent with the real world, the map management unit F5 communicates with the map server 3 to confirm whether the saved map data is the latest version. Is also good. Whether or not the saved map data is the latest version can be confirmed by sending the version information of the saved map data to the map server 3 or by acquiring the latest version information of the map data of the current area from the map server 3. Is. If the saved map data is the latest version, there is no point in re-downloading, so step S604 may be omitted. In that case, in order to enhance the robustness, the control conditions may be changed, such as the above-mentioned inconsistency handling process and suppressing the traveling speed.
  • the processing unit 21 as the consistency determination unit F51 may evaluate the consistency as a percentage from 0% to 100%, for example, instead of the two stages of whether or not the stored map data is consistent with the real world. good.
  • the score value indicating consistency is also referred to as a consistency rate.
  • the consistency determination unit F51 may determine that the stored map data does not match the real world based on the determination that the consistency rate is equal to or less than a predetermined value. Further, in order to suppress the influence of momentary noise, the consistency determination unit F51 saves map data based on the fact that the evaluation result that the matching rate is equal to or less than a predetermined value is continuously obtained for a predetermined time or longer. May be determined to be inconsistent with the real world.
  • the saved map data refers to the acquisition date of the saved map data, provided that the elapsed time from the acquisition date is less than a predetermined threshold value. May be configured to be used.
  • the map management unit F5 reads out a certain stored map data and the elapsed time from the acquisition date is equal to or more than a predetermined threshold value, the map management unit F5 outputs the map data of the area from the map server 3. It may be configured to be downloaded again.
  • the processing unit 21 may be configured to basically perform traveling control using the map data newly acquired from the map server 3.
  • the processing unit 21 is configured to create and execute a control plan using the map data stored in the map holding unit M1 only when the partial map data cannot be acquired from the map server 3 due to a communication problem or the like. May be.
  • Such a configuration corresponds to a configuration in which the stored map data is passively reused.
  • FIG. 15 is a flowchart showing an example of the operation of the processing unit 21 corresponding to the above technical idea.
  • the flowchart shown in FIG. 15 may be executed, for example, in a situation where the next area map data cannot be acquired from the map server 3.
  • the processing flow shown in FIG. 15 can be carried out in parallel with, in combination with, or in place of the various processing described above, for example, the processing shown in FIG.
  • the processing flow shown in FIG. 15 can be executed as a processing when a negative determination is made in step S204.
  • the process shown in FIG. 15 includes steps S701 to S704.
  • step S701 the processing unit F21 determines whether or not the map acquisition remaining time Tmg is less than the predetermined cache usage threshold Thx.
  • the cache usage threshold Thx is set to a value longer than the third time Th3, such as 15 seconds or 30 seconds.
  • the cache usage threshold Thx may be the same as the above-mentioned first time Th1 or second time Th2.
  • the cache usage threshold Thx may be prepared as a parameter independent of the above threshold.
  • step S701 NO When the map acquisition remaining time Tmg is equal to or higher than the predetermined cache usage threshold Thx (step S701 NO), the processing unit 21 temporarily ends the flow shown in FIG. In that case, the processing unit 21 may re-execute the processing flow shown in FIG. 15 after a predetermined time, provided that the next area map data has not been acquired. On the other hand, when the remaining map acquisition time Tmg is less than the predetermined cache usage threshold Thx (YES in step S701), it is determined whether or not the map data having the tile ID of the next area is stored in the map holding unit M1. ..
  • step S702 YES When the partial map data of the next area is stored in the map holding unit M1 (step S702 YES), a control plan in the next area is created using the stored partial map data (step S703). .. On the other hand, when the partial map data of the next area is not stored in the map holding unit M1 (step S702 NO), an emergency action according to the map acquisition remaining time Tmg is adopted.
  • the situation where the remaining map acquisition time Tmg is less than the cache usage threshold Thx corresponds to the situation where partial map data of the next area is required to create a control plan.
  • the timing when the remaining map acquisition time Tmg becomes 0 seconds, the timing of leaving the current area, and the like may also correspond to the situation where the partial map data of the next area is required for creating the control plan.
  • the processing unit 21 may periodically perform a process for downloading the next / current area map data from the map server 3. Then, when the next / current area map data can be acquired from the map data due to the recovery of the communication state or the like, the control may be executed using the map data acquired from the map server 3 instead of the saved map data. ..
  • the processing unit 21 is configured to have different control modes / operations depending on whether the stored map data is used or the map data newly downloaded from the map server 3 is used. It may have been done.
  • the processing unit 21 sets the upper limit value of the traveling speed allowed in the control plan as a standard according to the type of the traveling route. It is set to the upper limit value (step S802).
  • Vmx_set in FIG. 16 is a parameter representing an upper limit value of the allowable traveling speed, that is, a set value of the upper limit speed.
  • Vmx_RdType is a parameter indicating a standard upper limit value according to the type of the traveling path.
  • the case where the stored map data is not used corresponds to the case where a control plan or the like is created using the partial map data acquired from the map server 3.
  • the standard upper limit value for example, a value according to the type of the driving road, for example, whether it is an expressway or a general road is applied.
  • the upper limit value is set to 120 km / h
  • the traveling road is a general road
  • the upper limit value is set to, for example, 60 km / h.
  • the standard upper limit value for each road type may be configured so that the user can set it to an arbitrary value.
  • the speed limit set for each road may be applied to the standard upper limit value.
  • the speed limit may be determined by referring to the map data, or may be specified by image recognition of the speed limit sign. Changing the set value of the upper limit speed used for the control plan is equivalent to changing the control conditions.
  • the standard upper limit value may be set based on the average speed of surrounding vehicles in order to realize a smooth flow of traffic.
  • the average speed of peripheral vehicles may be calculated based on the speed of the vehicle observed by the peripheral monitoring sensor 11, or may be calculated based on the speed information of other vehicles received by inter-vehicle communication.
  • the upper limit of the traveling speed allowed in the control plan is set to a value obtained by subtracting a predetermined suppression amount from the standard upper limit according to the type of the traveling route.
  • Vdp in FIG. 16 is a parameter indicating the amount of suppression.
  • the suppression amount may be a constant value such as 10 km / h, or may be a value corresponding to 10% or 20% of the standard upper limit value according to the road type.
  • the maximum speed when traveling using the saved map data, the maximum speed can be suppressed as compared with the case where traveling using the newly acquired map data. If the traveling speed is suppressed, the robustness is improved, so that the possibility that the autonomous traveling control is interrupted can be reduced.
  • the processing unit 21 may change the control conditions according to the consistency rate. For example, the lower the matching rate, the larger the suppression amount (Vd) may be. Specifically, when the matching rate is 95% or more, the suppression amount (Vd) is set to 0, while when the matching rate is 90% or more and less than 95%, the suppression amount is set to 5 km / h. May be. Further, when the matching rate is 90% or less, the suppression amount may be set to 10 km / h or more. For example, when the matching rate is less than 80%, the suppression amount may be set to 15 km / h.
  • the processing unit 21 operates in a mode in which automatic overtaking control can be executed when the matching ratio is equal to or higher than a predetermined threshold value, while automatic overtaking is prohibited when the matching ratio is less than the threshold value. It may be configured to operate in the same mode.
  • Automatic overtaking control refers to a series of controls including movement to the overtaking lane, acceleration, and return to the driving lane.
  • the processing unit 21 may create a plan to follow the preceding vehicle more aggressively when the matching ratio is less than the predetermined threshold value than when the matching ratio is equal to or higher than the predetermined threshold value. For example, even in a scene where overtaking control is normally performed, if the matching ratio is less than a predetermined threshold value, control to follow the preceding vehicle without overtaking may be planned and executed.
  • the normal time refers to the case where the matching rate is equal to or higher than a predetermined threshold value. According to this configuration, it is possible to reduce the risk of sudden acceleration / deceleration or sudden steering due to inadequate map data.
  • the processing unit 21 may display on the display 151 using an icon image showing the determination result of the consistency determination unit F51 (step S902).
  • step S901 shows a step in which the consistency determination unit F51 determines consistency.
  • the processing unit 21 may display an image showing that the map and the reality are consistent.
  • the processing unit 21 does not have to display an image showing that the map and the reality are consistent.
  • the processing unit 21 may display the detection result, that is, an image indicating that the inconsistency between the map and the reality is detected, only when the inconsistency between the map data and the real world is detected.
  • the processing unit 21 may display the inconsistent part which is a specific part. For example, when the display 151 is a center display, the processing unit 21 may display an image in which a marker image indicating an inconsistent portion is superimposed on the map image. When the display 151 is provided with a HUD, the processing unit 21 may use the HUD to superimpose and display a marker image indicating the inconsistent portion on the actual inconsistent portion.
  • the autonomous driving device 20 is in the level 3 mode, the driver's seat occupant can be expected to look ahead. Therefore, according to the configuration in which the inconsistent portion is superimposed and displayed on the foreground by the HUD, the driver's seat occupant can recognize the inconsistent portion without moving his / her line of sight from the front.
  • the processing unit 21 detects an inconsistency between the map data and the real world, the processing unit 21 notifies the driver's seat occupant by HUD or the like, and then asks the driver's seat occupant to select a future control policy.
  • the requested process may be performed.
  • Options for future control policies include, for example, switching to manual driving or continuing automatic driving while controlling the vehicle speed.
  • Switching to manual operation also includes transitioning to level 2 mode or level 1 mode.
  • the driver's seat occupant's instruction is obtained by, for example, a switch operation, a pedal operation, or a steering wheel grip.
  • the response instruction to the inconsistency between the map and the reality may be acquired based on the line of sight, gesture, voice recognition, or the like.
  • the line of sight and gestures can be extracted by analyzing the image of the camera installed in the vehicle so as to capture the driver's seat occupant.
  • the operation mode of the automatic driving device 20 is the level 4 mode
  • the driver's seat occupant does not always look ahead.
  • smartphone operation, reading, etc. are being carried out as a second task.
  • the driver's seat occupant's line of sight may be guided to the display 151 by vibration, voice, or the like, and then the above-mentioned inconsistency notification and instruction input may be requested.
  • the content to be notified to the occupants when the inconsistency between the map data and the real world is detected is only that the inconsistency between the map and the reality is detected without including the specific content. May be.
  • the image displayed in step S902 may be a state display as to whether or not the map data is consistent with the reality.
  • frequent inconsistency notifications can cause occupants to feel distrust of the system.
  • the notification that the inconsistency between the map data and the real world has been detected may be limited so that the number of notifications within a certain period of time is equal to or less than a predetermined value.
  • the notification that an inconsistency between the map and the real world has been detected may be executed as a notice only when processing for dealing with the map deficiency such as vehicle speed suppression or handover request is executed. good. While the vehicle speed is being suppressed, the vehicle in front is being followed, or the vehicle is being driven manually, the notification that the map and the real world are inconsistent may be stopped.
  • the map acquisition unit F4 acquires partial map data from the map server 3 in principle, but when the remaining map acquisition time Tmg is less than a predetermined threshold, the periphery It may be configured to acquire partial map data from the vehicle.
  • the map data of the current area / next area may be acquired from the peripheral vehicle by requesting the next area map data from the peripheral vehicle in cooperation with the V2X on-board unit 14.
  • Such control to acquire partial map data from other vehicles by vehicle-to-vehicle communication can also be adopted as an emergency action.
  • the map data acquired from the surrounding vehicle may be used as temporary map data until the map data is acquired from the map server 3. Further, it is preferable that the map data acquired from the surrounding vehicles is accompanied by an electronic certificate that guarantees the reliability of the data.
  • the certificate information can be information including issuer information, a code for guaranteeing reliability, and the like.
  • the vehicles in other words, the automatic driving devices 20 of each vehicle, are configured to share the freshness information of the map data of the current area or the next area held by the vehicles by inter-vehicle communication.
  • the freshness information may be download date / time information or version information.
  • the processing unit 21 uses the map data from the other device as a vehicle. It may be acquired by inter-vehicle communication.
  • the other device refers to an automatic driving device or a driving support device mounted on another vehicle.
  • the other device may be any device that uses map data.
  • the expression of another device as a communication partner can be replaced with another vehicle or a peripheral vehicle.
  • the other vehicle is not limited to a vehicle traveling in front of the own vehicle, but may be a vehicle located on the side or behind.
  • the processing unit 21 may notify the vehicle behind by vehicle-to-vehicle communication of the existence of the inconsistent part. Further, the processing unit 21 may acquire the inconsistent portion detected by the preceding vehicle from the vehicle in front by vehicle-to-vehicle communication.
  • the processing unit 21 creates an instant map based on the detection result of the peripheral monitoring sensor 11, and autonomously travels using the instant map. You may create and execute a control plan to continue. Further, the processing unit 21 may be configured to change the behavior according to the map creation distance Dmp, which is the distance range in which the instant map can be created. For example, as shown in FIG. 18, when the instant map can be created up to the predetermined function maintenance distance Dth or more forward (step T102 YES), the processing unit 21 maintains the normal control (step T103). On the other hand, when the map creation distance Dmp is less than the function maintenance distance Dth (step T102 NO), a process of suppressing the MRM or the traveling speed by a predetermined amount is executed (step T104).
  • step T101 shown in FIG. 18 shows a processing step of creating an instant map in real time using the detection result of the peripheral monitoring sensor 11.
  • Step T101 may be executed sequentially, for example, in 100 ms or 200 ms.
  • the map creation distance Dmp corresponds to the distance at which the target can be detected by the peripheral monitoring sensor 11.
  • the cartographic distance Dmp can be, for example, a distance at which the left and right division lines of the ego lane can be recognized. Further, the cartographic distance Dmp may be a distance at which the road edge on the left side or the right side can be recognized.
  • the function maintenance distance Dth may be a constant value such as 50 m, or may be a variable value determined according to the speed.
  • the function maintenance distance Dth can be a value obtained by adding a predetermined margin to the MRM required distance Dmrm, which is the distance traveled until the MRM stops.
  • the deceleration used in the MRM may be dynamically determined so that it can be completely stopped within 10 seconds.
  • the above configuration corresponds to a configuration in which the processing unit 21 continues traveling without performing MRM when the instant map can be created farther than the required distance Dmrm of MRM.
  • the processing unit 21 may be configured to suppress the upper limit of the speed while using the instant map even if the map creation distance Dmp is equal to or longer than the function maintenance distance Dth.
  • the MRM required distance Dmrm becomes shorter as the vehicle speed is smaller. Therefore, according to the configuration that suppresses the vehicle speed while using the instant map, the possibility that the MRM is executed can be further reduced.
  • the scene using the instant map corresponds to the scene in which the map data required for the control plan cannot be received by communicating with the map server 3.
  • the map server 3 may distribute the location information of the shooting prohibited area registered by the map administrator or the like to each vehicle.
  • the processing unit 21 acquires the position information of the shooting prohibited area from the map server 3, the processing unit 21 may execute the handover request based on the position information of the shooting prohibited area.
  • step T201 YES when the processing unit 21 detects that the shooting prohibited area exists in front of the own vehicle based on the distribution information from the map server 3 (step T201 YES), the processing unit 21 reaches the shooting prohibited area. The remaining time Trmn until is calculated (step T202). Then, when the remaining time Trmn until reaching the shooting prohibited area becomes less than the predetermined threshold value Th (step T203 YES), the handover request is started (step T204). After that, if a response from the driver's seat occupant is obtained within a predetermined time (step T205 YES), the driving authority is transferred to the driver's seat occupant and a notification to that effect is given (step T206). On the other hand, if no response from the driver's seat occupant is obtained even after the lapse of a predetermined time (step T205 NO), MRM is executed.
  • the threshold Dho for the remaining time Trmn is set to be sufficiently longer than the predetermined standard takeover time, for example, 20 seconds.
  • the standard takeover time is a response waiting time when making a handover request due to dynamic factors such as parking on the street or lane regulation, and is set to, for example, 6 seconds, 7 seconds, 10 seconds, or the like.
  • the response waiting time of the handover request due to the approach to the shooting prohibited area is also set to be longer than the standard takeover time such as 15 seconds.
  • the configuration to systematically execute the handover based on the location information of the shooting prohibited area has been described, but it is assumed that the creation and distribution of map data near the shooting prohibited area is prohibited based on the law or ordinance. Will be done.
  • the map server 3 may distribute location information about a distribution prohibited area for which a map is not prepared based on a law or the like, in place of or in addition to the information on the shooting prohibited area.
  • the flow of FIG. 19 can be implemented by replacing the expression of the shooting prohibited area with the distribution prohibited area. That is, the processing unit 21 may be configured to systematically start the handover request based on the remaining time / distance until the delivery prohibited area is reached.
  • the processing unit 21 may display that automatic driving is possible when moving to an area where automatic driving is possible, such as when leaving the shooting prohibited area or when leaving the distribution prohibited area. ..
  • Moving to an area where autonomous driving is possible corresponds to moving to an ODD.
  • the notification that the automatic driving function can be used may be performed by using a notification sound or a voice message in combination. Further, it may be notified that the automatic operation is possible by turning on / blinking a light emitting element such as an LED provided on the steering wheel or vibrating the steering wheel.
  • the processing unit 21 may calculate the remaining distance / time until leaving the shooting prohibited area or the distribution prohibited area, or the remaining distance / time until automatic driving becomes possible, and display it on the HUD or the like.
  • the term "emergency” in the present disclosure refers to a state in which the map data necessary for continuing automatic driving control is inadequate. In other words, the state in which the map data necessary for continuing the automatic driving control can be acquired paradoxically corresponds to the normal state. If the partial map data acquired by the map acquisition unit F4 is incomplete, it is a part of the map data set required for automatic operation control, such as the next area map data, for example, due to communication delay or the like. The state that has not been acquired, in other words, the state that is missing is included. Further, the state in which the map data acquired by the map acquisition unit F4 is incomplete includes a state in which there is a gap with the real world.
  • the state in which the map data acquired by the map acquisition unit F4 is incomplete includes a state in which the update date and time of the map is a predetermined time in the past and a state in which the map is not the latest version.
  • the above configuration corresponds to a configuration in which a predetermined emergency action is executed when there is a defect in the partial map data acquired by the map acquisition unit F4, including a lack of a part of the data.
  • steps S201 and S302 correspond to the map management step.
  • at least one of steps S203, S205, S206, S208, and S306 corresponds to the control planning step.
  • Emergency action can also be called emergency action in one aspect.
  • the control unit and method thereof described in the present disclosure may be realized by a dedicated computer constituting a processor programmed to perform one or more functions embodied by a computer program. Further, the apparatus and the method thereof described in the present disclosure may be realized by a dedicated hardware logic circuit. Further, the apparatus and method thereof described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor for executing a computer program and one or more hardware logic circuits. Further, the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.
  • the means and / or functions provided by the automatic driving device 20 can be provided by the software recorded in the actual memory device and the computer, software only, hardware only, or a combination thereof that execute the software. Some or all of the functions included in the automatic driving device 20 may be realized as hardware.
  • a mode in which a certain function is realized as hardware includes a mode in which one or more ICs are used.
  • the processing unit 21 may be realized by using an MPU, a GPU, or a DFP (Data Flow Processor) instead of the CPU. Further, the processing unit 21 may be realized by combining a plurality of types of arithmetic processing devices such as a CPU, an MPU, and a GPU.
  • the ECU may be realized by using FPGA (field-programmable gate array) or ASIC (application specific integrated circuit).
  • FPGA field-programmable gate array
  • ASIC application specific integrated circuit
  • Various programs may be stored in a non-transitionary tangible storage medium.
  • program storage medium various storage media such as HDD (Hard-disk Drive), SSD (Solid State Drive), EPROM (Erasable Programmable ROM), flash memory, and USB memory can be adopted.
  • the map acquisition unit (F4) that acquires partial map data according to the position of the vehicle from the map server, and
  • the map management unit (F5) which determines the acquisition status of partial map data, and It is equipped with a control planning unit (F7) that creates a control plan using partial map data.
  • the map management unit determines whether or not the next area map data, which is partial map data for the area where the vehicle enters within a predetermined time, can be acquired.
  • the control planning unit is an automatic driving device configured to plan the execution of a predetermined emergency action based on the determination by the map management unit that the next area map data cannot be acquired.

Abstract

自動運転装置(20)は、現在位置に応じた部分地図データを地図サーバ(3)からダウンロードして制御計画を作成するように構成されている。自動運転装置(20)は、通信の不具合等により、所定時間以内に進入予定のエリアに関する部分地図データである次エリア地図データを取得できていない場合、地図取得残余時間を算出する。地図取得残余時間は、自動運転を継続する上で実際に次エリア地図データが必要となるタイミングまでの残り時間に相当する。自動運転装置(20)は、地図取得残余時間が所定の閾値未満となったことに基づいて、乗員への通知や速度抑制処理等を非常行動として計画及び実行する。

Description

自動運転装置、車両制御方法 関連出願の相互参照
 この出願は、2020年7月8日に日本に出願された特許出願第2020-117903号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 本開示は、地図データを用いて自動運転車の制御計画を生成する技術に関する。
 特許文献1には、自動運転において、RSS(Responsibility Sensitive Safety)モデルと呼ばれる数学的公式モデルと地図データを用いて車両の走行計画、換言すれば制御計画を生成する構成が開示されている。
 RSSモデルにおいて制御計画を策定する機能ブロックであるプランナーは、地図データを用いて複数の制御プランのそれぞれにおける潜在事故責任値を算出し、潜在事故責任値が許容範囲となる制御プランを採用する。潜在事故責任値は、自車両の周囲に存在する周辺車両と自車両との間に事故が生じた場合における、自車両の責任の程度を示すパラメータである。潜在事故責任値は、自車両と周辺車両との間の車間距離が、道路構造等に基づいて定まる安全距離よりも短いかどうかを考慮した値である。
国際公開第2018/115963号
 RSSモデルは、車両が地図データを保有していることを前提としている。仮に車両が全エリアの地図データを最新の状態で保持している場合には、地図データの欠損又は劣化といった地図の不備によって潜在事故責任値が算出できなくなるといった不具合は生じにくい。しかしながら、全エリアの地図データを常に最新の状態で車両が保持し続けることは、データ容量等や通信頻度の観点から難しい。
 そのような懸念から、車両は、現在位置等に応じた局所的な範囲についての地図である部分地図を地図サーバから都度ダウンロードして使用する構成が想定される。しかしながら、部分地図をダウンロードして使用する構成では、通信エラーやダウンロードミスやシステムの処理ミスなどにより、潜在事故責任値の算出に必要なエリアの部分地図データを取得できない事態が起こりうる。
 また、現実世界における環境変化に伴い、地図サーバが配信している地図データが、現実世界と整合していないケースもあり得る。地図データを取得できていない場合や、地図データが現実世界と整合していない場合、プランナーは正当な潜在事故責任値が算出できなくなってしまう。そして、RSSモデルを利用するプランナーは、潜在事故責任値が算出できない場合、各制御プランの安全性を定量的に評価できなくなるため、自動運転を継続できなくなってしまう恐れがある。
 一方、通常のユーザは、車両における自動運転のための地図の取得状況は把握しないことが想定される。そのため、地図データの不備に基づく自動運転の中断はユーザにとって意図しないもの、換言すれば想定外の挙動となりうる。その結果、ユーザを困惑させてしまう可能性がある。
 本開示は、この事情に基づいて成されたものであり、その目的とするところは、ユーザを困惑させてしまう恐れを低減できる自動運転装置、車両制御方法を提供することにある。
 その目的を達成するための自動運転装置は、一例として、地図データを用いて車両の自律的に走行させる制御計画を作成する自動運転装置であって、地図データの取得状況を判定する地図管理部と、地図データを用いて制御計画を作成する制御計画部と、を備え、制御計画部は、地図管理部が判定した地図データの取得状況に応じて制御計画の内容を変更するように構成されている。
 上記構成によれば、地図の取得状況に応じて、制御計画、換言すれば車両の挙動が変化する。そのためユーザは、車両の挙動が通常時と同じか否かに基づいて、自動運転が中断される予兆を感じ取ることが可能となる。その結果、ユーザを困惑させてしまう恐れを低減可能となる。
 また上記目的を達成するための車両制御方法は、少なくとも1つのプロセッサによって実行される、地図データを用いて車両の自律的に走行させるための車両制御方法であって、
 地図データの取得状況を判定する地図管理ステップと、地図データを用いて車両の制御計画を作成する制御計画ステップと、を備え、制御計画ステップは、地図管理ステップで判定された地図データの取得状況に応じて制御計画の内容を変更するように構成されている。
 上記の方法によれば、自動運転装置についての開示と同様の作用により、ユーザを困惑させてしまう恐れを低減可能となる。
 なお、請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
自動運転システム100の全体構成を概略的に示す図である。 車載システム1の構成を説明するための図である。 地図データの取得状況を示すアイコン画像の一例を示した図である。 自動運転装置20の構成を説明するための図である。 地図管理部F5の作動を説明するための図である。 整合性判定部F51の作動を説明するための図である。 整合性判定部F51の作動を説明するためのフローチャートである。 地図未取得対応処理について説明するためのフローチャートである。 不整合対応処理について説明するためのフローチャートである。 緊急度の概念を適用した場合の制御計画部F7の作動を説明するための図である。 緊急度ごとの非常行動の内容の変形例を示す図である。 非常行動終了処理について説明するためのフローチャートである。 保存地図データを活用する処理フローの一例を示す図である。 保存地図データと現実世界とが矛盾していることを条件として地図データをダウンロードし直す処理フローの一例を示す図である。 保存地図データを活用する処理フローの他の例を示す図である。 制御計画に使用している地図データが保存地図データであるか否かに応じて制御計画に使用する上限速度の設定値を変更する処理フローの一例を示す図である。 地図データと現実世界との整合性の判定結果を通知する処理フローの一例を示す図である。 即席地図を作成できている距離に応じて制御を変更する処理フローの一例を示す図である。 撮影禁止エリア又は配信禁止エリアに接近中であることに基づいてハンドオーバーリクエストを実行する処理フローの一例を示す図である。
 図面を参照しながら本開示にかかる自動運転装置の実施の形態について説明する。なお、以下では、左側通行が法制化されている地域を例に挙げて説明を行う。右側通行が法制化されている地域では、以下の説明における左右を逆にするなど、適宜変更して実施することができる。本開示の内容は、自動運転システム100が使用される地域の法律や慣習に準拠するように適宜変更して実施することができる。
 以下、本開示の実施形態について図面を用いて説明する。図1は、本開示に係る自動運転システム100の概略的な構成の一例を示す図である。図1に示すように、自動運転システム100は、車両Maに構築されている車載システム1と、地図サーバ3と、を備える。車載システム1は、地図サーバ3と無線通信を実施することにより、地図サーバ3から局所的な高精度地図データである部分地図データをダウンロードして、自動運転やナビゲーションに使用する。
 車載システム1は、道路上を走行可能な車両に搭載可能であって、車両Maは、四輪自動車のほか、二輪自動車、三輪自動車等であってもよい。原動機付き自転車も二輪自動車に含めることができる。車両Maは、個人によって所有されるオーナーカーであってもよいし、シェアカーやサービスカーであってもよい。サービスカーには、タクシーや路線バス、乗り合いバスなどが含まれる。車両Maは、運転手が搭乗していない、ロボットタクシー、無人運行バスなどであってもよい。車両Maは、自動運転困難な状況に陥った場合には、外部に存在するオペレータによって遠隔操作可能に構成されていてもよい。ここでのオペレータとは、所定のセンタなど、車両の外部から遠隔操作によって車両を制御する権限を有する人物を指す。オペレータもまた、ドライバ/運転席乗員の概念に含めることができる。なお、オペレータは、人工知能に基づきシーンに応じた運転操作を決定可能に構成されたサーバ、又は、ソフトウェアであっても良い。
 <地図データについて>
 ここではまず地図サーバ3が保有する地図データについて説明する。地図データは、道路構造、及び、道路沿いに配置されている地物についての位置座標等を、自動運転に利用可能な精度で示す地図データに相当する。
 地図データは、ノードデータ、リンクデータ、及び、地物データなどを含む。ノードデータは、地図上のノード毎に固有の番号を付したノードID、ノード座標、ノード名称、ノード種別、ノードに接続するリンクのリンクIDが記述される接続リンクID等の各データから構成される。
 リンクデータは、ノード同士を接続する道路区間であるリンクについてのデータである。リンクデータは、リンクごとに固有の識別子であるリンクID、リンクの長さを示すリンク長、リンク方位、リンク旅行時間、リンクの形状情報(以下、リンク形状)、リンクの始端と終端とのノード座標、及び道路属性等の各データから構成される。リンク形状は、リンクの両端とその間の形状を表す形状補間点の座標位置を示す座標列で表現されていても良い。リンク形状は道路形状に相当する。リンク形状は3次スプライン曲線で表現されていてもよい。道路属性としては、道路名称、道路種別、道路幅員、車線数を表す車線数情報、速度規制値等がある。リンクデータは車線単位に細分化されて記述されていても良い。地図データは、進行方向を同一とする車線をまとめた道路単位でのリンクデータに相当する道路リンクデータと、個々の車線についてのリンクデータに相当する下位レイヤとしてのレーンリングデータとを備えていても良い。リンクデータは、道路区間別に加え、車線(つまり、レーン)別にまで細分化されていてもよい。
 地物データは、区画線データと、ランドマークデータとを備える。区画線データは、区画線ごとの区画線ID、及び、設置部分を表す座標点群を備える。区画線データは、破線や実線、道路鋲などといったパターン情報を含む。区画線データは、例えばレーンIDやレーンレベルでのリンクIDなどといった、レーン情報と対応付けられている。ランドマークとは、地図上における自車両の位置を特定するための目印として利用可能な地物を指す。ランドマークには、道路沿いに配置されている所定の立体構造物が含まれる。道路沿いに設置される立体構造物とは、例えば、ガードレール、縁石、樹木、電柱、道路標識、信号機などである。道路標識には、方面看板や道路名称看板などの案内標識などが含まれる。さらに、道路端や区画線もランドマークに含めることができる。ランドマークデータは、ランドマークごとの位置及び種別を表す。各地物の形状および位置は、座標点群によって表現されている。POIデータは、高速道路の本線から退出するための分岐点や、合流地点、制限速度変化点、車線変更地点、渋滞区間、工事区間、交差点、トンネル、料金所などといった、車両の走行計画に影響を及ぼす地物の位置及び種別を示すデータである。POIデータは種別や位置情報を含む。
 地図データは、道路形状及び構造物の特徴点の点群を含む3次元地図データであってもよい。3次元地図データは、道路端や車線区画線、道路標識などの地物の位置を3次元座標で表す地図データに相当する。なお、3次元地図は、REM(Road Experience Management)によって撮像画像をもとに生成されたものでもよい。また、地図データは、走行軌道モデルを含んでいてもよい。走行軌道モデルは、複数の車両の走行軌跡を統計的に統合することで生成された軌道データである。走行軌道モデルは、たとえば車線ごとの走行軌跡を平均化したものである。走行軌道モデルは、自動運転時の基準となる走行軌道を示すデータに相当する。
 地図データは、静的地図情報と準静的地図情報とを含みうる。ここでの静的地図情報とは、道路網や、道路形状、路面表示、ガードレールなどの構造物、建築物などといった、変化が生じにくい地物についての情報を指す。静的地図情報は、例えば1週間~1ヶ月以内での更新が求められる地物についての情報と解することもできる。静的な地図情報は、ベース地図とも称される。準静的地図情報は例えば1時間~数時間以内での更新が求められる情報である。道路工事情報や、交通規制情報、渋滞情報、広域気象情報が準静的地図情報に該当する。例えば地図サーバ3が取り扱う地図データは静的地図情報、及び準静的地図情報を含む。もちろん、地図サーバ3が取り扱う地図情報は、静的地図情報だけであってもよい。
 地図サーバ3は、地図収録地域全体に対応する全地図データを備える。ただし全地図データは、複数のパッチに区分されて管理される。各パッチはそれぞれ異なる区域の地図データに相当する。地図データは、例えば図1に示すように地図収録領域を2km四方の矩形状に分割したマップタイルの単位で格納されている。なお、図1の破線は、マップタイルの境界を概念的に示している。マップタイルは前述のパッチの下位概念に相当する。
 各マップタイルには、そのマップタイルが対応している現実世界の領域を示す情報が付与されている。現実世界の領域を示す情報は例えば緯度、経度および高度などで表現されている。また、各マップタイルには固有のID(以降、タイルID)が付与されている。マップタイルには隣接するエリアのタイルIDである隣接タイルIDが紐付けられている。隣接タイルIDは、次エリア地図データを特定するためなどに利用されうる。パッチごと、あるいは、マップタイルごとの地図データは、地図収録地域全体の一部、換言すれば局所的な地図データである。マップタイルが部分地図データに相当する。地図サーバ3は、車載システム1からの要求に基づき、車載システム1の位置に応じた部分地図データを配信する。
 マップタイルの形状は、2km四方の矩形状に限定されない。1km四方や4km四方の矩形状であってもよい。また、マップタイルは、六角形や円形などであってもよい。各マップタイルは、隣接するマップタイルと部分的に重なるように設定されていてもよい。地図収録領域は、車両が使用される国全体であってもよいし、一部のエリアだけであってもよい。例えば地図収録領域は、一般車両の自動運転が許可されているエリアや、自動運転移動サービスが提供される地域だけであっても良い。
 また、複数のマップタイルの大きさ、及び形状は一律でなくともよい。例えば、ランドマーク等の地図要素の存在密度が相対的に疎である可能性が高い田園部のマップタイルは、ランドマーク等の地図要素が密に存在する可能性が高い都市部のマップタイルよりも大きく設定されていてもよい。例えば、田園部のマップタイルは4km四方の矩形状とする一方、都市部のマップタイルは1kmや0.5km四方の矩形状としてもよい。ここでの都市部とは、例えば人口密度が所定値以上となっている地域や、オフィスや商業施設が集中している地域を指す。田園部は、都市部以外の地域とすることができる。田園部は、農村部と読み替えてもよい。
 加えて、全地図データの分割態様は、データサイズによって規定されていてもよい。換言すれば、地図収録地域は、データサイズによって規定される範囲で分割されて管理されてもよい。その場合、各パッチは、データ量が所定値未満となるように設定されている。そのような態様によれば、1回の配信におけるデータサイズを一定値以下とすることができる。
 <車載システム1の概略構成>
 ここでは車載システム1の構成について図2を用いて説明する。図2に示す車載システム1は、自動運転が可能な車両(以下、自動運転車両)で用いられる。車載システム1は、図2に示すように、周辺監視センサ11、車両状態センサ12、ロケータ13、V2X車載器14、HMIシステム15、走行アクチュエータ16、運行記録装置17、及び自動運転装置20を備える。なお、部材名称中のHMIは、Human Machine Interfaceの略である。V2XはVehicle to X(Everything)の略で、車を様々なものをつなぐ通信技術を指す。
 車載システム1を構成する上記の種々の装置又はセンサは、ノードとして、車両内に構築された通信ネットワークである車両内ネットワークNwに接続されている。車両内ネットワークNwに接続されたノード同士は相互に通信可能である。なお、特定の装置同士は、車両内ネットワークNwを介することなく直接的に通信可能に構成されていてもよい。例えば自動運転装置20と運行記録装置17は専用線によって直接的に電気接続されていても良い。また、図2において車両内ネットワークNwはバス型に構成されているが、これに限らない。ネットワークトポロジは、メッシュ型や、スター型、リング型などであってもよい。ネットワーク形状は適宜変更可能である。車両内ネットワークNwの規格としては、例えばController Area Network(CAN:登録商標)や、イーサネット(Ethernetは登録商標)、FlexRay(登録商標)など、多様な規格を採用可能である。
 以降では車載システム1が搭載されている車両を自車両Maとも記載するとともに、自車両Maの運転席に着座している乗員(つまり運転席乗員)をユーザとも記載する。なお、以下の説明における前後、左右、上下の各方向は、自車両Maを基準として規定される。具体的に、前後方向は、自車両Maの長手方向に相当する。左右方向は、自車両Maの幅方向に相当する。上下方向は、車両高さ方向に相当する。別の観点によれば、上下方向は、前後方向及び左右方向に平行な平面に対して垂直な方向に相当する。
 自車両Maは、自動運転が可能な車両であればよい。自動運転の度合い(以下、自動化レベル)としては、例えば米国自動車技術会(SAE International)が定義しているように、複数のレベルが存在し得る。自動化レベルは、例えばSAEの定義では、以下のようにレベル0~5に区分される。
 レベル0は、システムが介入せずに運転者が全ての運転タスクを実施するレベルである。運転タスクには、例えば操舵及び加減速が含まれる。レベル0は、いわゆる完全手動運転レベルに相当する。レベル1は、操舵と加減速との何れかをシステムがサポートするレベルである。レベル2は、ステアリング操作と加減速操作のうちの複数をシステムがサポートするレベルを指す。レベル1~2は、いわゆる運転支援レベルに相当する。
 レベル3は、運行設計領域(ODD:Operational Design Domain)内においてシステムが全ての運転操作を実行する一方、緊急時にはシステムからドライバに操作権限が移譲されるレベルを指す。ODDは、例えば走行位置が高速道路内であること等の、自動運転を実行可能な条件を規定するものである。レベル3では、システムから運転交代の要求があった場合に、運転席乗員が迅速に対応可能であることが求められる。なお、運転席乗員の代わりに、車両外部に存在するオペレータが運転操作を引き継いでもよい。レベル3は、いわゆる条件付き自動運転に相当する。レベル4は、対応不可能な道路、極限環境等の特定状況下を除き、システムが全ての運転タスクを実施可能なレベルである。レベル4は、ODD内にてシステムが全ての運転タスクを実施するレベルに相当する。レベル4は、いわゆる高度自動運転に相当する。レベル5は、あらゆる環境下でシステムが全ての運転タスクを実施可能なレベルである。レベル5は、いわゆる完全自動運転に相当する。レベル3~5は、いわゆる自動運転に相当する。レベル3~5は、車両の走行に係る制御のすべてを自動で実行する、自律走行レベルと呼ぶこともできる。
 本開示の「自動運転」が指すレベルは、例えばレベル3相当であってもよいし、レベル4以上であってもよい。以降では、自車両Maが少なくとも自動化レベル3以上の自動運転を行う場合を例に挙げて説明を行う。なお、自車両Maの運転モードとしての自動化レベルは切り替え可能であってもよい。例えば、自動化レベル3以上の自動運転モードと、レベル1~2の運転支援モードと、レベル0の手動運転モードと、を切り替え可能であってもよい。
 周辺監視センサ11は、自車の周辺を監視するセンサである。周辺監視センサ11は、所定の検出対象物の存在及びその位置を検出するように構成されている。検出対象物には、例えば、歩行者や、他車両などの移動体が含まれる。他車両には自転車や原動機付き自転車、オートバイも含まれる。また、周辺監視センサ11は、所定の地物及び障害物も検出可能に構成されている。周辺監視センサ11が検出対象とする地物には、道路端や、路面標示、道路沿いに設置される立体構造物が含まれる。路面標示とは、交通制御、交通規制のための路面に描かれたペイントを指す。例えば、レーンの境界を示す車線区画線や、横断歩道、停止線、導流帯、安全地帯、規制矢印などが路面標示に含まれる。車線区画線は、レーンマークあるいはレーンマーカーとも称される。車線区画線には、チャッターバーやボッツドッツなどの道路鋲によって実現されるものも含まれる。道路沿いに設置される立体構造物とは、前述の通り、例えば、ガードレールや道路標識、信号機などである。すなわち、周辺監視センサ11は、ランドマークを検出可能に構成されていることが好ましい。ここでの障害物とは道路上に存在し、車両の通行を妨げる立体物を指す。障害物には、事故車両、事故車両の破片などが含まれる。また、例えば矢印板や、コーン、案内板といった車線規制のための規制資器材などや、工事現場、駐車車両、渋滞の末尾なども障害物に含めることができる。周辺監視センサ11は、車体から脱落したタイヤなどの路上落下物を検出可能に構成されていてもよい。
 周辺監視センサ11としては、例えば、周辺監視カメラ、ミリ波レーダ、LiDAR、ソナー等を採用することができる。LiDARは、Light Detection and Ranging又はLaser Imaging Detection and Rangingの略である。なお、ミリ波レーダは、所定方向に向けてミリ波又は準ミリ波を送信するとともに、当該送信波が物体で反射されて返ってきた反射波の受信データを解析することにより、自車両Maに対する物体の相対位置や相対速度を検出するデバイスである。ミリ波レーダは、検出結果として、例えば検出方向及び距離毎の受信強度及び相対速度を示すデータ又は検出物の相対位置及び受信強度を示すデータを生成する。LiDARは、レーザ光を照射することによって、検出方向ごとの反射点の位置を示す3次元点群データを生成するデバイスである。
 周辺監視カメラは自車両の外側、所定方向を撮像するように配置されている車載カメラである。周辺監視カメラには、自車両Maの前方を撮影するようにフロントガラスの車室内側の上端部や、フロントグリル等に配置された、前方カメラが含まれる。前方カメラは、例えばCNN(Convolutional Neural Network)やDNN(Deep Neural Network)などを用いた識別器を用いて上記の検出対象物を検出する。
 周辺監視センサ11が生成する観測データに基づく物体認識処理は、自動運転装置20など、センサ外のECU(Electronic Control Unit)が実行しても良い。前方カメラやミリ波レーダなどの周辺監視センサ11が備える物体認識機能の一部又は全部は、自動運転装置20が備えていてもよい。その場合、各種周辺監視センサ11は、画像データや測距データといった観測データを検出結果データとして自動運転装置20に提供すればよい。
 車両状態センサ12は、自車両Maの走行制御に関わる状態量を検出するセンサ群である。車両状態センサ12には、車速センサ、操舵センサ、加速度センサ、ヨーレートセンサ等が含まれる。車速センサは、自車の車速を検出する。操舵センサは、自車の操舵角を検出する。加速度センサは、自車の前後加速度、横加速度等の加速度を検出する。加速度センサは負方向の加速度である減速度も検出するものとすればよい。ヨーレートセンサは、自車の角速度を検出する。なお、車両状態センサ12として車載システム1が使用するセンサの種類は適宜設計されればよく、上述した全てのセンサを備えている必要はない。
 ロケータ13は、複数の情報を組み合わせる複合測位により、自車両Maの高精度な位置情報等を生成する装置である。ロケータ13は、例えば、GNSS受信機を用いて構成されている。GNSS受信機は、GNSS(Global Navigation Satellite System)を構成する測位衛星から送信される航法信号を受信することで、当該GNSS受信機の現在位置を逐次検出するデバイスである。例えばGNSS受信機は4機以上の測位衛星からの航法信号を受信できている場合には、100ミリ秒ごとに測位結果を出力する。GNSSとしては、GPS、GLONASS、Galileo、IRNSS、QZSS、Beidou等を採用可能である。
 ロケータ13は、GNSS受信機の測位結果と、慣性センサの出力とを組み合わせることにより、自車両Maの位置を逐次測位する。例えば、ロケータ13は、トンネル内などGNSS受信機がGNSS信号を受信できない場合には、ヨーレートと車速を用いてデッドレコニング(Dead Reckoning :すなわち自律航法)を行う。デッドレコニングに用いるヨーレートは、SfM技術を用いて前方カメラで算出されたものでもよいし、ヨーレートセンサで検出されたものでもよい。ロケータ13は加速度センサやジャイロセンサの出力を用いてデッドレコニングしても良い。車両位置は、例えば緯度、経度、及び高度の3次元座標で表される。測位した車両位置情報は車両内ネットワークNwに出力され、自動運転装置20等で利用される。
 なお、ロケータ13は、ローカライズ処理を実施可能に構成されていても良い。ローカライズ処理は、前方カメラなどの周辺監視カメラで撮像された画像に基づいて特定されたランドマークの座標と、地図データに登録されているランドマークの座標とを照合することによって自車両Maの詳細位置を特定する処理を指す。ランドマークとは、例えば、交通標識や信号機、ポール、商業看板など、道路沿いに設置された立体構造物などである。また、ロケータ13は、前方カメラやミリ波レーダで検出されている道路端からの距離に基づいて、自車両Maが走行しているレーンの識別子である走行レーンIDを特定するように構成されていても良い。走行レーンIDは、例えば左端又は右端の道路端から何番目のレーンを自車両Maが走行しているかを示す。ロケータ13が備える一部又は全部の機能は、自動運転装置20が備えていてもよい。自車両Maが走行しているレーンはエゴレーンと呼ぶことができる。
 V2X車載器14、自車両Maが他の装置と無線通信を実施するための装置である。なお、V2Xの「V」は自車両Maとしての自動車を指し、「X」は、歩行者や、他車両、道路設備、ネットワーク、サーバなど、自車両Ma以外の多様な存在を指しうる。V2X車載器14は、通信モジュールとして広域通信部と狭域通信部を備える。広域通信部は、所定の広域無線通信規格に準拠した無線通信を実施するための通信モジュールである。ここでの広域無線通信規格としては例えばLTE(Long Term Evolution)や4G、5Gなど多様なものを採用可能である。なお、広域通信部は、無線基地局を介した通信のほか、広域無線通信規格に準拠した方式によって、他の装置との直接的に、換言すれば基地局を介さずに、無線通信を実施可能に構成されていても良い。つまり、広域通信部はセルラーV2Xを実施するように構成されていても良い。自車両Maは、V2X車載器14の搭載により、インターネットに接続可能なコネクテッドカーとなる。例えば自動運転装置20は、V2X車載器14との協働により、地図サーバ3から自車両Maの現在位置に応じた最新の部分地図データをダウンロードする。V2X車載器14が無線通信機に相当する。
 V2X車載器14が備える狭域通信部は、通信距離が数百m以内に限定される通信規格である狭域通信規格によって、自車両Ma周辺に存在する他の移動体や路側機と直接的に無線通信を実施するための通信モジュールである。他の移動体としては、車両のみに限定されず、歩行者や、自転車などを含めることができる。狭域通信規格としては、WAVE(Wireless Access in Vehicular Environment)や、DSRC(Dedicated Short Range Communications)など、多様なものを採用可能である。狭域通信部は、例えば所定の送信周期で自車両Maについての車両情報を周辺車両に向けて同報送信するとともに、他車両から送信された車両情報を受信する。車両情報は、車両IDや、現在位置、進行方向、移動速度、方向指示器の作動状態、タイムスタンプなどが含まれる。
 HMIシステム15は、ユーザ操作を受け付ける入力インターフェース機能と、ユーザへ向けて情報を提示する出力インターフェース機能とを提供するシステムである。HMIシステム15は、ディスプレイ151とHCU(HMI Control Unit)152を備える。なお、ユーザへの情報提示の手段としては、ディスプレイ151の他、スピーカや、バイブレータ、照明装置(例えばLED)等を採用可能である。
 ディスプレイ151は、画像を表示するデバイスである。ディスプレイ151は、例えば、インストゥルメントパネルの車幅方向中央部に設けられたセンターディスプレイである。ディスプレイ151は、フルカラー表示が可能なものであり、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ、プラズマディスプレイ等を用いて実現できる。なお、HMIシステム15は、ディスプレイ151として、フロントガラスの運転席前方の一部分に虚像を映し出すヘッドアップディスプレイ(HUD:Head-Up Display)を備えていてもよい。ディスプレイ151は、メータディスプレイであってもよい。
 HCU152は、ユーザへの情報提示を統合的に制御する構成である。HCU152は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサと、RAMと、フラッシュメモリ等を用いて実現されている。HCU152は、自動運転装置20から入力される制御信号や、図示しない入力装置からの信号に基づき、ディスプレイ151の表示画面を制御する。例えばHCU152は、自動運転装置20からの要求に基づき、図3に例示するような、部分地図データの取得状況を示す地図アイコン80をディスプレイ151に表示する。図3の(A)は、部分地図データのダウンロードができていない状態を示す地図未取得アイコン80Aの一例を示している。図3の(B)は、部分地図データのダウンロードが成功している状態を示す地図取得済みアイコン80Bの一例を示している。図3の(C)は、部分地図データのダウンロード実行中を示す地図取得中アイコン80Cの一例を示している。地図アイコン80の表示先は例えばディスプレイ151の上端隅部とすることができる。
 走行アクチュエータ16は、走行用のアクチュエータ類である。走行アクチュエータ16には例えば制動装置としてのブレーキアクチュエータや、電子スロットル、操舵アクチュエータなどが含まれる。操舵アクチュエータには、EPS(Electric Power Steering)モータも含まれる。走行アクチュエータ16は自動運転装置20によって制御される。なお、自動運転装置20と走行アクチュエータとの間には、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等が介在していてもよい。
 運行記録装置17は、車両の走行時の車両内の状況、及び、車室外の状況の少なくとも何れか一方を示すデータを記録する装置である。車両の走行時の車両内の状況には、自動運転装置20の作動状態や、運転席乗員の状態を含めることができる。自動運転装置20の作動状態を示すデータには、自動運転装置20における周辺環境の認識結果や、走行計画、各走行アクチュエータの目標制御量などの算出結果も含まれる。また、ディスプレイ151の表示画面をキャプチャした画像、いわゆるスクリーンショットを記録対象に含めても良い。記録対象とするデータは、車両内ネットワークNw等を介して、自動運転装置20や周辺監視センサ11など、車両に搭載されているECUやセンサから取得する。運行記録装置17は所定の記録イベントが発生した場合に、当該イベント発生時点の前後所定時間における各種データを記録する。記録イベントとしては、例えば運転操作の権限移譲や、ODDの退出、後述する非常行動の実施、自動化レベルの変動、MRM(Minimum Risk Maneuver)の実行等を採用可能である。例えば運行記録装置17は、自動運転装置20が非常行動を実行した場合には、その時点で取得されていた部分地図データを特定可能なデータを保存する。取得済みの部分地図データを特定可能なデータとは、例えばタイルIDやバージョン情報、取得日時などである。データの記録先は、自車両Maに搭載された不揮発性の記憶媒体であってもよいし、外部サーバであってもよい。
 自動運転装置20は、周辺監視センサ11などの検出結果をもとに走行アクチュエータ16を制御することにより、運転操作の一部又は全部を運転席乗員の代わりに実行するECU(Electronic Control Unit)である。ここでは一例として自動運転装置20は、自動化レベル5までを実行可能に構成されており、各自動化レベルに対応する動作モードを切り替え可能に構成されている。以降では便宜上、自動運転レベルN(N=0~5)に対応する動作モードを、レベルNモードとも記載する。例えばレベル3モードとは、自動運転レベル3相当の制御を実施する動作モードを指す。
 以降では自動化レベル3以上のモードで動作している場合を想定して説明を続ける。レベル3以上の走行モードにおいては、自動運転装置20は、運転席乗員又はオペレータによって設定された目的地まで、道路に沿って自車両Maが走行するように、車両の操舵、加速、減速(換言すれば制動)等を自動で実施する。なお、動作モードの切り替えは、ユーザ操作の他、システム限界や、ODDの退出等に起因して自動的に実行される。
 自動運転装置20は、処理部21、RAM22、ストレージ23、通信インターフェース24、及びこれらを接続するバス等を備えたコンピュータを主体として構成されている。処理部21は、RAM22と結合された演算処理のためのハードウェアである。処理部21は、CPU等の演算コアを少なくとも一つ含む構成である。処理部21は、RAM22へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。ストレージ23は、フラッシュメモリ等の不揮発性の記憶媒体を含む構成である。ストレージ23には、処理部21によって実行されるプログラムである自動運転プログラムが格納されている。処理部21が自動運転プログラムを実行することは、車両制御方法として、自動運転プログラムに対応する方法が実行されることに相当する。通信インターフェース24は、車両内ネットワークNwを介して他の装置と通信するための回路である。通信インターフェース24は、アナログ回路素子やICなどを用いて実現されればよい。自動運転装置20の詳細については別途後述する。
 <自動運転装置20の構成について>
 ここでは図4を用いて自動運転装置20の機能及び作動について説明する。自動運転装置20は、ストレージ23に保存されている自動運転プログラムを実行することにより、図4に示す種々の機能ブロックに対応する機能を提供する。すなわち、自動運転装置20は機能ブロックとして、自車位置取得部F1、センシング情報取得部F2、車両状態取得部F3、地図取得部F4、地図管理部F5、走行環境認識部F6、制御計画部F7、及び制御信号出力部F8を備える。地図管理部F5はサブ機能として整合性判定部F51を備える、制御計画部F7はサブ機能として、責任値演算部F71、安全距離設定部F72、及び行動決定部F73を備える。また、自動運転装置20は地図保持部M1を備える。
 自車位置取得部F1は、ロケータ13から自車両Maの現在位置座標を取得する。なお、自車位置取得部F1は、車両の走行用電源がオンとなった直後は、不揮発性のメモリに保存されている、最新の自車位置情報を現在位置情報として読み出すように構成されていても良い。メモリに保存されている最新の位置算出結果は、前回のトリップの終了地点、すなわち駐車位置に相当する。トリップとは走行用電源がオンになってからオフになるまでの一連の走行を指す。なお、上記の処理を実行するために、自動運転装置20は駐車後のシャットダウン処理として、駐車時点で観測されていた自車位置情報を不揮発性メモリに保存するように構成されていることが好ましい。ここでの走行用電源とは、車両が走行するための電源であって、車両がガソリン車である場合にはイグニッション電源を指す。また、車両が電気自動車やハイブリッドカーである場合、システムメインリレーが走行用電源に相当する。
 センシング情報取得部F2は、周辺監視センサ11の検出結果(つまり、センシング情報)を取得する。センシング情報には、自車両Ma周辺に存在する他の移動体や、地物、障害物などの位置や、移動速度が含まれる。例えば、自車両Maの前方を走行する車両である前方車両と自車両Maとの距離や、前方車両の移動速度が含まれる。ここでの前方車両には、自車と同一のレーンを走行する、いわゆる先行車両のほか、隣接レーンを走行する車両を含める事ができる。つまり、ここでの前方には自車両Maの真正面方向に限らず、斜め前方を含めることができる。また、センシング情報には、道路端までの横方向距離や、走行レーンID、走行レーンにおける中心線からのオフセット量などが含まれる。車両状態取得部F3は、車両状態センサ12から自車両Maの走行速度や加速度、ヨーレートなどを取得する。
 地図取得部F4は、地図サーバ3とV2X車載器14を介して無線通信することで、自車両Maの現在位置に対応する部分地図データを取得する。例えば、地図取得部F4は自車両Maが所定時間以内に通過予定の道路に関する部分地図データを地図サーバ3に要求して取得する。地図サーバ3から取得した部分地図データは例えば地図保持部M1に保存される。地図保持部M1は、不揮発性のメモリなどを用いて、走行用電源がオフに設定されてもデータが保持されるように構成されている。地図保持部M1は、例えばストレージ23が備える記憶領域の一部を用いて実現されている。
 なお、地図保持部M1は、RAM22が備える記憶領域の一部を用いて実現されていてもよい。仮に地図保持部M1がRAM22を用いて実現されている場合であっても、車載バッテリの電源をRAM22に供給する事により、走行用電源がオフの間もデータを保持することは可能である。また、他の態様として、地図保持部M1は、走行用電源がオフに設定されると保存データが消失するように構成されていてもよい。地図保持部M1は、非遷移的な記憶媒体である。
 便宜上、現在位置を含む部分地図データのことを、現エリア地図データと称するとともに、また、現エリア地図データの収録範囲を現地図範囲又は現エリアと記載する。さらに、次に使用される部分地図データのことを次エリア地図データと称する。次エリア地図データは、現エリア地図データの自車両Maの進行方向側に隣接する部分地図データに相当する。次エリア地図データは、所定時間以内に進入予定の領域についての部分地図データに相当する。次エリア地図データは走行予定経路をもとに決定されても良い。次エリア地図データの収録範囲を次地図範囲又は次エリアとも記載する。なお、隣り合う部分地図データがオーバーラップするように構成されている場合には、現地図範囲(現エリア)と次地図範囲(次エリア)は部分的に重なりうる。
 地図管理部F5は、自車両の進行方向又は走行予定経路に対応する部分地図データの取得及び保持状況を管理する。例えば地図管理部F5は、地図取得部F4が取得した部分地図データ、及び、地図保持部M1に保存されている地図データを管理する。ここでは一例として、地図管理部F5は、少なくとも走行用電源がオフになったタイミングで地図保持部M1内の地図データは全て削除するように構成されている。
 なお、地図取得部F4がダウンロードした地図データの保存規則は、地図保持部M1の容量等を鑑みて、多様な規則を適用可能である。例えば地図保持部M1の容量が相対的に小さい場合、地図管理部F5は自車両Maがすでに離脱した領域について部分地図データは、離脱次第あるいは所定距離以上離れたタイミングで削除してもよい。そのような構成によれば、容量の小さい地図保持部M1を用いて自動運転装置20を実現できる。すなわち、自動運転装置20の導入コストを低減することができる。
 また、地図管理部F5は、地図保持部M1にダウンロードされた地図データを、ダウンロードされた時点から所定時間(例えば1日)経過したタイミングで削除するように構成されていてもよい。通勤路や通学路など、日常的に使用する道路についての地図データについては、可能な限り地図保持部M1にキャッシュするように構成されていてよい。例えば空き容量が所定値以下とならない限りは日常的に使用する道路についての地図データについては保持するように構成されていてもよい。ダウンロードされた地図データの保存期間は、データの属性に応じて変更されてもよい。例えば静的地図データについては一定量まで地図保持部M1に保存する。一方、例えば工事情報などの動的地図データについては、当該動的地図データに対応する地域を通過したタイミングでから削除するように構成されていてもよい。
 また、地図管理部F5は、例えば制御計画部F7等が次エリア地図データを使用し始めるまでの残り時間を次地図使用開始時間Tmxとして算出する。次エリア地図データを使用し始めるタイミングは、例えば、自車両Maが現地図範囲を離脱する場合とすることができる。現地図範囲を離脱する場合に次エリア地図データの使用を開始するように構成されている場合、地図管理部F5は、次地図使用開始時間Tmxとして、自車両Maの現在位置、及び走行速度に基づいて現地図範囲を退出するまでの残り時間を算出する。図5は、次地図使用開始時間にかかる地図管理部F5の作動を概念的に示した図である。図5中に示す「L」は、現在位置から現地図範囲の退出点までの距離を表している。次地図使用開始時間Tmxは、例えば距離Lを車速Vで除算した値に基づいて決定される。
 また、次エリア地図データを使用し始めるタイミングは、例えば、次地図範囲に進入する場合とすることもできる。自車両Maが次地図範囲に進入する場合に次エリア地図データの使用を開始するように構成されている場合、地図管理部F5は、自車両Maの現在位置、次地図範囲情報、及び、自車両の走行速度に基づいて次地図使用開始時間Tmxを算出可能である。その他、自車両Maから所定の地図参照距離、自車両Ma前方に位置する地点が、現地図範囲外となる場合、又は、次地図範囲に属する場合を、次エリア地図データを使用し始めるタイミングとしてもよい。地図参照距離は、例えば後述の安全距離よりも十分に長く設定されていることが好ましい。例えば地図参照距離は、安全距離の1.5倍に設定されていても良い。また地図参照距離は固定値であって、例えば200mなどであってもよい。地図参照距離は、走行速度が大きいほど長く設定されても良い。また、地図参照距離は、道路種別に応じて変更されても良い。例えば自動車専用道路の地図参照距離は、一般道路用の地図参照距離よりも長く設定されていても良い。
 地図管理部F5は、次エリア地図データを取得済みであるか否かなど、地図データの取得状況などを制御計画部F7に通知する。例えば、地図管理部F5が次地図使用開始時間Tmxが所定の準備期限時間未満である状態において、まだ次エリア地図データを取得できていない場合には、当該次地図使用開始時間Tmxを、地図取得残余時間Tmgとして、制御計画部F7に出力する。地図取得残余時間Tmgは、制御計画を策定する上で次エリア地図データが必要となるまでの残り時間に相当する。制御計画を策定する上で次エリア地図データが必要となる状態とは、後述する潜在事故責任値を算出する上で次エリア地図データを使用する場合が含まれる。次エリア地図データが必要となる状態には、現地図エリアを退出する場合や、次地図エリアに進入する場合も含まれる。
 なお、地図取得残余時間Tmgは、次地図使用開始時間Tmxから所定の余裕時間を減算した値に設定されても良い。余裕時間は例えは通信遅延や受信後の処理遅延などを考慮した時間であって、例えば5秒などとすることができる。地図取得残余時間Tmgは、次地図使用開始時間Tmxよりも短い時間とすることができる。なお、地図取得残余時間Tmgは次地図使用開始時間Tmxそのままでもよい。本開示の構成は、地図取得残余時間Tmgを次地図使用開始時間Tmxに置き換えて実施可能である。また、次地図使用開始時間Tmxが所定の準備期限時間以上である場合や、すでに次エリア地図データを取得済みである場合には地図取得残余時間Tmgは十分に大きい値に設定されて出力されても良い。
 また、地図管理部F5は、次地図使用開始時間Tmxが準備期限未満である状態において、まだ次エリア地図データを取得できていない場合には、V2X車載器14に対し、次エリア地図データを取得するための通信を優先的に実行するように要求してもよい。当該要求は、地図取得部F4を介して実施されても良い。準備期限時間は例えば2分など、後述する第1時間Th1よりは長く設定されていることが好ましい。
 整合性判定部F51は、地図取得部F4が取得した現エリア地図データが示す内容と、周辺監視センサ11のセンシング情報とを照合することにより、地図データが現実世界と整合しているか否かを判定する。例えば整合性判定部F51は、図6に示すように前方車両Mbが車線区画線Ln1をまたいだことを検出しており、かつ、前方車両Mbが走行していたレーン上に静止物Obtを検出した場合に、地図データと現実世界が不整合と判定する。前方車両Mbによる回避行動及び静止物Obtの検出は、例えば前方カメラの認識結果などのセンシング情報に基づいて検出されればよい。なお、前提として地図データには図6に示す路上の静止物Obtの情報は登録されていないものとする。静止物Obtは、例えば路上の駐車車両や、道路工事、車線規制、落下物などである。それらの準静的な情報が地図データに反映されていない場合、地図データと現実世界との不整合が生じうる。
 このように整合性判定部F51は、地図上は直進できる区間において、前方車両が車線変更などの回避行動を実施している場合に、地図と現実世界が整合していないと判定する。ここでの直進とは、車線変更等の走行位置の変更をせずに、それまで走行してきたレーンを道なりに沿って走行することを指す。ここでの直進とは必ずしも操舵角を0°に維持して走行する挙動に限定されない。
 また、回避行動とは、例えば障害物を避けるための車両挙動であって、例えば走行位置の変更を指す。ここでの走行位置の変更とは、道路上における車両の横方向の位置を変更することを指す。走行位置の変更には、車線変更だけでなく、同一レーン内における走行位置を左右のどちらか隅部に寄せる動きや、レーン境界線をまたいで走行する態様も含まれる。なお、通常の車線変更との違いを明確とするために、回避行動は、減速及びその後の加速を伴う走行位置の変更/操舵とすることが好ましい。例えば減速操作を伴う走行位置の変更や、所定の速度以下までの減速を伴う走行位置の変更を回避行動とすることができる。なお、上記の回避行動について説明は、本開示で想定する回避行動の概念を示したものである。回避行動としての走行位置の変更を実行したか否かは、センシング情報による前方車両の走行軌跡や、方向指示器の作動履歴などから判定可能である。
 その他、整合性判定部F51は、地図上は直進可能な道路区間において、複数の前方車両が連続して回避行動を実施していることを検出した場合に、地図データと現実世界とが整合していないと判定しても良い。また、地図データに示される地物情報と、センシング情報が表す地物情報とが一致していないことに基づいて、地図データと現実世界とが整合していないと判定しても良い。さらに整合性判定部F51は、周辺車両の走行位置が、地図データが示す道路範囲外となっている場合に、地図と現実世界が整合していないと判定してもよい。
 図7は整合性判定部F51による整合性の判定方法の一例を示したものである。図7に示す整合性判定処理は、前方車両の走行位置が車線からはみ出しているか否かを判定するステップS101と、地図データに登録されていない静止物が検出されているか否かを判定するステップS102とを含む。整合性判定部F51は、前方車両の走行位置が車線からはみ出したことが検出されており(S101 YES)、かつ、地図に登録されていない静止物が検出されている場合(S102 YES)に、地図データが現実世界と整合していないと判定する(S103)。なお、ステップS101とステップS102の何れか一方は省略されても良い。ステップS101を省略する場合にはステップS102からフローを開始すれば良い。
 走行環境認識部F6は、周辺監視センサ11での検出結果等に基づいて、自車両Maの周囲の環境である周辺環境を認識する。ここでの周辺環境には、現在位置や走行レーン、道路種別、制限速度、地物の相対位置などの静的な環境要因だけでなく、他の移動体の位置や移動速度、周辺物体の形状及びサイズ等なども含まれる。他の移動体には、他車両としての自動車や、歩行者、自転車などが含まれる。
 走行環境認識部F6は、周辺監視センサ11で検出する周辺物体が移動体であるか静止物体であるかを区別して認識することが好ましい。また、周辺物体の種別も区別して認識することが好ましい。周辺物体の種別については、例えば周辺監視カメラの撮像画像にパターンマッチングを行うことで種別を区別して認識すればよい。種別については、例えばガードレール等の構造物、路上落下物、歩行者、自転車、自動二輪車、自動車等を区別して認識すればよい。周辺物体の種別は、周辺物体が自動車の場合には、車格、車種等とすればよい。周辺物体が移動体であるか静止物体であるかについては、周辺物体の種別に応じて認識すればよい。例えば、周辺物体の種別が構造物、路上落下物の場合は静止物体と認識すればよい。周辺物体の種別が歩行者、自転車、自動二輪車、自動車の場合は移動体と認識すればよい。なお、駐車車両のように直ちに移動する可能性の低い物体は、静止物体として認識してもよい。駐車されている車両か否かは、停止しており、且つ、画像認識によってブレーキランプが点灯していないこと等に基づいて判別すればよい。
 走行環境認識部F6は、複数の周辺監視センサ11のそれぞれから検出結果を取得し、それらを相補的に組み合わせることにより、自車周辺に存在する物体の位置及び種別を認識してもよい。周辺物体の位置や速度は、自車両Maを基準とする相対位置、相対速度であっても良いし、地面を基準とする絶対位置、絶対速度であってもよい。
 また、走行環境認識部F6は、周辺監視センサ11の検出結果や地図データをもとに、自車周辺の路面標示や、ランドマークの位置や種別、信号機の点灯状態を認識してもよい。加えて、走行環境認識部F6は、周辺監視センサ11の検出結果と地図データの少なくとも何れか一方を用いて、走路の境界に関する境界情報として、自車両Maが現在走行する車線の左右の区画線及び道路端の相対位置及び形状を特定してもよい。なお、走行環境認識部F6が各周辺監視センサ11から取得するデータは、解析結果ではなく、画像データ等の観測データであってもよい。その場合、走行環境認識部F6は、種々の周辺監視センサ11の観測データに基づき、左右の区画線又は道路端の位置や形状を含む周辺環境を特定すればよい。
 その他、走行環境認識部F6はV2X車載器14が他車両から受信した他車両情報や、路車間通信にて路側機から受信した交通情報等を用いて周辺環境を特定しても良い。路側器から取得できる交通情報には道路工事情報や、交通規制情報、渋滞情報、気象情報、制限速度や、信号機の点灯状態、点灯サイクルなどを含めることができる。
 制御計画部F7は、走行環境認識部F6が特定する走行環境及び地図データを用いて、自動運転によって自車両Maを自律的に走行させるための走行計画、換言すれば制御計画を生成する。例えば制御計画部F7は、中長期の走行計画として、経路探索処理を行って、自車位置から目的地へ向かわせるための推奨経路を生成する。また、制御計画部F7は、中長期の走行計画に沿った走行を行うための短期の制御計画として、車線変更の走行計画、レーン中心を走行する走行計画、先行車に追従する走行計画、及び障害物回避の走行計画等が生成する。
 制御計画部F7は、短期の制御計画として、例えば、認識した走行区画線から一定距離又は中央となる経路を走行計画として生成したり、認識した先行車の挙動又は走行軌跡に沿う経路を走行計画として生成したりする。制御計画部F7は、自車の走行路が片側複数車線の道路に該当する場合には、隣接車線に車線変更するプラン候補を生成してもよい。制御計画部F7は、センシング情報又は地図データに基づき自車両Ma前方に障害物が存在することが確認された場合には、障害物の側方を通過する走行計画を生成してもよい。制御計画部F7は、センシング情報又は地図データに基づき自車両Ma前方に障害物が存在することが確認された場合には、障害物の手前で停車する減速を走行計画として生成してもよい。制御計画部F7は、機械学習等によって最適と判定される走行計画を生成する構成としてもよい。
 制御計画部F7は、短期の走行計画の候補として、例えば1以上のプラン候補を算出する。複数のプラン候補は、それぞれ加減速量や、ジャーク、操舵量、各種制御を行うタイミングなどが異なる。すなわち、短期の走行計画には、算出した経路における速度調整のための加減速のスケジュール情報を含みうる。プラン候補は経路候補と呼ぶこともできる。行動決定部F73は、複数の制御プランのうち、後述する責任値演算部F71で算出された潜在事故責任値が最も小さいプラン、又は、潜在事故責任値が許容レベルとなっているプランを、最終的な実行プランとして採用する。なお、地図データは、例えば車線数や道路幅に基づいて車両が走行可能な領域を特定したり、前方道路の曲率に基づいて操舵量や目標速度を設定したりするために使用される。また、地図データは、道路構造や交通ルールに基づく安全距離の算出処理や、潜在事故責任値の算出処理にも使用される。
 責任値演算部F71は、制御計画部F7で生成する走行計画の安全性を評価する構成に相当する。一例として、責任値演算部F71は、自車と周辺物体との対象間の距離(以下、対象間距離)が、安全距離設定部F72で設定されている安全距離の設定値以上か否かに基づいて安全性を評価する。
 例えば責任値演算部F71は、制御計画部F7が計画した各プラン候補を自車両Maが走行した場合について、そのプラン候補を走行して自車両Maに事故が生じた場合に、自車両Maの責任の程度を示す潜在事故責任値を決定する。潜在事故責任値は、プラン候補を自車両Maが走行した場合の自車両Maと周辺車両との間の車間距離と安全距離との比較結果を因子の1つとして用いて決定する。
 潜在事故責任値は、責任が低いほど小さい値になる。したがって、潜在事故責任値は、自車両Maが安全運転をしているほど小さい値になる。たとえば、車間距離が十分に確保されている場合には、潜在事故責任値は小さい値になる。また、潜在事故責任値は、自車両Maが急加速や急減速をする場合に大きい値になりうる。
 また、責任値演算部F71は、自車両Maが交通ルールに従って走行している場合に潜在事故責任値を低い値にすることができる。つまり、自車位置における交通ルールを遵守した経路になっているか否かも、潜在事故責任値の値に影響する因子として採用可能である。自車両Maが交通ルールに従って走行しているかどうかを判定するために、責任値演算部F71は、自車両Maが走行している地点の交通ルールを取得する構成を備えることができる。自車両Maが走行している地点の交通ルールは、所定のデータベースから取得しても良いし、自車両Maの周辺を撮像するカメラが撮像した画像を解析して、標識、信号機、路面標示などを検出することで、現在位置の交通ルールを取得してもよい。交通ルールは、地図データに含まれていても良い。
 安全距離設定部F72は、責任値演算部F71で使用される、走行環境に応じた安全距離を動的に設定する構成である。安全距離は、対象間の安全性を評価するための基準となる距離である。安全距離としては、先行車との間の安全距離、すなわち縦方向の安全距離と、左右方向すなわち横方向の安全距離とがある。数学的公式モデルには、これら2種類の安全距離を決定するためのモデルが含まれている。安全距離設定部F72は、安全運転の概念を数式化した数学的公式モデルを用いて縦方向及び横方向の安全距離を算出し、算出した値を、その時点での安全距離として設定する。安全距離設定部F72は、少なくとも自車両Maの加速度などの挙動の情報を用いて安全距離を算出して設定する。安全距離の算出方法としては多様なモデルを採用可能であるため、ここでの詳細な算出方法の説明は省略する。なお、安全距離を算出するための数学的公式モデルとしては、例えば、RSS(Responsibility Sensitive Safety)モデルを用いることができる。また、安全距離を算出するための数学的公式モデルとしては、SFF(Safety Force Field、登録商標)を採用することもできる。安全距離設定部F72が上記数学的公式モデルを用いて算出した安全距離を以降では安全距離の標準値dminとも記載する。安全距離設定部F72は、整合性判定部F51の判定結果に基づいて、安全距離を標準値dminよりも長く設定可能に構成されている。
 なお、上記の数学的公式モデルは、事故が完全に生じないことを担保するものではなく、安全距離未満となった場合に衝突回避のための適切な行動を取りさえすれば事故の責任を負う側にならないことを担保するためのものである。ここで言うところの衝突回避のための適切な行動の一例としては、合理的な力での制動が挙げられる。合理的な力での制動とは、例えば、自車にとって可能な最大減速度での制動等が挙げられる。数学的公式モデルによって算出される安全距離は、自車と障害物との近接をさけるために自車が障害物との間に最低限空けるべき距離と言い換えることができる。
 行動決定部F73は、複数の制御プランのうち、前述の通り、責任値演算部F71で算出された潜在事故責任値に基づいて、最終的な実行プランを決定する構成である。また、行動決定部F73としての制御計画部F7は、地図管理部F5から入力される地図取得残余時間Tmgに基づいて、最終的な実行プランを決定する。地図取得残余時間Tmgに基づく行動内容、換言すれば制御計画を決定するための処理である地図未取得対応処理については別途後述する。
 制御信号出力部F8は、行動決定部F73で決定された制御計画に対応する制御信号を、制御対象とする走行アクチュエータ16及び又はHCU151へ出力する構成である。例えば減速が予定されている場合には、ブレーキアクチュエータや、電子スロットルに対して計画された減速度を実現するための制御信号を出力する。また、部分地図データの取得状況に応じた地図アイコンを表示させるための制御信号をHCU151に出力する。なお、所定の記録イベント発生時には、制御信号出力部F8の出力信号は運行記録装置17によって記録されうる。
 その他、自動運転装置20は、非常行動を実施した場合には、部分地図データの取得状況を示すデータを運行記録装置17に出力する。部分地図データの取得状況には、取得できていたマップタイルのIDが含まれる。また整合性判定部F51によって地図データと現実世界とが整合していないと判定されていたか否かも、部分地図データの取得状況を示すデータとして出力する。
 <地図未取得対応処理について>
 ここでは図8に示すフローチャートを用いて制御計画部F7が実行する地図未取得対応処理について説明する。図8に示すフローチャートは、例えば自動運転などの地図データを利用する所定のアプリケーションを実行している間、所定の周期(例えば500ミリ秒毎)に実行される。所定のアプリケーションとしては、自動運転を行うアプリケーションの他に、ACC(Adaptive Cruise Control)、LTC(Lane Trace Control)、ナビゲーションアプリなどを含めることができる。なお、地図管理部F5より次エリア地図データを取得済みであると通知されている場合、すなわち次エリア地図データを取得済みである場合には本フローは省略可能である。
 まずステップS201では地図管理部F5から地図取得残余時間Tmgを取得してステップS202を実行する。ステップS202では地図取得残余時間Tmgが所定の第1時間Th1未満であるか否かを判定する。地図取得残余時間Tmgが第1時間Th1未満である場合にはステップS202を肯定判定してステップS204に移る。一方、地図取得残余時間Tmgが第1時間Th1以上である場合にはステップS202を否定判定してステップS203に移る。なお、次エリア地図データを取得済みである場合にもステップS202を否定判定してステップS203に移って良い。本判定で使用する第1時間Th1は、別途後述する第1非常行動を実施する必要があるか否かを判定するための閾値として機能するパラメータである。第1時間Th1は例えば、60秒などに設定されている。なお、第1時間Th1は例えば45秒や90秒、100秒などであってもよい。
 ステップS203では、通常通りの制御を実行する。すなわち、目的地に向かって自律的に走行するための複数のプラン候補のうち、潜在事故責任値に基づいて決定された制御計画を実行する。
 ステップS204では、地図取得残余時間Tmgが所定の第2時間Th2未満であるか否かを判定する。第2時間Th2は0秒よりも長く、かつ、第1時間Th1よりも短く設定されている。本判定で使用する第2時間Th2は、別途後述する第2非常行動を実施する必要があるか否かを判定するための閾値として機能するパラメータである。第2時間Th2は例えば、30秒などに設定されている。なお、第2時間Th2は例えば20秒や、40秒などであってもよい。地図取得残余時間Tmgが第2時間Th2未満である場合にはステップS204を肯定判定してステップS206に移る。一方、地図取得残余時間Tmgが第2時間Th2以上である場合にはステップS204を否定判定してステップS205に移る。なお、本構成によればステップS205を実行する場合とは、地図取得残余時間Tmgが第1時間Th1未満であってかつ第2時間Th2以上である場合となる。
 ステップS205では所定の第1非常行動の実行を計画し、実行開始する。第1非常行動は、例えば、自動運転等を継続する上で間もなく必要となる地図が未だ取得できていないことを運転席乗員又は車両の外部に存在するオペレータに通知することである。便宜上、次エリア地図データを未取得であることを乗員等に通知する処理を地図未取得通知処理とも記載する。地図未取得通知処理での通知内容は、上記の通り、自動運転等を継続する上で必要な地図が未取得であることを示す情報とすることができる。例えば図3の(A)に示す地図未取得アイコン80Aを、テキスト又は音声メッセージとともにディスプレイ151に表示しても良い。
 また、地図未取得通知処理での通知内容は、地図の不備に基づき、まもなく自動運転が中断される可能性があることを示す画像又は音声メッセージであってもよい。上記構成は、乗員又はオペレータに対して部分地図データの取得に失敗していることを通知する構成に相当する。上記通知の媒体は、画像であっても良いし、音声メッセージであってもよい。地図未取得通知処理の結果として、制御信号出力部F8は、上記内容に対応するアイコン画像やメッセージ画像をディスプレイ151に出力するように指示する制御信号をHCU152に出力する。なお、第1非常行動として、地図未取得通知処理を実行する場合には、別途、複数のプラン候補の中から通常通りの手順で選定された制御計画が並列的に実施されればよい。
 ステップS206では、地図取得残余時間Tmgが所定の第3時間Th3未満であるか否かを判定する。第3時間Th3は0秒よりも長く、かつ、第2時間Th2よりも短く設定されている。本判定で使用する第3時間Th3は、別途後述する第3非常行動を実施する必要があるか否かを判定するための閾値として機能するパラメータである。第3時間Th3は例えば、10秒などに設定されている。なお、第3時間Th3は例えば5秒や、15秒などであってもよい。地図取得残余時間Tmgが第3時間Th3未満である場合にはステップS206を肯定判定してステップS208に移る。一方、地図取得残余時間Tmgが第3時間Th3以上である場合にはステップS206を否定判定してステップS207に移る。なお、本構成によればステップS207を実行する場合とは、地図取得残余時間Tmgが第2時間Th2未満であってかつ第3時間Th3以上である場合となる。
 ステップS207では所定の第2非常行動の実行を計画し、実行開始する。第2非常行動は、例えば、車両の走行速度を予定されていた目標速度よりも所定量低減する処理とすることができる。便宜上、走行速度を抑制する処理を速度抑制処理とも記載する。車両の走行速度を当初の計画値よりも小さい値に設定することにより、次エリア地図データが必要となる地点に到達するまでの時間を長くすることができる。つまり、地図取得残余時間Tmgを長くすることができる。それに伴い、次エリア地図データが必要となる地点に到達するまでに次エリア地図データを取得できる確率を高めることができる。なお、第2非常行動としての速度抑制処理の実行が決定された場合には、速度抑制処理を実行することを前提としたプラン候補を作成し、潜在事故責任値に基づいて最終的な減速の実施の態様を決定してもよい。第2非常行動としての減速量は、例えば5km/hや10km/hなどの固定値とすることができる。また、減速後の目標速度は当初予定されていた目標速度に対して1未満の所定係数を乗算した値としても良い。例えば減速後の目標速度は当初予定されていた目標速度の0.9倍や0.8倍などとしてもよい。なお、現在の走行車線が追い越しレーンなどである場合には、第2非常行動の実施の決定に伴い、走行車線へと車線変更することも合わせて計画されても良い。ここでの走行車線とは追越車線ではない車線を指す。例えば日本においては右端以外の車線が走行車線に相当する。またドイツにおいては右端の車線が走行車線に相当する。追越車線及び走行車線の設定は、走行地域の交通ルールに準拠するように変更されればよい。
 ステップS208では所定の第3非常行動の実行を計画し、実行開始する。第3非常行動は、例えば、MRMとすることができる。MRMの内容は、例えば、周囲に警報を発しながら安全な場所まで車両を自律走行させて駐車させる処理とすることができる。安全な場所としては、所定値以上の幅を有する路肩や、緊急退避エリアとして規定されている場所などである。なお、MRMの内容は、緩やかな減速で現在走行中の車線内に停止するものであってもよい。その際の減速度としては、例えば2[m/s^2]や3[m/s^2]など、4[m/s^2]以下の値を採用することが好ましい。もちろん、先行車両との衝突等を回避する必要がある場合には、4[m/s^2]を超過する減速度も採用可能である。MRM時の減速度は、例えば10秒以内に停止できる範囲で、MRM開始時点の走行速度や、後続車両との車間距離を鑑みて動的に決定及び逐次更新されてもよい。MRMを開始することは、緊急停車に向けた減速を開始することに相当する。
 <不整合対応処理について>
 ここでは図9に示すフローチャートを用いて自動運転装置20が実行する不整合対応処理について説明する。図9に示すフローチャートは、例えば自動運転やナビゲーションなどの地図データを利用する所定のアプリケーションを実行している間、所定の周期(例えば200ミリ秒毎)に実行される。なお、本フローは、図8に示す地図未取得対応処理とは独立して、換言すれば並列的に、逐次実行可能である。本実施形態では一例として不整合対応処理はステップS301~S306を備える。
 まずステップS301では周辺監視センサ11のセンシング情報を取得してステップS302に移る。ステップS302では整合性判定部F51が整合性判定処理を実施する。当該整合性判定処理は、例えば図7に示すフローチャートを用いて説明した内容とすることができる。ステップS302の結果として地図と現実世界の間にギャップがあると判定した場合にはステップS304に移る。一方、ステップS302の結果として地図と現実世界の間にギャップがあるとは判定しなかった場合にはステップS305に移る。
 なお、地図と現実世界の間にギャップがある状態とは、換言すれば地図と現実世界とが整合していない状態に相当する。地図と現実世界とが整合していない状態には、例えば、地図に登録されていない障害物が道路上に存在する状態や、地図上では走行可能な領域が現実には走行不可能となっている状態に相当する。また、地図に示される道路形状と周辺監視センサ11で検出されている道路形状が相違する場合も、地図データと現実世界とが整合していない場合の一例に相当する。ここでの道路形状とは、車線数や、曲率、道路幅などの少なくとも何れか1つを指す。例えば地図に示される道路端形状が前方カメラで実際に観測されている形状と相違する場合や、地図データに登録されていないランドマークが検出されている場合も、地図と現実世界の間にギャップがある状態の一例に相当する。加えて、前方に他車両が存在しない状態、すなわち前方カメラの視界が開けている状態において、地図データに登録されているランドマークを検出できていない場合も、地図データと現実世界とが整合していない場合の一例に相当する。地図データに登録されている看板の色合いや形状、位置、表示内容が、画像認識結果と相違する場合も、地図データと現実世界とが整合していない場合の一例に相当する。
 ステップS304では安全距離設定部F72が、安全距離の設定値dsetを標準値dminよりも長めに設定する。例えば安全距離の設定値dsetは次の式1のように設定可能である。
 dset=dmin+εd  ・・・(式1)
 なお、式1中のεdは、延長分に相当するパラメータであって、便宜上、拡張距離と称する。例えば拡張距離εdは、0よりも大きい値である。拡張距離εdは、20mや50mなどの固定値とすることができる。また、拡張距離εdは、自車両Maの速度や加速度に応じて動的に決定されてもよい。例えば拡張距離εdは、車速が大きいほど、長く設定されても良い。また、拡張距離εdは自車両Maの加速度が大きいほど、あるいは、減速度合いが小さいほど、長く設定されても良い。その他、拡張距離εdは、自車両Maが走行している道路の種別に応じて調整されても良い。例えば自車両Maの走行路が一般道路である場合には、拡張距離εdは、走行路が高速道路などの自動車専用道路である場合よりも小さい値が設定されても良い。
 また、他の態様として、安全距離の設定値dsetは次の式2のように設定してもよい。
 dset=dmin×α  ・・・(式2)
 なお、式1中のαは、安全距離を伸ばすための係数であって、便宜上、拡張係数と称する。拡張係数αは、1よりも大きい実数である。拡張係数αは、例えば1.1や1.2などの固定値とすることができる。また、拡張係数αは、自車両Maの速度や加速度に応じて動的に決定されてもよい。例えば拡張係数αは、車速が大きいほど、大きい値に設定されても良い。また、拡張係数αは自車両Maの加速度が大きいほど、あるいは、減速度合いが小さいほど、大きく設定されても良い。その他、拡張係数αは、自車両Maが走行している道路の種別に応じて調整されても良い。例えば自車両Maの走行路が一般道路である場合の拡張係数αは、走行路が高速道路などの自動車専用道路である場合よりも小さい値が設定されても良い。ステップS304での処理が完了するとステップS306に移る。
 ステップS305では、安全距離の設定値dsetとして数学的公式モデルに基づいて算出された標準値dminを設定してステップS306に移る。ステップS306では制御計画部F7が、以上の処理で決定された安全距離を確保可能な制御計画を作成する。なお、ステップS306で作成された制御計画については、責任値演算部F71が潜在自己責任値を算出し、その算出された潜在事故責任値に基づいて最終的に実行する行動が選定される。
 <上記構成の効果>
 上記の構成によれば、地図取得残余時間Tmgが第1時間未満となると、非常行動として運転席乗員への通知などを実行する。このような構成によれば、地図データの欠損に由来して最終的に自動運転が中断される場合であっても、事前の通知が存在するため、自動運転の中断がユーザにとって想定外の挙動となる恐れは低減できる。つまり、ユーザが想定外となるタイミングで自動運転が中断される恐れを低減できる。その結果ユーザを困惑されてしまう恐れを低減できる。
 また、地図取得残余時間Tmgが第2時間未満となると、非常行動として車速を抑制する。このような構成によれば、次エリア地図データが必要となるまでの時間を伸ばすことができる。その結果、次エリア地図データの取得が間に合う可能性を高めることができる。また、ユーザは、車速が通常時よりも抑制されたことに基づいてシステムに何か不具合が生じていることを察することも期待できる。つまり、地図データの不備に由来して最終的に自動運転が中断されたとしても、当該自動運転の中断がユーザの想定外の挙動となる恐れは低減できる。加えて、本開示においては、非常行動として車速の抑制を実施する前に、運転席乗員への通知を実施する。このような構成によれば、運転席乗員は車速が抑制される理由を推定可能となるため、車速の抑制によってユーザを困惑させたり、不快感を与えたりする恐れを低減できる。
 さらに、上記構成によれば、地図取得残余時間Tmgが所定の閾値としての第3時間Th3未満となると、MRM、つまり停車に向けた減速を開始する。このような構成によれば地図データが存在しないまま自動運転が継続される恐れを低減できる。また、地図データを保持している範囲内でMRMが実行されることとなるため、地図データを保持していない範囲でMRMを実行する場合よりも安全にMRMを実行可能となる。
 また、上記構成によれば、地図と現実世界との間にギャップがある場合に安全距離を延長する。地図と現実世界との間にギャップがある場合とは、地図の信頼性が損なわれている状態に相当する。そのような状況においては、潜在事故責任値など各プラン候補の評価を間違える可能性が高まってしまう。故に、安全距離を一時的に標準値dminよりも長くすることにより、安全性を高めることができる。
 <制御計画部F7の作動の補足>
 以上では、地図取得残余時間Tmgに基づく非常行動として、運転席乗員への通知、車速の抑制、及びMRMの少なくとも何れか1つを実行する態様を開示したが、非常行動の内容やその組み合わせはこれに限定されない。制御計画部F7は非常行動として、地図サーバ3から提供される地図データを持たない状態で自律走行を継続する制御である無地図自律走行を採用可能に構成されていても良い。無地図自律走行は、例えば、周辺監視センサ11の検出結果を元に即席で作成した自車両周辺の地図である即席地図を用いて走行を継続する動作モードとすることができる。即席地図は、例えばカメラ画像を主体とするSLAM(Simultaneous Localization and Mapping)であるVisual SLAMによって生成されうる。即席地図はセンサフュージョンによって作成されても良い。即席地図は、簡易地図、自製地図、あるいはセンシング地図と呼ぶこともできる。また、無地図自律走行は、先行車両の軌跡を自車両の走行軌道として採用しつつ、周辺監視センサ11によって検出される割込車両や道路横断者に呼応して減速を行う動作モードであっても良い。無地図自律走行は、例えばMRMの代替案とすることができる。
 制御計画部F7は、周囲の交通状況に応じて、非常行動として無地図自律走行を採用しても良い。例えば、地図取得残余時間Tmgが第2時間Th2未満又は第3時間Th3未満となっている場合において、自車両Maの前後左右に他車両が存在する場合には、無地図自律走行を採用しても良い。自車両Maの前後左右に他車両が存在する場合には、それら周辺車両との車間距離を維持するように走行することで、安全性を担保できる見込みがあるためである。無地図自律走行を採用する条件、換言すれば状況は、車両メーカの設計思想に基づいて決定可能である。無地図自律走行は、例外的な非常行動と呼ぶことができる。
 また、非常行動としては、ハンドオーバーの要求処理を採用可能である。ハンドオーバーの要求処理は、HMIシステム15と連動して、運転席乗員又はオペレータに対して運転操作の引き継ぎ要求を実施することに相当する。ハンドオーバーの要求処理はハンドオーバーリクエストと呼ぶことができる。例えば制御計画部F7は、地図取得残余時間Tmgが第2時間未満となった場合の非常行動としてハンドオーバーリクエストを計画及び実行するように構成されていても良い。その他、制御計画部F7は、地図取得残余時間Tmgが、例えば第2時間Th2などの所定の閾値未満となったことに基づいて、非常行動として安全距離を延長するように構成されていても良い。安全距離の延長方式はステップS304と同様の方法を採用可能である。
 また、制御計画部F7は、地図取得残余時間Tmgをもとに緊急度を算出し、緊急度に応じて非常行動を実行するように構成されていても良い。緊急度は、地図取得残余時間Tmgが短いほど高く設定されるパラメータである。例えば緊急度はレベル1~3の3段階で表現可能である。レベル1は例えば地図取得残余時間Tmgが第1時間Th1未満、かつ、第2時間Th2以上である状態とする事ができる。また、レベル2は例えば地図取得残余時間Tmgが第2時間Th2未満、かつ、第3時間Th3以上である状態とする事ができる。レベル3は例えば地図取得残余時間Tmgが第3時間Th3未満である状態とする事ができる。図10は、緊急度のレベルごとの非常行動の一例をまとめたものである。例えば制御計画部F7は緊急度がレベル1の場合に、第1非常行動として運転席乗員又はオペレータへの通知を計画及び実行する。また、制御計画部F7は緊急度がレベル2の場合に、第2非常行動として速度抑制処理を計画及び実行する。さらに、制御計画部F7は緊急度がレベル3の場合に、第3非常行動としてMRMを計画及び実行する。
 なお、緊急度又は地図取得残余時間Tmgに応じて実行される非常行動の内容及び組み合わせは適宜変更可能である。例えば図11に示すように、緊急度がレベル1である場合の非常行動としては、運転席乗員又はオペレータへの通知とともに、比較的に減速量の小さい速度抑制処理を実行してもよい。また、緊急度がレベル2である場合の非常行動としては、レベル1よりも相対的に減速量の大きい速度抑制処理を実行しても良い。緊急度がレベル1時の速度抑制処理の減速量は、緊急度がレベル2時の速度抑制処理の減速量よりも小さい。例えば緊急度がレベル1時の速度抑制処理の減速量を5km/hとする場合には、緊急度がレベル2時の速度抑制処理の減速量は10km/hとすることができる。また、緊急度がレベル2である場合の非常行動としてはハンドオーバーリクエストを実行しても良い。
 なお、緊急度のレベル数や判定基準は適宜変更可能である。緊急度は5段階やそれ以上で判定されても良い。また、緊急度は、地図取得残余時間Tmgのほかに、自車両の周辺の交通状況を鑑みて決定されてもよい。例えば、渋滞状況においては、渋滞状況ではない場合よりも、緊急度は低めに設定されても良い。渋滞状況においては、周辺車両との位置関係が急激に変わるおそれは低いためである。なお、渋滞状況とは、例えば、自車両の前後左右に他車両が存在し、かつ、走行速度が60km/h以下となっている状態を指す。
 <非常行動の終了条件について>
 ここでは非常行動を終了する際の自動運転装置20の作動について図12に示すフローチャートを用いて説明する。図12に示すフローチャートは、例えば自動運転やナビゲーションなどの地図データを利用する所定のアプリケーションを実行している間、所定の周期(例えば200ミリ秒毎)に実行される。なお、本フローは、図8に示す地図未取得対応処理や、図9に示す不整合対応処理とは独立して逐次実行可能である。本実施形態では一例として非常行動終了処理はステップS401~S403を備える。各ステップは制御計画部F7によって実行されればよい。
 まずステップS401では非常行動を実施中であるか否かを判定する。非常行動を実施中ではない場合には本フローは終了する。一方、非常行動を実施中である場合には、ステップS401を肯定判定してステップS402を実行する。
 ステップS402では所定の解除条件を充足しているか否かを判定する。解除条件は現在実行中の非常行動を終了するための条件である。例えば制御計画部F7は、次エリア地図データ等の自動運転の継続に必要な部分地図データを取得できた場合、換言すれば地図取得残余時間Tmgが十分に大きい値まで回復した場合に、解除条件が充足されたと判定する。また、制御計画部F7は、運転席乗員又はオペレータによって運転操作の権限を取得する操作、すなわちオーバーライド操作が実行された場合に解除条件が充足したと判定しても良い。換言すれば自動運転モードから手動運転モード又は運転支援モードに切り替えられた場合に解除条件が充足したと判定しても良い。その他、車両が停車した場合に解除条件が充足されたと判定しても良い。
 ステップS402において解除条件が充足していると判定した場合にはステップS403を実行する。一方、解除条件が充足していないと判定した場合には本フローは終了する。その場合、地図取得残余時間Tmg又は緊急度に応じた非常行動は継続される。
 ステップS403では現在実行中の非常行動を終了して、本フローを終了する。例えば地図未取得通知処理を実行している場合には、画像表示や音声メッセージの出力を終了する。また、速度抑制処理を実行している場合には、目標速度の抑制を解除し、本来の目標速度に復帰させる。なお、非常行動を終了する際には、非常行動を終了する旨の通知をしてもよい。非常行動の終了は、終了理由とともに運転席乗員に通知されることが好ましい。例えば、自動運転に必要な地図データ、すなわち次エリア地図データを取得できたことに伴い非常行動を終了することを通知しても良い。
 以上、本開示の実施形態を説明したが、本開示は上述の実施形態に限定されるものではなく、以降で述べる種々の変形例も本開示の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施できる。例えば下記の種々の変形例は、技術的な矛盾が生じない範囲において適宜組み合わせて実施できる。なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用できる。
 <地図データの管理方法の補足>
 前述の通り、地図管理部F5としての処理部21は、通勤路や通学路など、日常的に使用する道路に関連する地図データについては可能な限り地図保持部M1にキャッシュとして残すように構成されていてもよい。日常的に使用する道路に関連する地図データとは、例えば、ダウンロード回数が一定回数以上となっているタイルIDの地図データや、自宅/勤務先/通学先から一定距離以内のエリアについての部分地図データが挙げられる。また、処理部21は、日常的に使用する道路に限定せず、ダウンロードした地図データを、地図保持部M1の容量が一杯になるか、又は、地図データごとに適宜設定される有効期限が切れるまでは保存するように構成されていてもよい。
 以降では便宜上、地図保持部M1に保存されている地図データのことを保存地図データとも称する。ここでの保存地図データとは、走行用電源がオンになった時点で既に地図保持部M1に保存されていたデータを指す。つまり、前回以前の走行時に取得した地図データを指す。保存地図データは、以前取得地図データと呼ぶ事ができる。これに対し、走行用電源がオンになってから地図サーバ3よりダウンロードした地図データは、新規取得地図データと呼ぶことができる。なお、保存地図データは、その保存形式や保存領域によってはキャッシュ地図データと呼ぶこともできる。
 処理部21は、走行用電源オフ後も地図保持部M1に地図データを残す構成においては、地図保持部M1に保存されている地図データを積極的に再利用するように構成されていても良い。例えば処理部21は、図13に示す処理手順により地図データのダウンロード要否を判定するように構成されていてもよい。なお、図13に示す処理フローは例えば使用する地図データが切り替わったことや、現エリアを退出するまでの残り時間が所定値未満となったことなどをトリガとして開始されれば良い。
 すなわち処理部21は、移動に伴って制御計画の作成に使用する部分地図が切り替わったことに基づいて、地図保持部M1を参照し、次エリア地図データが地図保持部M1に保存されているか否かを判定する(ステップS501)。例えば、地図管理部F5は、現エリア地図データに紐付けられている隣接タイルIDと、自車両の進行方向とに基づいて、次エリアのタイルIDを特定する。そして、地図保持部M1内で、次エリアのタイルIDを有する地図データを探索する。次エリアのタイルIDを有する地図データがあった場合には(ステップS501 YES)、その保存されていた部分地図データを、制御計画に使用する地図データとして採用する(ステップS502)。
 また、処理部21は、次エリアのタイルIDを有する地図データが地図保持部M1に保存されていなかった場合には(ステップS501 NO)、地図サーバ3から次エリア地図データをダウンロードするための処理を開始する(ステップS503)。地図データをダウンロードするための処理には、例えば地図サーバ3に地図要求信号を送信するステップが含まれる。地図要求信号は、地図データの配信を要求する信号であって、要求する部分地図のタイルIDを含む。すなわち、S503は、次エリアのタイルIDを含む地図要求信号を送信するとともに、地図サーバ3からの応答として配信されてきた地図データを受信する処理とすることができる。
 なお、地図要求信号は、地図サーバ3が配信すべきマップタイルを特定可能な情報を含んでいればよく、例えばタイルIDの代わりに、又はそれと合わせて、自車両の現在位置及び進行方向などを含んでいても良い。また、次エリアのタイルIDを有する地図データが保存されていない場合には、次エリアのタイルIDを有する地図データは保存されていたものの、そのデータの有効期限が切れていた場合を含めることができる。
 このような構成によれば、地図サーバ3との通信頻度及び通信量を抑制することができる。また、保存済みの地図データを再利用する場合には、地図取得残余時間Tmgが所定の閾値未満となる恐れも低下できる。よって非常行動が実施される恐れを低減できる。
 ところで、保存地図データは、最新バージョンではない可能性がある。例えば、ランドマークとして地図に登録されている商業看板の形状/色合いが現実世界の形状/色合いと相違することがありうる。地図が示す内容と現実世界とが矛盾していると、自己位置の推定精度が劣化しかねない。
 そのような事情を踏まえ、整合性判定部F51としての処理部21は、保存地図データを利用している場合には、図14に示すように保存地図データと現実世界との整合性を逐次判定してもよい(ステップS601)。処理部21は、保存地図データが現実世界と整合していると判定されている限りは(ステップS602 YES)、その保存地図データの使用を継続してもよい(ステップS603)。一方、処理部21は、保存地図データが現実世界と整合していないと判定されたことに基づいて(ステップS602 NO)、現エリアの部分地図データを地図サーバ3からダウンロードし直しても良い(ステップS604)。現エリアに対応する保存地図データは、地図データのダウンロードが完了次第、削除/上書きされうる。図14に示す一連の処理は例えば保存地図データを使用している間、例えば1秒毎など、定期的に実施されれば良い。
 なお、地図管理部F5は、保存地図データが現実世界と整合していないと判定された場合、地図サーバ3と相互通信することで、保存地図データが最新バージョンであるか否かを確認しても良い。保存地図データが最新バージョンであるか否かは、保存地図データのバージョン情報を地図サーバ3に送信するか、又は、地図サーバ3から現エリアの地図データの最新バージョン情報を取得することで確認可能である。保存地図データが最新バージョンである場合には、ダウンロードし直す意味はないため、ステップS604は省略してもよい。その場合、ロバスト性を高めるべく、前述の不整合対応処理や、走行速度を抑制するなど、制御条件を変更しても良い。
 なお、整合性判定部F51としての処理部21は、保存地図データが現実世界と整合しているか否かの2段階ではなく、整合性を例えば0%から100%までの百分率で評価してもよい。以降では整合性を示すスコア値を整合率とも称する。整合性判定部F51は、整合率が所定値以下であると判定したことに基づいて、保存地図データが現実世界と整合していないと判定しても良い。また、瞬間的なノイズの影響を抑制するために、整合性判定部F51は、整合率が所定値以下であるとの評価結果が所定時間以上継続して得られたことに基づいて保存地図データが現実世界と整合していないと判定しても良い。
 その他、地図管理部F5は、ステップS501又はステップS602を肯定判定した際、保存地図データの取得日を参照し、取得日からの経過時間が所定の閾値未満であることを条件として当該保存地図データを援用するように構成されていても良い。換言すれば、地図管理部F5は、或る保存地図データを読みだした際、取得日からの経過時間が所定の閾値以上となっている場合には、地図サーバ3から当該エリアの地図データをダウンロードし直すように構成されていてもよい。
 また、処理部21は、地図保持部M1に地図データを残す構成においても、基本的には地図サーバ3から新たに取得した地図データを用いて走行制御を行うように構成されていてもよい。処理部21は、通信の不具合等により地図サーバ3から部分地図データを取得できない場合にのみ、地図保持部M1に保存されている地図データを用いて制御計画を作成及び実行するように構成されていても良い。そのような構成は、保存地図データを消極的に再利用する構成に相当する。
 図15は上記の技術思想に対応する処理部21の作動の一例を示すフローチャートである。図15に示すフローチャートは例えば次エリア地図データを地図サーバ3から取得できていない状況において実行されれば良い。図15に示す処理フローは、例えば図8に示す処理など前述の種々の処理と並列的に、又は、組み合わせて、又は置き換えて実施可能である。例えば図15に示す処理フローは、ステップS204が否定判定された場合の処理として実行されうる。図15に示す処理はステップS701~S704を含む。
 処理部F21は、ステップS701として、地図取得残余時間Tmgが所定のキャッシュ使用閾値Thx未満であるか否かを判定する。キャッシュ使用閾値Thxは15秒や30秒など、第3時間Th3よりも長い値に設定されている。キャッシュ使用閾値Thxは、前述の第1時間Th1又は第2時間Th2と同じであってもよい。キャッシュ使用閾値Thxは上記閾値とは独立したパラメータとして用意されていても良い。
 処理部21は、地図取得残余時間Tmgが所定のキャッシュ使用閾値Thx以上である場合には(ステップS701 NO)、図15に示すフローを一旦終了する。その場合、処理部21は所定時間後、次エリア地図データが未取得であることを条件として図15に示す処理フローを再実行しうる。一方、地図取得残余時間Tmgが所定のキャッシュ使用閾値Thx未満である場合には(ステップS701 YES)、次エリアのタイルIDを有する地図データが地図保持部M1に保存されているか否かを判定する。次エリアの部分地図データが地図保持部M1に保存されている場合には(ステップS702 YES)、その保存されていた部分地図データを用いて次エリア内での制御計画を作成する(ステップS703)。一方、次エリアの部分地図データが地図保持部M1に保存されていない場合には(ステップS702 NO)、地図取得残余時間Tmgに応じた非常行動を採用する。
 地図取得残余時間Tmgがキャッシュ使用閾値Thx未満である状況が、制御計画の作成する上で次エリアの部分地図データが必要な状況に対応する。その他、地図取得残余時間Tmgが0秒となったタイミングや、現エリアを退出するタイミングなどもまた、制御計画の作成する上で次エリアの部分地図データが必要な状況に該当しうる。なお、処理部21は、ステップS703で保存地図データを使用し始めた場合であっても、定期的に地図サーバ3から次/現エリア地図データをダウンロードするための処理を実施しても良い。そして、通信状態の回復などによって地図データから次/現エリア地図データを取得できた場合には、保存地図データに替えて、地図サーバ3から取得した地図データを用いて制御を実行してもよい。
 なお、前述の通り、保存地図データを利用している場合、地図が古いことによって、自己位置推定(ローカライズ)の誤差が増大しうる。そのような懸念から、保存地図データを使用している場合と、地図サーバ3から新規ダウンロードした地図データを使用している場合とで、処理部21は、制御態様/作動を異ならせるように構成されていてもよい。
 例えば処理部21は、図16に示すように、保存地図データを使用していない場合(ステップS801 NO)には、制御計画において許容する走行速度の上限値を、走行路の種別に応じた標準上限値に設定する(ステップS802)。図16中のVmx_setは、許容する走行速度の上限値、つまり上限速度の設定値を表すパラメータである。また、Vmx_RdTypは、走行路の種別に応じた標準上限値を示すパラメータである。なお、保存地図データを使用していない場合とは、地図サーバ3から取得した部分地図データを用いて制御計画等を作成する場合に相当する。
 標準上限値は、例えば走行路の種別、例えば高速道路か一般道路かに応じた値が適用される。例えば走行路が高速道路である場合上限値は120km/hに設定される一方、走行路が一般道路である場合には上限値は例えば60km/hなどに設定される。道路種別ごとの標準上限値は、ユーザが任意の値に設定可能に構成されていても良い。なお、標準上限値は、道路ごとに設定されている制限速度が適用されても良い。制限速度は、地図データを参照することで決定されても良いし、制限速度標識を画像認識することで特定されても良い。制御計画に使用する上限速度の設定値を変えることは制御条件を変更することに相当する。さらに、標準上限値は、交通の円滑な流れを実現すべく、周辺車両の平均速度を基準として設定されても良い。周辺車両の平均速度は、周辺監視センサ11で観測される車両の速度を元に算出されても良いし、車々間通信で受信する他車両の速度情報をもとに算出しても良い。
 一方、保存地図データを使用している場合(ステップS801 YES)には、制御計画において許容する走行速度の上限値を、走行路の種別に応じた標準上限値から所定の抑制量減算した値に設定する(ステップS803)。図16中のVdpは抑制量を示すパラメータである。抑制量は、10km/hなどの一定値であっても良いし、道路種別に応じた標準上限値の10%又は20%に相当する値であってもよい。
 以上の構成によれば、保存地図データを使って走行している場合には、新規取得地図データを使って走行している場合よりも最高速度が抑制されうる。走行速度が抑制されれば、ロバスト性が向上するため、自律的な走行制御が中断されるおそれを低減できる。
 なお、整合性判定部F51が地図データと現実世界との不整合度合い、換言すれば整合率を算出する構成においては、処理部21は、整合率に応じて制御条件を変更しても良い。例えば整合率が低いほど抑制量(Vd)を大きくしても良い。具体的には整合率が95%以上である場合には抑制量(Vd)を0に設定する一方、整合率が90%以上95%未満である場合には抑制量を5km/hに設定しても良い。また、整合率が90%以下である場合には抑制量を10km/h以上に設定しても良い。例えば整合率が80%未満である場合には抑制量を15km/hに設定しても良い。
 さらに、処理部21は整合率が所定の閾値以上である場合には自動的な追い越し制御を実行可能なモードで動作する一方、整合率が閾値未満である場合には自動的な追い越しが禁止されたモードで動作するように構成されていてもよい。自動的な追い越し制御とは、追越車線への移動、加速、及び走行車線への復帰を含む一連の制御を指す。
 なお、処理部21は、整合率が所定の閾値以下となった場合には、地図データよりも周辺監視センサ11の検出結果を優先的に用いて制御計画を作成するように構成されていてもよい。また、処理部21は、整合率が所定の閾値未満である場合には、整合率が所定の閾値以上である場合よりも積極的に先行車に追従走行する計画を作成してもよい。例えば通常時では追い越し制御を行うシーンにおいても、整合率が所定の閾値未満である場合には追い越さずに先行車に追従する制御を計画及び実行しても良い。ここでの通常時とは整合率が所定の閾値以上である場合を指す。当該構成によれば、地図データの不備によって急な加減速や急操舵が行われる恐れを低減できる。
 処理部21は、図17に示すように、整合性判定部F51の判定結果を示すアイコン画像を用いてディスプレイ151に表示しても良い(ステップS902)。なお、ステップS901は整合性判定部F51が整合性を判定するステップを示している。処理部21は地図データと現実世界とが整合していると判定されている場合、地図と現実とが整合していることを示す画像を表示しても良い。処理部21は地図データと現実世界とが整合していると判定されている場合には、地図と現実とが整合していることを示す画像を表示しなくとも良い。処理部21は、地図データと現実世界との不整合を検知した場合にのみ、その検知結果、すなわち地図と現実との不整合を検知したことを示す画像を表示しても良い。
 また、処理部21は、地図データと現実世界との不整合を検知した場合には、その具体的な箇所である不整合箇所を表示しても良い。処理部21は、例えばディスプレイ151がセンターディスプレイである場合には、地図画像上に不整合箇所を示すマーカー画像を重ねた画像を表示しても良い。また、ディスプレイ151としてHUDを備える場合には、処理部21は、HUDを用いて不整合箇所を示すマーカー画像を実際の不整合箇所に重畳表示してもよい。自動運転装置20がレベル3モードである場合には、運転席乗員は前方を見ていることが期待できる。故に、HUDで不整合箇所を前景に重畳表示する構成によれば、運転席乗員は視線を前方から離すことなく不整合箇所を認識可能となる。
 さらに、処理部21は、地図データと現実世界との不整合を検知した場合には、その旨をHUDなどで運転席乗員に通知したうえで、今後の制御方針を選択するよう運転席乗員に要求する処理を実施しても良い。今後の制御方針にかかる選択肢としては、例えば、手動運転への切替、又は、車速を抑制した上での自動運転の継続などが挙げられる。手動運転への切替にはレベル2モード又はレベル1モードへの移行も含まれる。運転席乗員の指示は、例えば、スイッチ操作や、ペダル操作、ハンドル把持により取得する。なお、地図と現実との不整合への応答指示は、視線や、ジェスチャー、音声認識などに基づいて取得しても良い。視線やジェスチャーは運転席乗員を撮像するように車内に設置されたカメラの映像を解析することによって抽出されうる。
 ところで、自動運転装置20の動作モードがレベル4モードである場合、運転席乗員は前方を見ているとは限らない。また、セカンドタスクとしてスマートフォンの操作や、読書等を実施している可能性がある。そのような状況下ではHUDやセンターディスプレイに、今後の制御方針の指示入力を要求する画像を表示しても、運転席乗員は気づきにくい。レベル4モード時には、振動や音声などで運転席乗員の視線をディスプレイ151に誘導した後に、上記不整合の通知及び指示入力を要求しても良い。
 なお、乗員に提示する情報が多すぎたり、細かすぎたりすると、乗員に煩わしさを与えかねない。そのような事情から、地図データと現実世界との不整合を検知した場合に乗員に通知する内容は、具体的な内容を含まずに、地図と現実との不整合を検知したことだけであっても良い。また、ステップS902で表示する画像は、地図データと現実との整合が取れているか否かの状態表示でもよい。また、不整合の通知が頻繁に実行されると乗員にシステムへの不信感を与えてしまう恐れが生じる。そのような事情から、地図データと現実世界との不整合を検知したことの通知は、一定時間以内における通知回数が所定値以下となるように制限してもよい。また、地図と現実世界との不整合を検知したことの通知は、車速の抑制やハンドオーバーリクエストなどといった、地図の不備に対応するための処理を実行する場合のみ、その予告として実行されてもよい。車速の抑制中や、先行車追従中、又は手動運転中は、地図と現実世界との不整合を検知したことの通知は停止されても良い。
 <車車間通信の活用例>
 例えば地図取得部F4は、データの信頼性の観点から、地図サーバ3から部分地図データを取得することを原則としつつも、地図取得残余時間Tmgが所定の閾値未満となった場合には、周辺車両から部分地図データを取得するように構成されていても良い。例えばV2X車載器14と連携して、周辺車両に対して次エリア地図データを要求することにより、周辺車両から現エリア/次エリアの地図データを取得してもよい。そのように車車間通信で他車両から部分地図データを取得する制御も非常行動として採用可能である。
 当該構成によれば、広域通信網又はV2X車載器14の広域通信部に不具合が生じた場合に自動運転が中断されるおそれを低減できる。なお、当該周辺車両から取得した地図データは、地図サーバ3から地図データを取得するまでの仮の地図データとして用いてもよい。また、周辺車両から取得する地図データには、データの信頼性を担保する電子的な証明書が付加されていることが好ましい。証明書情報は、発行元情報や、信頼性を担保するコード等を含む情報とすることができる。
 上記構成に関連して、車両同士、換言すれば、各車両の自動運転装置20同士は、自身が保持する現エリア又は次エリアの地図データの鮮度情報を、車々間通信で共有するように構成されていても良い。鮮度情報は、ダウンロードした日時情報であってもよいし、バージョン情報であっても良い。そして、処理部21は、現エリア又は次エリアの地図データとして、他装置が自装置よりも新しい地図データを保有していることが検出された場合には、当該他装置から当該地図データを車車間通信により取得しても良い。ここでの他装置とは、他車両に搭載されている自動運転装置又は運転支援装置を指す。他装置は、地図データを利用する装置であればよい。通信相手としての他装置との表現は、他車両又は周辺車両と置き換えることができる。他車両は自車両前方を走行する車両に限らず、側方や後方に位置する車両などであってもよい。
 その他、処理部21は、工事/車線規制等に由来する不整合箇所が検出された場合には、不整合箇所の存在を車車間通信により後方車両に通知してもよい。また、処理部21は、先行車両が検知した不整合箇所を車車間通信により前方車両から取得してもよい。
 <即席地図の活用例>
 前述の通り、処理部21は地図データを取得できなかった場合の非常行動の1つとして、周辺監視センサ11の検出結果を元に即席地図を作成し、当該即席地図を用いて自律的な走行を継続するための制御計画を作成及び実行してもよい。また、処理部21は、即席地図を作成できている距離範囲である地図作成距離Dmpに応じて、挙動を変更するように構成されていても良い。例えば処理部21は、図18に示すように、所定の機能維持距離Dth以上前方まで即席地図を作成できている場合には(ステップT102 YES)、通常制御を維持する(ステップT103)。一方、地図作成距離Dmpが機能維持距離Dth未満である場合に(ステップT102 NO)、MRM又は走行速度を所定量抑制する処理を実行する(ステップT104)。
 なお、図18に示すステップT101は、周辺監視センサ11の検出結果を用いて即席地図をリアルタイムに作成する処理ステップを示している。ステップT101は例えば100ミリ秒又は200ミリ秒などで逐次実行されうる。地図作成距離Dmpは、周辺監視センサ11で物標を検出できている距離に対応する。地図作成距離Dmpは例えばエゴレーンの左右区画線を認識できている距離とすることができる。また、地図作成距離Dmpは左側又は右側の道路端を認識できている距離であってもよい。
 機能維持距離Dthは、例えば50mなどの一定値であってもよいし、速度に応じて定まる可変値であってもよい。例えば機能維持距離Dthは、MRMで停止するまでに移動する距離であるMRM所要距離Dmrmに、所定の裕度を加えた値とすることができる。MRM所要距離Dmrmは、MRMで使用する負の加速度(つまり減速度)と、現在の速度とから等加速度運動の方程式の援用により定まる。すなわちDmrmは、現在の速度をVo、減速度をaとすると、Dmrm=Vo^2/(2a)により決定される。なお、MRMで使用される減速度は、10秒以内に完全停止可能なように動的に決定されても良い。
 処理部21は、上記の構成は、即席地図がMRM所要距離Dmrmよりも遠方まで作成できている場合には、MRMを行わずに、走行を継続する構成に相当する。なお、処理部21は、地図作成距離Dmpが機能維持距離Dth以上であっても、即席地図を利用中は速度の上限値を抑制するように構成されていても良い。MRM所要距離Dmrmは、車速が小さいほど短くなる。そのため、即席地図を使用している間は車速を抑制する構成によれば、MRMが実行される可能性をより一層低減可能となる。なお、即席地図を使用しているシーンとは、地図サーバ3との通信により制御計画に必要な地図データを受信できないシーンに対応する。
 <撮影禁止区域への対応>
 本システムが使用される地域によっては、カメラを向けられない場所である撮影禁止エリアが存在しうる。撮影禁止エリアとしては、例えば軍事施設や、軍用住宅地、空港、港湾、王宮、政府施設などの内部及びその周辺が想定される。地図サーバ3は、地図の管理者等によって登録される撮影禁止エリアの位置情報を、各車両に配信しても良い。処理部21は、地図サーバ3から撮影禁止エリアの位置情報を取得した場合には、当該撮影禁止エリアの位置情報に基づき、ハンドオーバーリクエストを実行しても良い。
 例えば図19に示すように処理部21は、地図サーバ3からの配信情報に基づき、自車両の前方に撮影禁止エリアが存在することを検知した場合(ステップT201 YES)、撮影禁止エリアに到達するまでの残り時間Trmnを算出する(ステップT202)。そして、撮影禁止エリアに到達するまでの残り時間Trmnが所定の閾値Tho未満となった場合には(ステップT203 YES)、ハンドオーバーリクエストを開始する(ステップT204)。その後、所定時間以内に運転席乗員からの応答が得られた場合には(ステップT205 YES)、運転席乗員に運転権限を移譲するとともにその旨の通知を実施する(ステップT206)。一方、所定時間経過しても運転席乗員からの応答が得られなかった場合には(ステップT205 NO)、MRMを実行する。
 残り時間Trmnに対する閾値Dhoは、例えば20秒など、所定の標準引き継ぎ時間よりも十分に長く設定されている。標準引き継ぎ時間は、例えば路上駐車や車線規制等、動的な要因によりハンドオーバーリクエストを行う際の応答待機時間であって、例えば6秒や7秒、10秒などに設定されている。撮影禁止エリアへの接近を理由とするハンドオーバーリクエストの応答待機時間もまた15秒など、標準引き継ぎ時間よりも長く設定される。
 上記の構成によれば、動的要因によるハンドオーバーリクエスト時よりも、時間的な余裕をもって権限移譲を実施可能となる。なお、以上では撮影禁止エリアの位置情報に基づいて計画的にハンドオーバーを実行する構成について述べたが、撮影禁止エリア付近の地図データは法律又は条例に基づき作成及び配信が禁止されることも想定される。地図サーバ3は、撮影禁止エリアの情報に替えて又はそれとあわせて、法律等に基づき地図が用意されていない配信禁止エリアについての位置情報を配信してもよい。図19のフローは、撮影禁止エリアとの表現を配信禁止エリアに置き換えて実施することができる。つまり処理部21は配信禁止エリアに到達するまでの残り時間/距離に基づいて計画的にハンドオーバーリクエストを開始するように構成されていても良い。
 なお、処理部21は、撮影禁止エリアを退出する場合や、配信禁止エリアを退出する場合など、自動運転可能なエリアに移る場合には、自動運転が可能なことを示す表示を行っても良い。自動運転可能なエリアに移る場合とは、ODD内に移ることに対応する。なお、自動運転機能を利用可能となることの通知は、通知音や音声メッセージを併用して実施されても良い。また、ステアリングホイールに設けられたLED等の発光素子を点灯/点滅させたり、ステアリングホイールを振動させたりすることで、自動運転可能となったことを通知しても良い。処理部21は、撮影禁止エリアや配信禁止エリアを退出するまでの残り距離/時間、あるいは、自動運転が可能となるまでの残り距離/時間を算出し、HUD等に表示しても良い。
 <付言(その1)>
 本開示における「非常」とは、自動運転制御を継続する上で必要な地図データに不備がある状態を指す。換言すれば、自動運転制御を継続する上で必要な地図データを取得できている状態は、逆説的に通常の状態に相当する。地図取得部F4が取得した部分地図データに不備が有る状態には、例えば通信遅延等の理由により、例えば次エリア地図データなど、自動運転制御を実施する上で必要となる地図データセットの一部が取得できていない状態、換言すれば欠けている状態が含まれる。また、地図取得部F4が取得した地図データに不備がある状態には、現実世界との間にギャップがある状態も含まれる。地図取得部F4が取得した地図データに不備がある状態には、地図の更新日時が所定時間過去である状態や、最新バージョンではない状態も含まれる。上記の構成は、地図取得部F4が取得した部分地図データに、一部のデータの欠損を含む、不備が存在する場合に所定の非常行動を実行する構成に相当する。なお、ステップS201、S302が地図管理ステップに相当する。また、ステップS203、S205、S206、S208、及びS306の少なくとも何れか1つが制御計画ステップに相当する。非常行動は1つの側面において緊急行動と呼ぶこともできる。
 <付言(その2)>
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。また、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。さらに、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウェア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。つまり、自動運転装置20が提供する手段および/又は機能は、実体的なメモリ装置に記録されたソフトウェアおよびそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供できる。自動運転装置20が備える機能の一部又は全部はハードウェアとして実現されても良い。或る機能をハードウェアとして実現する態様には、1つ又は複数のICなどを用いて実現する態様が含まれる。処理部21は、CPUの代わりに、MPUやGPU、DFP(Data Flow Processor)を用いて実現されていてもよい。また、処理部21は、CPUや、MPU、GPUなど、複数種類の演算処理装置を組み合せて実現されていてもよい。さらに、ECUは、FPGA(field-programmable gate array)や、ASIC(application specific integrated circuit)を用いて実現されていても良い。各種プログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。プログラムの保存媒体としては、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USBメモリなど多様な記憶媒体を採用可能である。
 <付言(その3)>
 本開示には以下の構成も含まれる。
 [構成(1)]
 地図収録地域全体のうちの一部についての地図データである部分地図データを用いて制御計画を作成する自動運転装置であって、
 地図サーバから車両の位置に応じた部分地図データを取得する地図取得部(F4)と、
 部分地図データの取得状況を判定する地図管理部(F5)と、
 部分地図データを用いて制御計画を作成する制御計画部(F7)と、を備え、
 地図管理部は、所定時間以内に車両が進入する領域についての部分地図データである次エリア地図データを取得できているか否かを判定し、
 制御計画部は、地図管理部によって次エリア地図データを取得できていないと判定されたことに基づいて、所定の非常行動の実行を計画するように構成されている、自動運転装置。
 [構成(2)]
 上記構成(1)に記載の自動運転装置であって、
 次エリア地図データを取得できていない場合には、次エリア地図データが必要となるまでの残り時間を算出し、
 次エリア地図データが必要となるまでの残り時間が所定の閾値未満となったタイミングで、非常行動の実行を計画するように構成されている自動運転装置。
 [構成(3)]
 上記構成(1)に記載の自動運転装置であって、
 次エリア地図データが必要となるまでの残り時間は、車両の現在位置に対応する部分地図データである現エリア地図データが対応している領域から車両が退出するまでに時間である自動運転装置。
 [構成(4)]
 上記構成(1)に記載の自動運転装置であって、
 次エリア地図データが必要となるまでの残り時間は、次エリア地図データが対応している領域に車両が進入するまでの残り時間である自動運転装置。

Claims (20)

  1.  地図データを用いて車両の自律的に走行させる制御計画を作成する自動運転装置であって、
     前記地図データの取得状況を判定する地図管理部(F5)と、
     前記地図データを用いて前記制御計画を作成する制御計画部(F7)と、を備え、
     前記制御計画部は、前記地図管理部が判定した前記地図データの取得状況に応じて前記制御計画の内容を変更するように構成されている自動運転装置。
  2.  請求項1に記載の、地図収録地域全体のうちの一部についての地図データである部分地図データを用いて前記制御計画を作成する自動運転装置であって、
     地図サーバから前記車両の位置に応じた前記部分地図データを取得する地図取得部(F4)を備え、
     前記地図管理部は、所定時間以内に前記車両が進入する領域についての前記部分地図データである次エリア地図データを取得できているか否かを判定し、
     前記制御計画部は、前記地図管理部によって前記次エリア地図データを取得できていないと判定されたことに基づいて、所定の非常行動の実行を計画するように構成されている、自動運転装置。
  3.  請求項2に記載の自動運転装置であって、
     前記地図管理部は、前記次エリア地図データを取得できていない場合には、前記次エリア地図データが必要となるまでの残り時間に応じて定まる地図取得残余時間を算出し、
     前記制御計画部は、前記地図管理部が算出する前記地図取得残余時間が所定の閾値未満となったことに基づいて、前記非常行動の実行を計画するように構成されている自動運転装置。
  4.  請求項3に記載の自動運転装置であって、
     前記制御計画部は、
     前記地図取得残余時間が所定の第1時間未満となったことに基づいて、前記非常行動として、乗員又はオペレータに対して前記部分地図データの取得状況に関する所定の情報を通知する処理を実行するとともに、
     前記地図取得残余時間が前記第1時間よりも短い所定の第2時間未満となったことに基づいて、前記非常行動として、前記車両の走行速度を落とすように構成されている自動運転装置。
  5.  請求項3又は4に記載の自動運転装置であって、
     前記制御計画部は、
     前記地図取得残余時間に応じて緊急度を算出し
     前記緊急度に応じて前記非常行動の内容を変更するように構成されている自動運転装置。
  6.  請求項1から5の何れか1項に記載の、地図収録地域全体のうちの一部についての地図データである部分地図データを用いて前記制御計画を作成する自動運転装置であって、
     地図サーバから前記車両の位置に応じた前記部分地図データを取得する地図取得部(F4)を備え、
     前記地図管理部は、前記地図取得部が取得した前記部分地図データに不備があるか否かを判定し、
     前記制御計画部は、前記地図管理部によって前記部分地図データに不備があると判定されたことに基づいて、所定の非常行動の実行を計画するように構成されている、自動運転装置。
  7.  請求項6に記載の自動運転装置であって、
     前記地図管理部は、前記車両に搭載された周辺監視センサから提供されるセンシング情報に基づいて前記地図データが現実世界と整合しているか否かを判定し、
     前記地図データと現実世界が整合していない場合に前記地図データに前記地図取得部が取得した前記部分地図データに不備が有ると判定するように構成されている自動運転装置。
  8.  請求項7に記載の自動運転装置であって、
     前記制御計画部は、先行車両の車間距離が安全距離以上となるように前記制御計画を作成するものであって、
     前記制御計画部は、前記地図管理部によって前記部分地図データに不備があると判定されたことに基づき、前記非常行動として、前記安全距離の設定値を所定の標準値よりも大きい値に一時的に設定する自動運転装置。
  9.  請求項7又は8に記載の自動運転装置であって、
     前記地図管理部は、
     前記センシング情報に基づいて、前記車両の前方を走行している前方車両が車線区画線をまたぐ動作を行い、かつ、前記前方車両が走行していたレーン上に静止物が存在することが特定されている場合、又は
     前記センシング情報に基づいて、同一の車線を走行していた複数の前記前方車両が連続して前記車線区画線をまたぐ動作を実施したことが特定されている場合、又は、
     前記車両の周辺を走行している周辺車両の走行位置が、前記地図データが示す道路の範囲外となっている場合の少なくとも何れか1つの場合において、前記地図データは現実世界と整合していないと判定する自動運転装置。
  10.  請求項2から9の何れか1項に記載の自動運転装置であって、
     前記非常行動は、乗員又は前記車両の外部に存在するオペレータに前記部分地図データの取得に失敗していることを通知すること、先行車両との車間距離の延長すること、走行速度を抑制すること、乗員又は前記オペレータに運転操作の引き継ぎ要求を実行すること、緊急停車に向けた減速を開始すること、車車間通信を用いて周辺車両に対して前記部分地図データを要求すること、及び、前記地図データを用いずに自動運転を継続すること、の少なくとも何れか1つを含む自動運転装置。
  11.  請求項10に記載の自動運転装置であって、
     前記地図データの取得状況に由来する前記非常行動を実施した場合には、前記地図データの取得状況を示すデータを、前記車両の走行時の車室内及び車室外の状況を記録するための運行記録装置に出力するように構成されている自動運転装置。
  12.  地図収録地域全体のうちの一部についての地図データである部分地図データを用いて前記制御計画を作成する、請求項1から11の何れか1項に記載の自動運転装置であって、
     少なくとも1つのプロセッサ(21)を備え、
     前記プロセッサは、前記地図管理部及び前記制御計画部としての処理を実行するように構成されている自動運転装置。
  13.  請求項12に記載の自動運転装置であって、
     前記プロセッサは、
     前記車両に搭載された無線通信機を介して地図サーバから前記車両の位置に応じた前記部分地図データを取得することと、
     走行用電源がオフに設定されてもデータが保持される所定の記憶領域である地図保持部(M1)に、前記地図サーバから取得した前記部分地図データを保存することと、
     所定時間以内に前記車両が進入する領域である次エリアについての前記部分地図データが前記地図保持部に保存されているか否かを判定することと、
     前記次エリアについての前記部分地図データが前記地図保持部に保存されている場合には、前記次エリアについての前記部分地図データを前記地図サーバから新たに受信するための処理は行わずに、前記地図保持部に保存されている前記部分地図データを用いて前記制御計画を作成することと、を実行するように構成されている自動運転装置。
  14.  請求項13に記載の自動運転装置であって、
     前記プロセッサは、
     前記地図保持部に保存されている、前回以前の走行時に取得した前記部分地図データを用いて制御計画を作成している場合には、前記車両に搭載された周辺監視センサから提供されるセンシング情報に基づいて前記部分地図データが現実世界と整合しているか否かを判定することと、
     前記部分地図データが現実世界と整合していないと判定したことに基づいて、現在位置に対応する前記部分地図データを前記地図サーバからダウンロードすることと、を実行するように構成されている自動運転装置。
  15.  請求項12に記載の自動運転装置であって、
     前記プロセッサは、
     走行用電源がオンになったことに基づき、前記車両に搭載された無線通信機を介して、地図サーバから現在位置に対応する前記部分地図データと、所定時間以内に前記車両が進入する領域である次エリアについての前記部分地図データと、をダウンロードするための処理を実行することと、
     走行用電源がオフに設定されてもデータが保持される所定の記憶領域である地図保持部(M1)に、前記地図サーバから取得した前記部分地図データを保存することと、
     前記制御計画の作成する上で前記次エリアの前記部分地図データが必要な状況において、前記走行用電源がオンになってからまだ前記次エリアの前記部分地図データをダウンロードできておらず、かつ、前記地図保持部に前記次エリアの前記部分地図データが保存されている場合には、その保存されている前記部分地図データを用いて前記制御計画を作成することと、を実行するように構成されている自動運転装置。
  16.  請求項13から15の何れか1項に記載の自動運転装置であって、
     前記プロセッサは、
     前記地図保持部に保存されている前回以前の走行時に取得した前記部分地図データを用いて前記制御計画を作成する場合と、新たに前記地図サーバからダウンロードした前記部分地図データを用いて前記制御計画を行う場合とで、制御条件を変更するように構成されている自動運転装置。
  17.  請求項12から16の何れか1項に記載の自動運転装置であって、
     前記プロセッサは、
     前記車両に搭載された周辺監視センサから提供されるセンシング情報に基づいて前記制御計画に使用している前記部分地図データが現実世界と整合しているか否かを判定することと、
     前記部分地図データが現実世界と整合しているか否かの判定結果を示す画像をディスプレイに表示することと、を実行するように構成されている自動運転装置。
  18.  請求項12に記載の自動運転装置であって、
     前記プロセッサは、
     走行用電源がオンになったことに基づき、前記車両に搭載された無線通信機を介して、地図サーバから現在位置に対応する前記部分地図データをダウンロードしようとすることと、
     前記現在位置に対応する前記部分地図データをダウンロードできない場合には、前記車両に搭載された周辺監視センサから提供されるセンシング情報に基づいて車両前方の走行環境を示す地図である即席地図をリアルタイムに作成することと、
     前記即席地図を作成できている距離である地図作成距離に応じて前記制御計画の内容を変更することと、を実行するように構成されている自動運転装置。
  19.  請求項12から18の何れか1項に記載の自動運転装置であって、
     前記プロセッサは、
     前記車両に搭載された無線通信機を介して地図サーバから、カメラによる撮影が禁止されている区域である撮影禁止エリア、又は、法律又は条例に基づき地図の作成及び配信が禁止されている区域である配信禁止エリアの位置情報を取得することと、
     前記地図サーバから取得した前記撮影禁止エリア又は前記配信禁止エリアの位置情報に基づき、前記車両が前記撮影禁止エリア又は前記配信禁止エリアに接近中であるか否かを判定することと、
     前記車両が前記撮影禁止エリア又は前記配信禁止エリアに接近中であることに基づいて、運転席乗員又は前記車両の外部に存在するオペレータに運転操作の引き継ぎ要求を実行することと、を実行するように構成されている自動運転装置。
  20.  少なくとも1つのプロセッサによって実行される、地図データを用いて車両の自律的に走行させるための車両制御方法であって、
     前記地図データの取得状況を判定する地図管理ステップ(S201、S302)と、
     前記地図データを用いて前記車両の制御計画を作成する制御計画ステップ(S203、S205、S206、S208、S306)と、を備え、
     前記制御計画ステップは、前記地図管理ステップで判定された前記地図データの取得状況に応じて前記制御計画の内容を変更するように構成されている車両制御方法。
PCT/JP2021/025514 2020-07-08 2021-07-06 自動運転装置、車両制御方法 WO2022009900A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180047732.4A CN115769287A (zh) 2020-07-08 2021-07-06 自动驾驶装置、车辆控制方法
JP2022535359A JPWO2022009900A1 (ja) 2020-07-08 2021-07-06
US18/061,138 US20230115708A1 (en) 2020-07-08 2022-12-02 Automatic driving device and vehicle control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020117903 2020-07-08
JP2020-117903 2020-07-08

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/061,138 Continuation US20230115708A1 (en) 2020-07-08 2022-12-02 Automatic driving device and vehicle control method

Publications (1)

Publication Number Publication Date
WO2022009900A1 true WO2022009900A1 (ja) 2022-01-13

Family

ID=79553221

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/025514 WO2022009900A1 (ja) 2020-07-08 2021-07-06 自動運転装置、車両制御方法

Country Status (4)

Country Link
US (1) US20230115708A1 (ja)
JP (1) JPWO2022009900A1 (ja)
CN (1) CN115769287A (ja)
WO (1) WO2022009900A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210129835A1 (en) * 2015-11-23 2021-05-06 Magna Electronics Inc. Vehicle control system for emergency handling
WO2024029211A1 (ja) * 2022-08-03 2024-02-08 株式会社日立製作所 自律制御システムおよび安全監視システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7164640B2 (ja) * 2021-01-12 2022-11-01 本田技研工業株式会社 車両システム
US11912311B2 (en) * 2021-08-10 2024-02-27 GM Global Technology Operations LLC System and method of detecting and mitigating erratic on-road vehicles

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10141969A (ja) * 1996-11-11 1998-05-29 Daihatsu Motor Co Ltd ナビゲーションシステム
JP2019053394A (ja) * 2017-09-13 2019-04-04 アイシン・エィ・ダブリュ株式会社 自動運転支援装置及びコンピュータプログラム
JP2019145077A (ja) * 2017-12-15 2019-08-29 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自律走行車(adv)に対して車両とクラウド間のリアルタイム交通地図を構築するためのシステム
JP2020034544A (ja) * 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 自動運転車両の地図アップグレード方法および装置
JP2020038359A (ja) * 2018-08-31 2020-03-12 株式会社デンソー 地図システム、車両側装置、方法および記憶媒体
JP2020045039A (ja) * 2018-09-21 2020-03-26 日産自動車株式会社 車両制御方法及び車両制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10141969A (ja) * 1996-11-11 1998-05-29 Daihatsu Motor Co Ltd ナビゲーションシステム
JP2019053394A (ja) * 2017-09-13 2019-04-04 アイシン・エィ・ダブリュ株式会社 自動運転支援装置及びコンピュータプログラム
JP2019145077A (ja) * 2017-12-15 2019-08-29 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自律走行車(adv)に対して車両とクラウド間のリアルタイム交通地図を構築するためのシステム
JP2020034544A (ja) * 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 自動運転車両の地図アップグレード方法および装置
JP2020038359A (ja) * 2018-08-31 2020-03-12 株式会社デンソー 地図システム、車両側装置、方法および記憶媒体
JP2020045039A (ja) * 2018-09-21 2020-03-26 日産自動車株式会社 車両制御方法及び車両制御装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210129835A1 (en) * 2015-11-23 2021-05-06 Magna Electronics Inc. Vehicle control system for emergency handling
US11618442B2 (en) * 2015-11-23 2023-04-04 Magna Electronics Inc. Vehicle control system for emergency handling
WO2024029211A1 (ja) * 2022-08-03 2024-02-08 株式会社日立製作所 自律制御システムおよび安全監視システム

Also Published As

Publication number Publication date
CN115769287A (zh) 2023-03-07
US20230115708A1 (en) 2023-04-13
JPWO2022009900A1 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
JP7251394B2 (ja) 車両側装置、方法および記憶媒体
JP7067536B2 (ja) 車両制御装置、方法および記憶媒体
WO2020045317A1 (ja) 地図システム、方法および記憶媒体
JP7147712B2 (ja) 車両側装置、方法および記憶媒体
WO2022009900A1 (ja) 自動運転装置、車両制御方法
JP2020038361A (ja) 地図生成システム、サーバ、車両側装置、方法、および記憶媒体
WO2020045323A1 (ja) 地図生成システム、サーバ、車両側装置、方法、および記憶媒体
CN112639918A (zh) 地图系统、车辆侧装置、方法和存储介质
JP7414150B2 (ja) 地図サーバ、地図配信方法
WO2022030379A1 (ja) 信号機認識装置、信号機認識方法、車両制御装置
WO2020045318A1 (ja) 車両側装置、サーバ、方法および記憶媒体
WO2021220845A1 (ja) 車両用記録装置、情報記録方法
JP2022024741A (ja) 車両制御装置、車両制御方法
WO2020045322A1 (ja) 地図システム、車両側装置、方法および記憶媒体
WO2020045324A1 (ja) 車両側装置、方法および記憶媒体
JP7371783B2 (ja) 自車位置推定装置
WO2020045319A1 (ja) 車両制御装置、方法および記憶媒体
US20230118619A1 (en) Parking-stopping point management device, parking-stopping point management method, and vehicle device
JP7315101B2 (ja) 障害物情報管理装置、障害物情報管理方法、車両用装置
JP7289855B2 (ja) 車両制御システムおよび車両制御方法
WO2023037893A1 (ja) 車両用データ生成サーバ、車両制御装置
WO2023090203A1 (ja) 自動運行装置、車両制御方法
WO2022080214A1 (ja) 車両制御方法、地図サーバ、車両用装置、及び地図データ構造
JP7444295B2 (ja) 処理装置、処理方法、処理プログラム、処理システム
JP2020123030A (ja) 交通違反判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837062

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022535359

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21837062

Country of ref document: EP

Kind code of ref document: A1