WO2021054051A1 - 電子制御装置 - Google Patents

電子制御装置 Download PDF

Info

Publication number
WO2021054051A1
WO2021054051A1 PCT/JP2020/031732 JP2020031732W WO2021054051A1 WO 2021054051 A1 WO2021054051 A1 WO 2021054051A1 JP 2020031732 W JP2020031732 W JP 2020031732W WO 2021054051 A1 WO2021054051 A1 WO 2021054051A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
blind spot
spot area
information
control device
Prior art date
Application number
PCT/JP2020/031732
Other languages
English (en)
French (fr)
Inventor
勇樹 堀田
豊田 英弘
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to US17/633,639 priority Critical patent/US20220314968A1/en
Priority to CN202080052275.3A priority patent/CN114126940A/zh
Publication of WO2021054051A1 publication Critical patent/WO2021054051A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles

Definitions

  • the present invention relates to an electronic control device.
  • Patent Document 1 discloses a means for calculating a collision probability by setting a virtual moving body that is assumed to exist in a blind spot region.
  • the speed of the virtual moving body is estimated according to the type of the virtual moving body.
  • the behavior of potential obstacles that may exist in the blind spot area depends on the environment in which the blind spot area is located. Therefore, as in Patent Document 1, the means of setting the velocity based only on the type of the virtual moving body and calculating the collision probability can appropriately determine the behavior of a potential obstacle that may exist in the blind spot region. It could not, and therefore underestimated the risk, which could lead to dangerous driving assistance and autonomous driving.
  • the electronic control device is mounted on a vehicle, and includes a blind spot region specifying portion that specifies a blind spot region that is not included in the detection range of a sensor mounted on the vehicle, and the vehicle that includes the blind spot region.
  • a potential obstacle that may exist in the blind spot area based on the information acquisition unit that acquires the lane information of the road around the vehicle, the lane information of the blind spot area, and the positional relationship of the blind spot area on the road with respect to the vehicle. It is equipped with a blind spot area dangerous event determination unit that determines the assumed behavior of an object.
  • the behavior of potential obstacles that may exist in the blind spot region can be appropriately determined.
  • Explanatory diagram of blind spot area data group The figure which shows the correlation of the function realized by the driving control device.
  • Flowchart explaining the process executed in the blind spot area dangerous event determination unit Diagram showing an example of a hazard model decision table
  • the figure which shows the driving scene corresponding to the 1st operation example of a vehicle system The figure which shows an example of the blind spot area dangerous event data group in the driving scene of the 1st operation example.
  • the figure which shows the relationship between the running route candidate which the own vehicle can take in the running scene of the 1st operation example, and the potential risk degree The figure which shows an example of the calculation method of the travel path candidate and the target speed in the travel scene of the 1st operation example.
  • the figure which shows the 2nd driving scene corresponding to the 2nd operation example of a vehicle system The figure which shows the relationship between the latent obstacle and the estimated arrival time of the own vehicle at each position on the lane of the 2nd driving scene of the 2nd operation example.
  • FIG. 1 is a functional block diagram showing a configuration of a vehicle system 1 including a travel control device 3 according to an embodiment of the present invention.
  • the vehicle system 1 is mounted on the vehicle 2.
  • the vehicle system 1 recognizes the situation of obstacles such as a traveling road and surrounding vehicles in the vicinity of the vehicle 2, and then performs appropriate driving support and traveling control.
  • the vehicle system 1 includes a travel control device 3, an external sensor group 4, a vehicle sensor group 5, a map information management device 6, an actuator group 7, an HMI device group 8, and an external communication device 9. It is composed.
  • the travel control device 3, the external sensor group 4, the vehicle sensor group 5, the map information management device 6, the actuator group 7, the HMI device group 8, and the external communication device 9 are connected to each other by the vehicle-mounted network N.
  • the vehicle 2 may be referred to as the "own vehicle” 2 in order to distinguish it from other vehicles.
  • the travel control device 3 is an ECU (Electronic Control Unit) mounted on the vehicle 2.
  • the travel control device 3 travels for driving support or automatic driving of the vehicle 2 based on various input information provided from the external world sensor group 4, the vehicle sensor group 5, the map information management device 6, the external communication device 9, and the like. Control information is generated and output to the actuator group 7 and the HMI device group 8.
  • the travel control device 3 includes a processing unit 10, a storage unit 30, and a communication unit 40.
  • the processing unit 10 is configured to include, for example, a CPU (Central Processing Unit) which is a central processing unit. However, in addition to the CPU, it may be configured to include GPU (Graphics Processing Unit), FPGA (Field-Programmable Gate Array), ASIC (Application Specific Integrated Circuit), etc., or it may be configured by any one of them. Good.
  • CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FPGA Field-Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the processing unit 10 has functions such as an information acquisition unit 11, a blind spot area identification unit 12, a blind spot area danger event determination unit 13, a latent obstacle generation unit 14, a latent risk map generation unit 15, a travel control planning unit 16, and information. It has an output unit 17. The processing unit 10 realizes these by executing a predetermined operation program stored in the storage unit 30.
  • the information acquisition unit 11 acquires various information from another device connected to the travel control device 3 via the vehicle-mounted network N and stores it in the storage unit 30. For example, information on obstacles around the vehicle 2 detected by the external sensor group 4 and the detection area of the external sensor group 4 is acquired and stored in the storage unit 30 as the sensor recognition data group 31. Further, the information related to the behavior such as the movement and the state of the vehicle 2 detected by the vehicle sensor group 5 and the like is acquired and stored in the storage unit 30 as the vehicle information data group 32. Further, information related to the traveling environment of the vehicle 2 is acquired from the map information management device 6, the external communication device 9, and the like, and stored in the storage unit 30 as the traveling environment data group 33.
  • the blind spot area identification unit 12 Based on the sensor recognition data group 31 acquired by the information acquisition unit 11 and stored in the storage unit 30, the blind spot area identification unit 12 sets a blind spot area not included in the detection range of the external sensor group 4 in the vicinity of the vehicle 2. Identify.
  • the blind spot region itself may be represented by a grid-like map representation such as OGM (Occupancy Grid Map), or the detection range (angle, distance, etc.) of the external sensor group 4.
  • Information necessary for identifying the blind spot area may be expressed, such as a set of detection information.
  • the detection information of the external sensor group 4 is, for example, point cloud data acquired by LiDAR (Light Detection And Ringing) or RADAR (Radio Detection And Ringing).
  • the information of each blind spot area specified by the blind spot area specifying unit 12 is stored in the storage unit 30 as the blind spot area data group 34.
  • the blind spot area dangerous event determination unit 13 determines a typical dangerous event in the blind spot area specified by the blind spot area specifying unit 12 based on the driving environment data group 33 acquired by the information acquisition unit 11 and stored in the storage unit 30. judge.
  • a typical dangerous event in the blind spot area is considered to be the most dangerous for the vehicle 2 in the combination of the location and behavior that the obstacle can take, for example, assuming that an obstacle exists in the blind spot area. It is a combination to be made.
  • the behavior of the obstacle includes the behavior of the obstacle that may exist in the blind spot region, the traveling direction, the traveling parameters such as the speed, and the like.
  • the determination result of the dangerous event by the blind spot area dangerous event determination unit 13 is stored in the storage unit 30 as the blind spot area dangerous event data group 35.
  • the latent obstacle generation unit 14 creates a virtual obstacle in the blind spot region, which behaves in a manner corresponding to the dangerous event, based on the determination result of the dangerous event in each blind spot region by the blind spot region dangerous event determination unit 13. Create as a potential obstacle that can exist. This potential obstacle is hereinafter referred to as a "potential obstacle”.
  • the information on the latent obstacle generated by the latent obstacle generation unit 14 is stored in the storage unit 30 as the latent obstacle data group 36.
  • the latent risk map generation unit 15 is the vehicle 2 represented by the assumed behavior of the latent obstacle generated by the latent obstacle generation unit 14 and the vehicle information data group 32 acquired by the information acquisition unit 11 and stored in the storage unit 30. Based on the behavior of the vehicle 2, a potential risk map expressing the potential driving risk for each location around the vehicle 2 is generated. The information of the latent risk map generated by the latent risk map generation unit 15 is stored in the storage unit 30 as the latent risk map data group 37.
  • the travel control planning unit 16 plans the track on which the vehicle 2 should travel based on the potential risk map generated by the potential risk map generation unit 15, and controls the vehicle 2 so as to follow the planned track.
  • the control command value of the actuator group 7 for the purpose is determined.
  • Information on the planned trajectory determined by the travel control planning unit 16 and the control command value of the actuator group 7 is stored in the storage unit 30 as the travel control data group 38.
  • the information output unit 17 outputs various information to another device connected to the travel control device 3 via the vehicle-mounted network N.
  • the control command value included in the travel control data group 38 is output to the actuator group 7 to control the travel of the vehicle 2.
  • the planned track and the like included in the sensor recognition data group 31, the latent risk map data group 37, and the travel control data group 38 are output to the HMI device group 8 and presented to the occupants of the vehicle 2.
  • how the vehicle system 1 interprets the surrounding driving environment (display of the sensor recognition data group 31 and the potential risk map data group 37), and what kind of driving is planned. (Display of the planned track of the travel control data group 38) can be presented to the occupant.
  • the storage unit 30 includes, for example, a storage device such as an HDD (Hard Disk Drive), a flash memory, and a ROM (Read Only Memory), and a memory such as a RAM.
  • the storage unit 30 stores a program processed by the processing unit 10, a data group required for the processing, and the like. It is also used as a main memory when the processing unit 10 executes a program, for temporarily storing data necessary for program calculation.
  • the sensor recognition data group 31 As information for realizing the function of the travel control device 3, the sensor recognition data group 31, the vehicle information data group 32, the travel environment data group 33, the blind spot area data group 34, and the blind spot area dangerous event data group 35 ,
  • the latent obstacle data group 36, the latent risk map data group 37, the traveling control data group 38, and the like are stored in the storage unit 30.
  • the sensor recognition data group 31 is a set of data related to the detection information or the detection state by the external sensor group 4.
  • the detection information includes, for example, information on obstacles around the vehicle 2 identified by the external sensor group 4 based on the sensing information, information on environmental elements such as road markings, signs, and signals, and sensing around the vehicle 2 by the external sensor group 4.
  • the information itself point group information of LiDAR or RADAR, camera image, disparity image of stereo camera, etc.
  • the detection state is information indicating the region detected by the sensor and its accuracy, and includes, for example, a grid-like map such as OGM.
  • the vehicle information data group 32 is a set of data related to the behavior of the vehicle 2 detected by the vehicle sensor group 5 and the like.
  • the data related to the behavior of the vehicle 2 is information representing the movement and state of the vehicle 2, for example, information such as the position of the vehicle 2, the traveling speed, the steering angle, the accelerator operation amount, the brake operation amount, and the travel path. Is included.
  • the driving environment data group 33 is a set of data related to the driving environment of the vehicle 2.
  • the data on the traveling environment is information on the roads around the vehicle 2 including the road on which the vehicle 2 is traveling. This includes, for example, information on the shape and attributes (traveling direction, speed limit, driving regulation, etc.) of the lanes constituting the road around the vehicle 2, signal information, and traffic related to the traffic condition (average speed, etc.) of each road or lane. Information, statistical knowledge information based on past cases, etc. are included. Static information such as the shape and attributes of roads and lanes is included in the map information acquired from, for example, the map information management device 6. On the other hand, quasi-dynamic or dynamic information such as signal information, traffic information, and statistical knowledge information is acquired via the external communication device 9.
  • Statistical knowledge information includes, for example, information on geographical locations and time zones where there are many accident cases, and information on the accident type.
  • the blind spot area data group 34 is a set of data relating to a blind spot area which means a region not included in the detection range of the external world sensor group 4 of the vehicle 2, that is, a region in which the external world sensor group 4 cannot detect sensing information. An example of expressing data relating to the blind spot region will be described later in FIG.
  • the blind spot area data group 34 is generated and stored by the blind spot area specifying unit 12 based on the information of the sensor recognition data group 31 acquired by the information acquisition unit 11.
  • the blind spot area dangerous event data group 35 is a set of data related to typical dangerous events in each blind spot area determined by the blind spot area dangerous event determination unit 13.
  • the data regarding the dangerous event in the blind spot region is information regarding the danger that the obstacle will come into contact with the vehicle 2 when an obstacle that cannot be recognized by the external sensor group 4 exists in the blind spot region. This includes, for example, the type and position of obstacles (vehicles, pedestrians, bicycles, etc.) that can exist in the blind spot area, and the actions that the obstacles can take (for example, lane tracking, lane in the case of a vehicle). Changes, stops, etc.), parameters of the action (direction of travel, speed, acceleration, etc.), etc. are included.
  • the blind spot area dangerous event data group 35 is based on the information of the blind spot area data group 34 generated by the blind spot area identification unit 12 and the driving environment data group 33 acquired by the information acquisition unit 11, and the blind spot area dangerous event determination unit 13 Generated and stored by.
  • the latent obstacle data group 36 is a virtual obstacle that cannot be recognized by the external sensor group 4 (for example, exists in the blind spot region of the external sensor group 4 and is not detected), but is considered to be potentially present.
  • the latent obstacle data group 36 is generated and stored by the latent obstacle generation unit 14 based on the information of the blind spot area dangerous event data group 35 generated by the blind spot area dangerous event determination unit 13.
  • the latent risk map data group 37 is data related to a latent risk map showing the risk of the vehicle 2 colliding with a latent obstacle lurking in the blind spot area in the vicinity of the vehicle 2 for each location.
  • the latent risk map is generated by the latent risk map generation unit 15, and is represented by, for example, a grid map as described later.
  • the travel control data group 38 is a data group related to planning information for controlling the travel of the vehicle 2, and includes a planned trajectory of the vehicle 2, a control command value output to the actuator group 7, and the like. These information in the travel control data group 38 are generated and stored by the travel control planning unit 16.
  • the communication unit 40 has a communication function with other devices connected via the vehicle-mounted network N.
  • this communication unit Forty communication functions are used.
  • the communication unit 40 includes, for example, a network card conforming to a communication standard such as IEEE802.3 or CAN (Controller Area Network).
  • the communication unit 40 transmits / receives data between the travel control device 3 and other devices in the vehicle system 1 based on various protocols.
  • the communication unit 40 and the processing unit 10 are described separately in the present embodiment, a part of the processing of the communication unit 40 may be executed in the processing unit 10.
  • a hardware device equivalent in communication processing may be located in the communication unit 40, and other device driver groups, communication protocol processing, and the like may be located in the processing unit 10.
  • the external sensor group 4 is an aggregate of devices that detect the state around the vehicle 2.
  • the external sensor group 4 corresponds to, for example, a camera device, a millimeter wave radar, a LiDAR, a sonar, or the like.
  • the external sensor group 4 detects environmental elements such as obstacles, road markings, signs, and signals in a predetermined range from the vehicle 2, and outputs these detection results to the travel control device 3 via the vehicle-mounted network N.
  • the "obstacle” is, for example, a vehicle other than the vehicle 2, a pedestrian, a falling object on a road, a roadside, or the like.
  • "Road markings" are, for example, white lines, pedestrian crossings, stop lines, and the like.
  • the external sensor group 4 also outputs information on the detection state to the travel control device 3 via the vehicle-mounted network N based on its own sensing range and its state.
  • the vehicle sensor group 5 is an aggregate of devices that detect various states of the vehicle 2. Each vehicle sensor detects, for example, the position information of the vehicle 2, the traveling speed, the steering angle, the operating amount of the accelerator, the operating amount of the brake, and the like, and outputs the information to the traveling control device 3 via the vehicle-mounted network N.
  • the map information management device 6 is a device that manages and provides digital map information around the vehicle 2.
  • the map information management device 6 is composed of, for example, a navigation device or the like.
  • the map information management device 6 includes, for example, digital road map data of a predetermined area including the periphery of the vehicle 2, and the vehicle 2 on the map is based on the position information of the vehicle 2 output from the vehicle sensor group 5.
  • the current position of the vehicle 2, that is, the road or lane in which the vehicle 2 is traveling is specified. Further, the map data of the specified current position of the vehicle 2 and its surroundings is output to the traveling control device 3 via the vehicle-mounted network N.
  • the actuator group 7 is a group of devices that control control elements such as steering, brakes, and accelerators that determine the movement of the vehicle 2.
  • the actuator group 7 controls the movement of control elements such as steering, brake, and accelerator based on the operation information of the steering wheel, brake pedal, accelerator pedal, etc. by the driver and the control command value output from the driving control device 3. By doing so, the behavior of the vehicle 2 is controlled.
  • the HMI device group 8 is a group of devices for inputting information to the vehicle system 1 from the driver and the occupants and notifying the driver and the occupants of the information from the vehicle system 1.
  • the HMI device group 8 includes a display, a speaker, a vibrator, a switch, and the like.
  • the external communication device 9 is a communication module that wirelessly communicates with the outside of the vehicle system 1.
  • the external communication device 9 is configured to be able to communicate with, for example, a center system (not shown) that provides and distributes services to the vehicle system 1 and the Internet.
  • FIG. 2 is an explanatory diagram of the blind spot area data group 34.
  • FIG. 2A is a diagram showing an example of a situation in which the vehicle 2 is placed
  • FIG. 2B is a diagram showing an example of a blind spot area map corresponding to FIG. 2A.
  • the external sensor group 4 of the vehicle 2 is composed of five sensors. Each of these sensors can detect an obstacle existing in the detection range of reference numerals 111 to 115 at the maximum. However, if there is an obstacle, the area farther than the obstacle is blocked by the obstacle, so it is not possible to detect whether or not there is an obstacle even within the detection range.
  • the white area indicates the range in which the outside world sensor group 4 detects that no obstacle exists
  • the hatched area indicates the range in which the outside world sensor group 4 cannot detect the obstacle, that is, the outside world.
  • the range of the blind spot of the sensor group 4 is shown.
  • the blind spot region of the external sensor group 4 is shielded by the regions shown by reference numerals 121, 122, and 124, which are outside the detection range of the external sensor group 4, and the other vehicle 100, which is an obstacle. It is an area including the area 123 to be formed.
  • the blind spot region outside the detection range of the external sensor group 4 is a blind spot region generated due to a long distance from the external sensor group 4 such as the region 124, and the external sensor group such as the region 121 and the region 122. It is roughly divided into two, a blind spot area that occurs in a direction in which 4 cannot be detected.
  • the blind spot region generated due to the distance is often not constant because the detection range of the external sensor group 4 changes according to the traveling environment such as the weather condition. Therefore, it is desirable to dynamically calculate the detection range of the external sensor group 4 according to the traveling environment of the vehicle 2 and set the blind spot region according to the calculation result.
  • the blind spot area specifying unit 12 creates, for example, the blind spot area map 130 shown in FIG. 2B by specifying the positions and shapes of the blind spot areas 121 to 124 with respect to the vehicle 2.
  • the blind spot area data group 34 representing this is stored in the storage unit 30.
  • the detection state of the external sensor group 4 at each position represented by) is expressed as a grid map.
  • the blind spot area map 130 corresponds to the grid map (OGM) of the blind spot areas 121 to 124 in FIG. 2A.
  • the detection state of the external world sensor group 4 at each position is represented by, for example, three values of "with obstacle (detected)", “without obstacle (detected)", and "unknown (not detected)”. Will be done.
  • the black area set around the vehicle 100 represents "obstacles (detected)” and corresponds to the blind spot areas 121 to 124 in FIG. 2 (a).
  • the hatched area represents "unknown (undetected)”.
  • the other white region that is, the region excluding the periphery of the vehicle 100 and the blind spot region 123 from the detection ranges 111 to 115 in FIG. 2 (a) represents "no obstacle (detected)".
  • FIG. 2B shows an example of the blind spot area map 130 in which the detection state of the external sensor group 4 is represented by three values, the probability that an obstacle exists instead of the discrete value of the detection state of the sensor is shown.
  • the blind spot area map may be expressed by expressing it as a continuous value (a decimal number of 0 to 1).
  • the blind spot area data group 34 may express the position and shape of the blind spot area in cell units of the grid map as shown in FIG. 2B, or may be expressed by an aggregate of a plurality of cells. Good.
  • the blind spot region data group 34 may represent the position and shape of the blind spot region other than the grid map. For example, the positions and shapes of the blind spot areas 122 to 124 in FIG.
  • each blind spot area of the blind spot area data group 34 is expressed by the position and shape on the blind spot area map instead of the cell unit of the grid map.
  • the travel control device 3 determines the risk of a latent obstacle in each blind spot region existing around the vehicle 2 based on the information acquired from the external sensor group 4 and the like, and maps the determination result into a latent risk map. To generate. Then, the planned trajectory of the vehicle 2 is set using the generated latent risk map, a control command value for performing running control of the vehicle 2 is generated, and the control command value is output to the actuator group 7. The actuator group 7 controls each actuator of the vehicle 2 according to a control command value output by the travel control device 3. As a result, the traveling control of the vehicle 2 is realized.
  • the travel control device 3 generates HMI information as information to be notified to the driver and the occupants in the travel control of the vehicle 2, and outputs the HMI information to the HMI device group 8.
  • FIG. 3 is a diagram showing the correlation of the functions realized by the travel control device 3.
  • the travel control device 3 includes, for example, the information acquisition unit 11, the blind spot area identification unit 12, the blind spot area danger event determination unit 13, the potential obstacle generation unit 14, the potential risk map generation unit 15, and the travel control plan shown in FIG.
  • the processes of the unit 16 and the information output unit 17 are configured to be executed in the order shown in FIG. The series of processes is executed periodically, for example, every 100 ms.
  • the information acquisition unit 11 acquires necessary information from another device via the vehicle-mounted network N and stores it in the storage unit 30.
  • the information of the sensor recognition data group 31 is from the outside world sensor group 4
  • the information of the vehicle information data group 32 is from the vehicle sensor group 5
  • the driving environment data is from the map information management device 6 and the external communication device 9.
  • the information of each group 33 is acquired, stored in the storage unit 30, and passed to the subsequent processing unit.
  • the blind spot area identification unit 12 performs a process of generating a blind spot area data group 34 based on the sensor recognition data group 31 acquired by the information acquisition unit 11, stores the blind spot area data group 34 in the storage unit 30, and stores the blind spot area dangerous event determination unit 13 and the latent area. It is handed over to the risk map generation unit 15. At this time, if the sensor recognition data group 31 includes information corresponding to the blind spot area data group 34 (for example, OGM), the blind spot area data is obtained by applying necessary corrections (coordinate transformation, time correction, etc.) to the information. Group 34 can be generated.
  • the sensor recognition data group 31 includes only the information of the state detected by the external sensor group 4 in each predetermined processing cycle, for example, the detection range (angle, distance, etc.) and the detection information, it is generated in the previous processing cycle. It is desirable to generate the current blind spot area data group 34 by estimating the most probable detection state probabilistically in combination with the blind spot area data group 34 and determining the blind spot area from the estimation result.
  • the blind spot area dangerous event determination unit 13 determines a dangerous event in the blind spot area based on the blind spot area data group 34 generated by the blind spot area identification unit 12 and the driving environment data group 33 acquired by the information acquisition unit 11. Do. Details of this process will be described later with reference to FIGS. 4 and 5. Then, the blind spot area dangerous event data group 35 is generated from the processing result, stored in the storage unit 30, and delivered to the latent obstacle generation unit 14.
  • the latent obstacle generation unit 14 Based on the blind spot area dangerous event data group 35 generated by the blind spot area dangerous event determination unit 13, the latent obstacle generation unit 14 creates a latent obstacle, which is a virtual obstacle corresponding to the dangerous event, for each blind spot area. And perform the process of generating the latent obstacle data group 36 which is the information of the latent obstacle. Then, the generated latent obstacle data group 36 is stored in the storage unit 30 and passed to the latent risk map generation unit 15.
  • the latent risk map generation unit 15 has a blind spot area data group 34 generated by the blind spot area identification unit 12, a latent obstacle data group 36 generated by the latent obstacle generation unit 14, and vehicle information acquired by the information acquisition unit 11. Based on the data group 32, the potential risk posed by the latent obstacle in each blind spot area is calculated. Then, a latent risk map corresponding to the latent risk is set for the surroundings of the vehicle 2, and a process of generating the latent risk map data group 37 which is the information of the latent risk map is performed. Details of this process will be described later with reference to FIGS. 9 and 10.
  • the latent risk map generation unit 15 stores the generated latent risk map data group 37 in the storage unit 30 and passes it to the travel control planning unit 16 and the information output unit 17.
  • the travel control planning unit 16 includes a potential risk map data group 37 generated by the latent risk map generation unit 15, a sensor recognition data group 31 acquired by the information acquisition unit 11, a vehicle information data group 32, and a driving environment data group 33. Based on the above, the travel control trajectory of the vehicle 2 is planned, and the control command value or the like for following the trajectory is generated. Then, the process of generating the travel control data group 38 is performed from the planned track and the control command value of the generated vehicle 2. The travel control planning unit 16 stores the generated travel control data group 38 in the storage unit 30 and delivers it to the information output unit 17.
  • the information output unit 17 outputs a control command value to the actuator group 7 based on the travel control data group 38 generated by the travel control planning unit 16. Further, based on the sensor recognition data group 31 acquired by the information acquisition unit 11, the latent risk map data group 37 generated by the latent risk map generation unit 15, the travel control data group 38 generated by the travel control planning unit 16, and the like. , Information for presenting the traveling environment and the planned track around the vehicle 2 to the occupants is output to the HMI device group 8.
  • FIG. 4 is a flowchart illustrating a process executed by the blind spot area dangerous event determination unit 13 of FIGS. 1 and 3.
  • the blind spot area dangerous event determination unit 13 acquires the blind spot area data group 34 specified by the blind spot area specifying unit 12 and the driving environment data group 33 acquired by the information acquisition unit 11 from the storage unit 30.
  • the blind spot region specifying unit 12 are n blind area A 1 ⁇ A n are identified, as these blind spot region A 1 ⁇ A n is represented by blind area data group 34, the flow chart of FIG. 4 To explain.
  • the driving environment context is information about the driving environment in the blind spot area.
  • the shape and attributes of the lane in the blind spot area travel direction, speed limit, driving regulation, lane changeability, etc.
  • pedestrian crossing area signal information and traffic conditions (average speed, etc.) related to the lane and pedestrian crossing area, It includes the state of obstacles around the blind spot area, statistical knowledge information about the blind spot area, and the like.
  • step S303 the blind area dangerous event determining unit 13, for each range element of each blind spot area A 1 ⁇ A n, based on the running environment context specified in step S302, the hazardous event model r 1 ⁇ determine the r n.
  • the blind area dangerous event determining unit 13 determines based on the running environment context, the likelihood of each hazardous event model r 1 ⁇ r n determined in step S303.
  • the dangerous event model shows the types of obstacles and behavior patterns that are considered dangerous if they exist in the corresponding blind spot area.
  • steps S303 and S304 Specific examples of the processing of steps S303 and S304 will be described below.
  • a dangerous event model in which a bicycle crosses the pedestrian crossing in the blind spot area is assumed.
  • a pedestrian may be assumed as a dangerous event model, but it is preferable that the jumping speed from the blind spot area is the strictest because it is possible to respond to other dangerous events by assuming the most dangerous event.
  • a bicycle The likelihood of occurrence of this dangerous event model is determined, for example, according to the state of the pedestrian signal associated with the pedestrian crossing. Immediately after the pedestrian signal turns blue or red, it is highly likely that a pedestrian or bicycle will cross, whereas if it is red for a certain period of time, it is unlikely. Such a judgment is particularly useful when the vehicle 2 turns left or right at an intersection.
  • a dangerous event model in which a pedestrian jumps out onto the roadway is assumed.
  • the possibility of occurrence of the dangerous event model is determined by, for example, whether or not there are parked vehicles (particularly vehicles such as buses and taxis) around the blind spot area. If there is a parked vehicle, it can be determined that there is a high possibility that a person getting off the vehicle or trying to get on the vehicle will forcibly cross the road.
  • knowledge information that accidents occur frequently in school zones and statistically can also be used as a material for judging that this dangerous event model is likely to occur.
  • the potential obstacle is a vehicle
  • the range of change in behavior according to the driving environment is large compared to the case of pedestrians, bicycles, etc. Therefore, when the behavior is treated in common, the influence is particularly large in the case of a vehicle, and there is a high risk of leading to an erroneous judgment. Details of the process for identifying the dangerous event model related to the vehicle will be described later with reference to FIG.
  • step S305 the blind area dangerous event determining unit 13 generates a hazardous event information R 1 ⁇ R n corresponding respectively to the hazardous event model r 1 ⁇ r n determined in step S303.
  • step S305 the possibility of occurrence for each danger event model determined in step S304 is possible. It is desirable to selectively generate hazard information in consideration of. For example, only the dangerous event model determined to have a high possibility of occurring in step S304 is set as the target for generating the dangerous event information in step S305. In that case, in the above-mentioned example of the dangerous event model based on the pedestrian crossing area, the corresponding dangerous event information is generated immediately after the pedestrian signal changes to blue or red.
  • step S304 by adding the information on the possibility of occurrence determined in step S304 to the danger event information and setting the risk level to be higher as the possibility of occurrence is higher when determining the risk level of the latent obstacle in the subsequent stage.
  • the likelihood of each hazard model may be considered.
  • step S306 the blind spot area dangerous event determination unit 13 stores the dangerous event information R 1 to R n generated in step S305 in the blind spot area dangerous event data group 35 of the storage unit 30. After that, the process of the blind spot area dangerous event determination unit 13 is terminated.
  • FIG. 5 is an example of a danger event model determination table for specifying a danger event model related to a vehicle in step S303 of FIG.
  • the relationship between the position of the lane in the blind spot region and the traveling direction with respect to the own vehicle 2 is classified in the horizontal direction, and the positional relationship (front-back relationship on the road) of the blind spot region with respect to the own vehicle 2 on the road is in the vertical direction. It is classified into.
  • a dangerous event model of each latent obstacle when the latent obstacle in each blind spot region around the own vehicle 2 is a vehicle is set in the dangerous event model determination table of FIG. ..
  • the dangerous event model is "N / A”. This means that the danger event model is not set in the blind spot area located on the side or the rear of the own vehicle 2 on the road.
  • the "maximum vehicle speed lane driving” means a model of a vehicle traveling at the maximum speed that can be assumed in that lane.
  • the maximum speed that can be assumed for each lane can be determined, for example, based on the traffic information included in the driving environment data group 33, in consideration of the legal speed of the road to which the lane belongs and the traffic condition (traffic condition) of the lane. it can.
  • front, “side”, and “rear” indicate the positional relationship between the own vehicle 2 along the road and the blind spot area, and do not necessarily indicate the positional relationship in space.
  • the blind spot area at the destination on the road may be located on the side of the own vehicle 2 in space, but even in such a case, the blind spot area in FIG. 5 is shown.
  • the positional relationship of is treated as “forward”.
  • the blind spot area of the connected road at the front intersection is also treated as "forward” regardless of the spatial positional relationship with the own vehicle 2.
  • the traveling direction of the lane in the blind spot region with respect to the own vehicle 2 is defined as the lane in the traveling direction away from the intersection as the "same direction” and the lane in the traveling direction toward the intersection as the "opposite direction”. deal with.
  • the most dangerous traveling speed changes according to the positional relationship on the road with respect to the own vehicle 2.
  • the traveling speed of the latent obstacle is 0, that is, the stopped vehicle is the most dangerous event. ..
  • the most dangerous event is when the traveling speed of the latent obstacle is high, that is, the vehicle approaching the high speed with respect to the own vehicle 2.
  • the front-rear relationship on the road is "side”
  • the most dangerous event is when the traveling speed of the latent obstacle is the same, that is, the vehicle staying on the side of the own vehicle 2 for a long time.
  • step S304 of FIG. 4 it is determined that the region where it can be determined that the lane cannot be changed by the driving environment data group 33 is low in the occurrence of the dangerous event model in which the vehicle changes lane in the region, and in the following step S305. It is desirable to suppress the generation of dangerous event information or to evaluate the degree of risk low.
  • the danger event models of other vehicles existing as potential obstacles in the blind spot region on the lane in the same direction as the own vehicle 2 are shown in rows 401 to 403. It is set as. Since the danger event model decision table of FIG. 5 is for determining the danger of another vehicle with respect to the own vehicle 2, the lane change in the same lane as the own vehicle 2 or the direction toward the adjacent lane is taken into consideration. Therefore, lane changes in other directions are excluded.
  • the table in FIG. 5 excludes a dangerous event model that cannot occur in relation to the existence of the own vehicle 2. Specifically, when the position of the lane is "the same lane” and the front-rear relationship on the road is "side”, the existence area of the own vehicle 2 and the other vehicle overlap, so the danger event model is set. It has not been. Further, when the position of the lane is "the same lane” and the front-rear relationship on the road is “rear”, if the other vehicle continues to drive in the same lane, the own vehicle 2 interferes with the traveling of the other vehicle. Therefore, a dangerous event model corresponding to the same lane tracking has not been set.
  • the blind spot area danger event determination unit 13 has each blind spot based on the lane information of each blind spot area specified by the blind spot area specifying unit 12 and the positional relationship of each blind spot area with respect to the own vehicle 2 on the road.
  • the assumed behavior of a potential obstacle that may exist in the area is determined, the dangerous event model according to the determination result is specified, and the dangerous event information is stored in the blind spot area dangerous event data group 35.
  • the context of the driving environment in each blind spot area can be determined, and the behavior of the moving body lurking in the blind spot area can be appropriately estimated based on the context. Therefore, the potential risk posed by the blind spot area can be appropriately estimated in the subsequent processing. It becomes possible to evaluate.
  • FIG. 6 shows a traveling scene corresponding to the first operation example of the vehicle system 1.
  • the own vehicle 2 is traveling in the lane 581 on a road having two lanes (lanes 580, 581) in the same direction as the traveling direction of the own vehicle 2 and one lane (lane 582) in the opposite direction.
  • the external sensor group 4 acquires the sensor recognition data group 31 for the detection ranges 510, 511, and 512 similar to those in FIG. 2A, and is included in these detection ranges 510 to 512.
  • the non-hatched area 500 is specified as a blind spot area by the blind spot area specifying unit 12.
  • the shapes and attributes of the lanes 580 to 582 can be specified from the traveling environment data group 33.
  • the blind spot area dangerous event determination unit 13 performs the processing according to the flowchart shown in FIG. 4 described above.
  • the dangerous event model in the first operation example will be described as being determined in the process of FIG. 4 based on the dangerous event model determination table of FIG.
  • step S301 of FIG. 4 the blind spot area dangerous event determination unit 13 first acquires the blind spot area data group 34 and the driving environment data group 33 corresponding to the driving scene as shown in FIG.
  • step S302 of FIG. 4 a process of specifying the driving environment context of the blind spot region for determining the dangerous event model is performed.
  • the positional relationship between the lanes corresponds to the traveling environment context of the blind spot region. Therefore, in step S302, the lane information around the own vehicle 2 is referred to from the traveling environment data group 33, and the region where the blind spot region 500 intersects with each lane region is extracted as the blind spot regions 501 to 508.
  • the information on the positional relationship of the corresponding lane is associated with each of the extracted blind spot areas 501 to 508.
  • the shape of the lane center line included in the lane information is scanned on the blind spot region data group 34 to search for the boundary between the blind spot region 501 to 508 and the non-blind spot region detection range 510 to 512.
  • the stars 551 to 558 in FIG. 6 indicate the boundary points between the blind spot regions 501 to 508 and the non-blind spot regions on the center line of each lane.
  • the blind spot area dangerous event determination unit 13 determines the dangerous event model of each blind spot area.
  • the hazard models corresponding to the driving environment contexts of the blind spot regions 501 to 508 are determined as follows.
  • the traveling direction of the lane with respect to the own vehicle 2 is "the same direction", and the front-rear relationship on the road is "forward". Therefore, from the table of FIG. 5, it is determined that the model corresponds to the dangerous event model of "stop" and "change of low vehicle speed lane".
  • the traveling direction and the positional relationship of the lane with respect to the own vehicle 2 are "same direction” and "adjacent lane", respectively, and the front-rear relationship on the road is "side”.
  • the blind spot region 502 does not correspond to the "rear” criterion. Therefore, from the table of FIG. 5, it is determined that the model corresponds to the dangerous event model of "traveling in the same speed lane".
  • the traveling direction and the positional relationship of the lane with respect to the own vehicle 2 are "same direction” and "adjacent lane", respectively, and the front-rear relationship on the road is “rear”. Therefore, from the table of FIG. 5, it is determined that the model corresponds to the dangerous event model of "maximum vehicle speed lane travel”. Further, in the blind spot area 505, the traveling direction and the positional relationship of the lane with respect to the own vehicle 2 are "the same direction” and “the same lane”, respectively, and the front-rear relationship on the road is “rear”. Therefore, from the table of FIG. 5, it is determined that the model corresponds to the dangerous event model of "maximum vehicle speed lane change".
  • the traveling direction of the lane with respect to the own vehicle 2 is "opposite direction", and the front-rear relationship on the road is "forward”. Therefore, from the table of FIG. 5, it is determined that the model corresponds to the dangerous event model of "maximum vehicle speed lane travel".
  • the traveling direction of the lane with respect to the own vehicle 2 is "opposite direction”, and the front-rear relationship on the road is "side” and “rear”, respectively. Therefore, it is determined from the table of FIG. 5 that the corresponding dangerous event model does not exist.
  • the blind spot area dangerous event determination unit 13 determines the possibility of occurrence of each dangerous event model.
  • the attributes of each lane are specified with reference to the driving environment data group 33, and the possibility of occurrence of each dangerous event model is determined as follows.
  • the boundary line between the lane 580 and the lane 581 is represented by a solid line from the rear to the side of the own vehicle 2 and a broken line from the side to the front of the own vehicle 2, respectively.
  • the solid line indicates that the lane cannot be changed, and the broken line indicates that the lane can be changed. Therefore, it can be determined that changing lanes from the blind spot area 505 on the lane 581 to the lane 580 is not permitted by law. Therefore, it can be determined that the “maximum vehicle speed lane change” determined as the dangerous event model of the blind spot region 505 in step S303 is unlikely to occur.
  • the "low vehicle speed lane change" dangerous event model of the blind spot area 501 and the blind spot area 504 overlaps with the "stop” dangerous event model of the blind spot area 504 and the blind spot area 501, respectively, and is "stopped".
  • the risk of the person is high. Therefore, it may be judged that these risk event models are unlikely to occur so as to be excluded from the subsequent processing targets.
  • step S305 of FIG. 4 the blind spot area dangerous event determination unit 13 generates dangerous event information corresponding to each dangerous event model.
  • step S306 the data is recorded in the blind spot area dangerous event data group 35 of the storage unit 30.
  • the combination of the dangerous event model in which the dangerous event information is generated in step S305 and the blind spot area is , ("Stop", blind spot area 501), ("Same speed lane driving", blind spot area 502), ("Maximum vehicle speed lane driving", blind spot area 503), (“Stop", blind spot area 504), (" There are five sets of "maximum vehicle speed lane driving” and blind spot area 506).
  • dangerous event information relating to the combination of these is generated for the driving scene of FIG. 6 and recorded in the blind spot area dangerous event data group 35.
  • FIG. 7 shows an example of the blind spot area dangerous event data group 35 generated and recorded in the driving scene of the first operation example.
  • the blind spot area dangerous event data group 35 of FIG. 7 includes, for example, a blind spot area ID 801 which is an identifier of the blind spot area, an obstacle type 802, a dangerous event model 803, a parameter 804 at the maximum speed, and a parameter at the minimum speed. 805 and is included.
  • the parameter 804 at the maximum speed and the parameter 805 at the minimum speed are each composed of information on the position, speed, and traveling direction.
  • the dangerous event model 803 is a representative representation of the location and behavior of the most dangerous potential obstacle for the own vehicle 2, but in reality, the location and behavior of the obstacle can take various ranges.
  • the parameters 804 at the maximum speed and the parameters 805 at the minimum speed are used when it is necessary to explicitly indicate these ranges.
  • the latent obstacle in the blind spot region 502 can be between coordinates 5521 and coordinates 5522-2. At this time, the latent obstacle in the blind spot region 502 can reach the farthest as the traveling position after a predetermined time when traveling at the maximum speed that can be obtained from the frontmost coordinate 5521. This will be called the upper limit. On the other hand, the closest traveling position after the same predetermined time is when traveling at the lowest possible speed from the rearmost coordinate 552-2. This will be called the lower limit.
  • the range sandwiched between the upper and lower limit traveling positions is the possible range of potential obstacles in the blind spot area 502. Note that FIG.
  • the boundary information on one side is set as the parameter 804 at the maximum speed, and nothing is set at the parameter 805 at the minimum speed.
  • the coordinates of the boundary point of each blind spot region (stars 551, 555, 554, 556 in FIG. 6) are set at the position of the parameter 804 at the maximum speed, and the speed depends on the dangerous event model. Set each value.
  • 0 km / h is set in the blind spot areas 501 and 504 where the dangerous event model is "stop", and the legal speed of the corresponding lane is set in the blind spot areas 503 and 506 where the dangerous event model is "maximum vehicle speed lane driving".
  • the legal speed in the blind spot regions 503 and 506 can be determined based on the traveling environment data group 33.
  • the traffic conditions of the blind spot areas 503 and 506 may be determined based on the traffic information included in the traveling environment data group 33, and the maximum speed may be set according to the determination result.
  • the traveling direction of the corresponding lane is set for the traveling direction of each blind spot area.
  • the blind spot regions 501, 502, and 503 are designated with the traveling direction of the lane 580
  • the blind spot region 504 is designated with the traveling direction of the lane 581
  • the blind spot region 504 is designated with the traveling direction of the lane 582.
  • the processing of the blind spot area dangerous event determination unit 13 is completed, and the blind spot area dangerous event data group 35 as shown in FIG. 7 is generated. Then, the process moves to the processing of the latent obstacle generation unit 14.
  • the latent obstacle generation unit 14 uses the blind spot area dangerous event data group 35 generated by the processing of the blind spot area dangerous event determination unit 13 to generate a latent obstacle and create a latent obstacle data group 36.
  • the information set in the blind spot area dangerous event data group 35 is expressed as virtual obstacle information in a data format such as the obstacle information of the sensor recognition data group 31.
  • FIG. 8 shows an example of the latent obstacle data group 36 generated and recorded in the driving scene of the first operation example.
  • FIG. 8 superimposes latent obstacles 851, 852, 853, 854, and 856 generated according to the blind spot area dangerous event data group 35 of FIG. 7 and recorded in the latent obstacle data group 36 on the driving scene of FIG. It is shown by.
  • potential obstacles 851, 852, 853, 854, and 856 corresponding to the blind spot regions 501, 502, 503, 504, and 506 of FIG. 6 are shown, respectively. Since the blind spot areas 505, 507, and 508 are not included in the blind spot area dangerous event data group 35 of FIG. 7, no latent obstacle is generated. Further, as the latent obstacle 852 in the blind spot region 502, two latent obstacles 852-1 having a parameter at the maximum speed and 852-2 having a parameter at the minimum speed are expressed.
  • the latent risk map generation unit 15 uses the latent obstacle data group 36 generated by the processing of the latent obstacle generation unit 14, and the latent risk level brought about by each latent obstacle at each position around the own vehicle 2. Is calculated, and the process of creating the potential risk map data group 37 is performed.
  • FIG. 9 shows the relationship between the latent obstacle and the estimated arrival time of the own vehicle 2 at each position on the lane of the driving scene of the first operation example.
  • FIG. 9A shows the positional relationship between the own vehicle 2 shown in FIG. 8 and the latent obstacle on each lane sideways.
  • 9 (b) to 9 (d) show the positions of the potential obstacles and the own vehicle 2 for each elapsed time in each of the lanes 580 to 582.
  • the horizontal axis represents the position on the lane
  • the vertical axis represents the elapsed time from the current time.
  • the range in which each latent obstacle may exist is shown by hatching
  • the time change of the assumed position of the own vehicle 2 is shown by a solid black line.
  • the potential risk map is a map showing the risk of the vehicle 2 colliding with a potential obstacle lurking in the blind spot area around the vehicle 2. Therefore, it is preferable that the target range for generating the latent risk map is a range that can be reached by the vehicle 2.
  • the black frame 880 in FIG. 9A shows the reachable range of the vehicle 2 based on the motion characteristics. In this operation example, it is assumed that a potential risk map is generated for the area within the black frame 880.
  • FIG. 9B the time changes of the assumed positions of the latent obstacles 851, 852-1, 852-2, and 853 on the lane 580 are shown by the broken lines 861, 862-1, 862-2, and 863, respectively.
  • the latent obstacles 852-1 and 852-2 represent the upper limit and the lower limit of the existence range of the latent obstacle 852 in the blind spot region 502, respectively, as described above, and the two broken lines 862 corresponding to these latent obstacles.
  • the area surrounded by -1, 862-2 (hatched area 872) corresponds to the existence range of the latent obstacle 852.
  • the latent obstacle 851 since the latent obstacle 851 has a speed of 0 and there is no upper limit, the right side (hatched area 871) of the broken line 861 is the possible existence range of the latent obstacle 851.
  • the hatching region 871 is also set on the left side of the broken line 861 in consideration of the margin.
  • the latent obstacle 853 since the latent obstacle 853 does not have a lower limit side with respect to the upper limit broken line 863, the upper left side (hatched area 873) of the broken line 863 is the possible existence range of the latent obstacle 853.
  • FIG. 9C the time change of the assumed position of the latent obstacle 854 on the lane 581 is shown by the broken line 864. Since the potential obstacle 854 has a velocity of 0 and there is no upper limit to the existence range thereof, the right side (hatched area 874) of the broken line 864 is the existence range of the latent obstacle 854. In FIG. 9 (c), as in FIG. 9 (b), the hatching region 874 is also set on the left side of the broken line 864 in consideration of the margin.
  • FIG. 9D the time change of the assumed position of the latent obstacle 856 on the lane 582 is shown by the broken line 866.
  • the latent obstacle 856 represents a case where the oncoming vehicle travels at the maximum vehicle speed, and since there is no upper limit to the lower limit dashed line 866 in the possible existence range, the upper right side (hatched area 876) of the dashed line 866 is latent. It becomes the existence range of the obstacle 856.
  • the latent risk at each position on the latent risk map (corresponding to each grid point on the grid map) is the time range in which a latent obstacle can exist at that position and the time when the own vehicle 2 is assumed to exist at that position. Obtained from the degree of overlap with the range.
  • the time range in which the latent obstacle can exist at the position 841 shown on the horizontal axis of FIG. 9B is the portion 891 of the hatched area 873 indicating the possible range of the latent obstacle 853 corresponding to the position 841. -1 and the portion 891-2 corresponding to the position 841 in the hatched area 872 indicating the existence range of the latent obstacle 852.
  • the solid line 881 showing the time change of the assumed position of the own vehicle 2 is included in the portion 891-2 showing the existence time range of the latent obstacle 852. That is, at the position 841, since the time range in which the own vehicle 2 is assumed to exist at that position overlaps with the latent obstacle 852, there is a possibility that the own vehicle 2 and the latent obstacle 852 collide (potential risk). Indicates that there is.
  • the latent risk may be expressed as a binary value with or without danger, or may be expressed at a predetermined number of steps (for example, high risk, medium, low risk). Further, it may be expressed by a numerical value within a predetermined range (for example, 0 to 100).
  • a predetermined range for example, 0 to 100.
  • the above-mentioned multiplicity p is, for example, the maximum value when d is 0 with respect to the distance d between the existence time range of the latent obstacle and the existence time range of the own vehicle 2, and the value becomes smaller as d becomes larger. It is possible to calculate based on such a function (for example, Gaussian function).
  • FIG. 10 shows an example of the potential risk map data group 37 generated and recorded in the driving scene of the first operation example.
  • FIG. 10 shows the result of calculating the potential risk posed by each latent obstacle based on the relationship between the latent obstacle shown in FIG. 9 and the estimated arrival time of the own vehicle 2.
  • the potential risk level is shown in binary notation.
  • the hatched areas 951, 952, 954, and 956 in the area 880 that is the expression target of the latent risk map indicate the areas with latent risk (latent risk area), respectively.
  • the latent risk area 951 is the latent risk due to the latent obstacle 851 (to be exact, the latent obstacle 852 is also included), and the latent risk area 952 is the latent risk due to the latent obstacle 852.
  • the positions of potential obstacles 851, 852-1, 852-2, 854, 856 and each lane of the road are shown on the potential risk map for easy understanding, but these are potential dangers. It does not necessarily have to be expressed on the degree map.
  • the travel control planning unit 16 (1) identifies the physical route (travel route) on which the own vehicle 2 travels, (2) performs speed planning on the travel route, and adds speed information to the travel route. Is generated, and (3) the process of creating the travel control data group 38 is executed in the procedure of calculating the control command value of the actuator group 7 for following the travel trajectory.
  • the travel route in the procedure (1) for example, a plurality of candidates for the travel route that can be taken in advance are generated based on information such as the own vehicle speed and the lane shape, and the speed plan in the procedure (2) is also evaluated. Finally select the most desirable travel track overall.
  • the potential risk map data group 37 is used for this evaluation. Originally, in the evaluation of the traveling track, not only the potential risk level but also various environmental factors such as obstacles and traffic rules detected by the external sensor group 4 are comprehensively considered, but here for simplicity. The explanation will be focused on the potential risk level.
  • FIG. 11 shows the relationship between the travel route candidates that the own vehicle 2 can take in the travel scene of the first operation example and the potential risk level.
  • FIG. 11 is a superimposed display of travel route candidates 1001 to 1003 that the own vehicle 2 can take on the potential risk map data group 37 generated by the latent risk map generation unit 15.
  • regions 951, 952, 954, and 956 are the same as those shown in FIG. 10, and indicate regions having a high potential risk, respectively.
  • the travel route candidates 1001 to 1003 intersect with the regions 952, 954, and 956 at positions 1011 to 1013, respectively.
  • the latent risk is different from the collision risk with an obstacle actually detected by the external sensor group 4, and represents the collision risk with a latent obstacle that does not always exist.
  • the traveling control planning unit 16 travels at a speed at which the own vehicle 2 can stop before entering the high potential areas 952, 954, and 956, for example.
  • Route candidates 1001 to 1003 are generated. Areas 952, 954, and 956 indicate areas that may collide with latent obstacles as described above. Therefore, in the worst case, if the own vehicle 2 enters the place, the latent obstacles may occur. If an object actually exists, there is a risk of colliding with the obstacle. However, if the vehicle 2 can be decelerated and stopped in front of the corresponding position in an emergency such as when the collision risk is detected by the external sensor group 4, the vehicle 2 is driven according to the travel route candidates 1001 to 1003. Even so, collisions can be avoided.
  • Deceleration acceptable in the vehicle 2 and alpha if the current speed of the vehicle 2 and v, the distance to the vehicle 2 is stopped is determined at v 2 / 2.alpha.
  • the position where the travel route intersects the regions 952, 954, and 956 having a high potential risk from the current position of the own vehicle 2 that is, Assuming that the distance from the positions 1011 to 1013 in FIG. 11 is L, the travel control device 3 needs to control the speed of the own vehicle 2 so as to satisfy at least L> v 2 / 2 ⁇ .
  • TTB Time To Braking
  • deceleration
  • FIG. 12 shows an example of a traveling route candidate and a target speed calculation method in the traveling scene of the first operation example.
  • the position of the deceleration start point for the own vehicle 2 to stop before entering the region having a high potential risk, and the TTB become a predetermined value T 0 or more.
  • FIG. 12 (a) shows the above-mentioned relationship with respect to the travel route candidate 1002
  • FIG. 12 (b) shows the above-mentioned relationship with respect to the travel route candidates 1001 and 1003.
  • the horizontal axis represents the distance on the traveling path
  • the vertical axis represents the speed of the own vehicle 2.
  • the travel route candidate 1002 intersects the region 954 with a high potential risk at the position 1012.
  • the deceleration start point position 1201 in FIG. 12A when the own vehicle 2 travels along the travel path candidate 1002, the deceleration start point for stopping before the position 1012 is v 2 from the position 1012. It is in the front position by / 2 ⁇ .
  • the deceleration start point in order to satisfy TTB ⁇ T 0 , the deceleration start point must be T 0 ⁇ v forward from the current position as shown in the deceleration start point position 1202 in FIG. 12 (a).
  • the intersection 1203 between the two is the target speed that satisfies the condition.
  • the travel control planning unit 16 plans a travel track for traveling the own vehicle 2 at the target speed shown in FIG. 12 (a) along the travel route candidate 1002, and a control command value for following the travel track. Is calculated to generate the travel control data group 38.
  • the control command value represented by the travel control data group 38 generated in this way is output to the actuator group 7 by the processing of the information output unit 17.
  • the target speed in FIG. 12A is lower than the ideal speed (for example, the legal speed) because the detection range of the external sensor group 4 safely travels on the own vehicle 2 at the ideal speed. It means that it does not meet the requirements to make it. This is due to the original performance limit of the external sensor group 4, and when considered in place of manual driving, it corresponds to a person decelerating for safety when the visibility is poor in front due to bad weather or a sharp curve. .. That is, in bad weather, a sharp curve, or the like, the blind spot region of the external sensor group 4 approaches the own vehicle 2, so that the intersection with the region having a high potential risk in the traveling route is also close. Therefore, the deceleration start point position 1201 in FIG. 12A shifts to the left, and the intersection 1203 with the deceleration start point position 1202 shifts to the left, so that the target speed decreases.
  • the ideal speed for example, the legal speed
  • the safety based on the blind spot and the detection status of the external sensor group 4 is used. Easy running control can be realized.
  • FIG. 13 shows the first driving scene corresponding to the second operation example of the vehicle system 1.
  • a vertical road consisting of lanes 1381 and 1382 facing each other and a horizontal road consisting of lanes 1383 and 1384 facing each other intersect at a crossroads intersection with a signal, and the intersection is self-sustaining.
  • It shows a traveling scene in which vehicle 2 turns right from lane 1381 toward lane 1383.
  • the external sensor group 4 acquires the sensor recognition data group 31 for the detection range 1301, and the hatched area not included in the detection range 1301 is specified as the blind spot area by the blind spot area specifying unit 12. Will be done.
  • This blind spot area includes a blind spot area 1331 formed by an oncoming vehicle 1370 waiting near the center of an intersection to make a right turn in the oncoming lane 1382 of the own vehicle 2 as a shield.
  • a sensor capable of detecting the side of the own vehicle 2 is added to the outside world sensor group 4 with respect to the first operation example, and the detection ranges 1302 and 1303 by this sensor are the outside world sensor group. It is included in the detection range 1301 of 4.
  • the shapes and attributes of the lanes 1381 to 1384 can be specified from the driving environment data group 33. Further, it is assumed that the signal at the intersection is blue on the road side in the vertical direction and red on the road side in the horizontal direction. The signal state can also be specified from the driving environment data group 33.
  • the blind spot area dangerous event determination unit 13 performs the processing according to the flowchart shown in FIG. 4 described above.
  • step S301 of FIG. 4 the blind spot area dangerous event determination unit 13 first acquires the blind spot area data group 34 and the driving environment data group 33 corresponding to the driving scene as shown in FIG.
  • step S302 of FIG. 4 in the same manner as in the first operation example, the blind spot areas 1341 to 1345 for each lane are extracted from the driving environment data group 33 by referring to the lane information around the vehicle 2, and the blind spot areas 1341 to 1341 to The boundary points 1321 to 1325 between 1345 and the detection range 1301 which is a non-blind spot region are specified.
  • the blind spot area dangerous event determination unit 13 determines the dangerous event model of each blind spot area.
  • the danger event model corresponding to each of the blind spot regions 1341 to 1345 is determined as follows by referring to the danger event model determination table of FIG.
  • the model corresponds to the dangerous event model of "maximum vehicle speed lane travel".
  • the traveling direction of the lane with respect to the own vehicle 2 is "the same direction", and the front-rear relationship on the road is "forward". Therefore, it is determined from the table of FIG. 5 that it corresponds to the "stop" dangerous event model. Since there is only one lane in the same direction here, it is judged that it does not correspond to the dangerous event model of "low lane change".
  • the blind spot areas 1344 and 1345 are treated as "rear” in the front-rear relationship on the road.
  • the blind spot area 1344 is the "same direction (adjacent lane)"
  • the blind spot area 1345 is the "opposite direction”. Therefore, from the table of FIG. 5, it is determined that the blind spot area 1344 corresponds to the "maximum vehicle speed lane travel” and the blind spot area 1345 corresponds to the "not applicable (N / A)" dangerous event model. If the vehicle 2 is before entering the intersection, it is possible to go straight or turn left or right, so the blind spot areas 1344 and 1345 are treated as "forward" on the road. ..
  • step S304 of FIG. 4 the blind spot area dangerous event determination unit 13 determines the possibility of occurrence of each dangerous event model.
  • the signal for the road crossing the figure in the transverse direction is in the red state, it can be determined that the possibility that the vehicle jumps out from the blind spot areas 1343 and 1344 is low. Therefore, it can be determined that the danger event models determined for the blind spot regions 1343 and 1344 in step S303 are unlikely to occur.
  • step S305 of FIG. 4 the blind spot area dangerous event determination unit 13 generates dangerous event information corresponding to each dangerous event model. Then, in step S306, the data is recorded in the blind spot area dangerous event data group 35 of the storage unit 30.
  • the dangerous event models of the blind spot regions 1343 and 1344 determined to be unlikely to occur in step S304 are excluded from the generation targets of the dangerous event information, the dangerous event model in which the dangerous event information is generated in step S305.
  • the blind spot area are two sets of (“maximum vehicle speed lane driving”, blind spot area 1341) (“stop”, blind spot area 1342). In the second operation example, dangerous event information relating to the combination of these is generated for the driving scene of FIG. 13 and recorded in the blind spot area dangerous event data group 35.
  • FIG. 14 shows an example of the latent obstacle data group 36 and the latent risk map data group 37 generated and recorded in the first driving scene of the second operation example.
  • FIG. 14 shows latent obstacles 1421, 1422 generated by the latent obstacle generation unit 14 and recorded in the latent obstacle data group 36 according to the blind spot area dangerous event data group 35 for the driving scene of FIG. 13, and their latent obstacles.
  • the potential risk map generated for the obstacle and recorded in the potential risk map data group 37 is shown.
  • the hatched regions 1431 and 1432 in the region 1410 represented by the latent risk map indicate the regions having a high latent risk due to the latent obstacles 1421 and 1422, respectively.
  • FIG. 15 shows the relationship between the latent obstacle and the estimated arrival time of the own vehicle 2 at each position on the lane of the first driving scene of the second operation example.
  • FIG. 15 with respect to the lane 1382 of FIG. 14, the positional relationship between the own vehicle 2 and the oncoming vehicle 1370 and the potential obstacle 1421 is shown sideways, and the positions of the potential obstacle 1421 and the own vehicle 2 for each elapsed time are shown. There is.
  • the horizontal axis represents the position on the lane 1382, and the vertical axis represents the elapsed time from the current time.
  • the time change of the assumed position of the own vehicle 2 is shown by the solid black line 1501
  • the time change of the assumed position of the latent obstacle 1421 is shown by the broken line 1502
  • the range where the latent obstacle 1421 may exist is hatched. It is shown in region 1512.
  • the solid line 1501 there is no data corresponding to the portion from the side to the rear of the own vehicle 2. This is because the data of the portion that cannot be reached due to the turning radius of the own vehicle 2 is not set.
  • the solid line 1501 indicating the time change of the assumed position of the own vehicle 2 is included in the hatching region 1512 indicating the existence range of the latent obstacle 1421. This means that in the hatched region 1512, the potential risk due to the latent obstacle 1421 is high. Therefore, as shown in FIG. 14, the region 1431 corresponding to the latent obstacle 1421 is represented on the latent risk map.
  • the potential risk map of FIG. 14 there is a region 1431 with a high potential risk on the right turn route 1310 of the own vehicle 2. That is, if the own vehicle 2 starts as it is, there is a risk of collision with the oncoming vehicle 1370 when another vehicle is lurking in the blind spot.
  • FIG. 16 shows a second driving scene corresponding to the second operation example of the vehicle system 1.
  • FIG. 16 shows a traveling scene in which the oncoming vehicle 1370 waiting for a right turn in front of the own vehicle 2 disappears in FIG. 13, and a latent obstacle and a latent risk map in the traveling scene.
  • the boundary point between the blind spot region and the non-blind spot region of the oncoming lane 1382 reaches the detection limit point of the external sensor group 4. fall back.
  • the latent obstacle 1621 is generated by the processing of the latent obstacle generation unit 14, and the area 1631 indicated by hatching is represented on the latent risk map as a region having a high latent risk due to the latent obstacle 1621. ..
  • FIG. 17 shows the relationship between the latent obstacle and the estimated arrival time of the own vehicle 2 at each position on the lane of the second driving scene of the second operation example.
  • the positional relationship between the own vehicle 2 and the potential obstacle 1621 is shown sideways, and the positions of the potential obstacle 1621 and the own vehicle 2 for each elapsed time are shown.
  • the horizontal axis in the above figure represents the position on the lane 1382, and the vertical axis represents the elapsed time from the current time.
  • the time change of the assumed position of the own vehicle 2 is shown by the solid black line 1701
  • the time change of the assumed position of the latent obstacle 1621 is shown by the broken line 1702
  • the range where the latent obstacle 1621 may exist is hatched. It is shown in region 1712.
  • the blind spot area on the lane 1382 is set at a position farther from the intersection than the blind spot area 1331 of FIG. Therefore, as shown in FIG. 17, the hatched area 1712 showing the existence range of the latent obstacle 1621 is shifted to the left side of the figure as compared with the hatched area 1512 of FIG. As a result, the solid line 1701 indicating the time change of the assumed position of the own vehicle 2 on the lane 1382 and the hatching area 1712 indicating the existence range of the latent obstacle 1621 do not overlap in the vicinity of the intersection.
  • the region on the right side of the position 1730 in FIG. Is judged to have a low potential risk.
  • the hatched area 1631 of FIG. 16 represents this on the potential risk map.
  • the estimated arrival times of the latent obstacle and the own vehicle 2 for the same position are calculated respectively, and the latent risk calculated based on whether or not these intersect in time. Is expressed in the potential risk map.
  • the danger caused by the obstacles potentially existing in the blind spot area is determined. be able to. Therefore, for example, it is possible to safely determine whether or not to start even when making a right turn in a situation where the oncoming lane is not properly seen by an oncoming vehicle waiting for a right turn.
  • the travel control device 3 which is an ECU mounted on the vehicle 2, has a blind spot area specifying unit 12 for specifying a blind spot area not included in the detection range of the external sensor group 4 mounted on the vehicle 2, and a blind spot area specifying.
  • the information acquisition unit 11 for acquiring lane information of the road around the vehicle 2 including the blind spot area specified by the unit 12 and the blind spot area dangerous event determination unit 13 are provided.
  • the blind spot area dangerous event determination unit 13 is a potential obstacle that may exist in the blind spot area based on the lane information of the blind spot area acquired by the information acquisition unit 11 and the positional relationship of the blind spot area on the road with respect to the vehicle 2. Judge the expected behavior. By doing so, it is possible to appropriately determine the behavior of potential obstacles that may exist in the blind spot area.
  • the travel control device 3 generates a potential risk map generation unit 15 that generates a potential risk map expressing the potential travel risk in the vicinity of the vehicle 2 based on the assumed behavior of the potential obstacle. Further prepare. By doing so, it is possible to appropriately evaluate the risk that a potential obstacle that may exist in the blind spot area poses to the vehicle 2.
  • the travel control device 3 maintains a travel state in which danger can be avoided in a potential risk region in which the potential travel risk represented on the latent risk map is a predetermined value or more.
  • An information output unit 17 that outputs a control command value of the actuator group 7 which is information for controlling the vehicle 2 is further provided.
  • the traveling state in which danger can be avoided is preferably a traveling state in which the condition that the vehicle 2 can be stopped before reaching the potential risk region is satisfied. Since this is done, even if an obstacle exists in the blind spot region, the vehicle 2 can be driven so as to surely avoid a collision with the obstacle.
  • the latent risk map generation unit 15 determines the estimated arrival time of the vehicle 2 at the peripheral position of the vehicle 2 based on the behavior of the vehicle 2, and also determines the latent risk. Based on the assumed behavior of a target obstacle, the estimated arrival time of a potential obstacle at a position around the vehicle 2 is determined. Then, based on the overlap between the estimated arrival time of the vehicle 2 and the estimated arrival time of the potential obstacle, the potential traveling risk at the peripheral position of the vehicle 2 is determined. Since this is done, the potential running risk at the peripheral position of the vehicle 2 can be appropriately determined.
  • the blind spot area dangerous event determination unit 13 has the same traveling direction indicated by the lane information in the blind spot area and the traveling direction of the vehicle 2, and the vehicle 2 On the other hand, if the blind spot area is located forward on the road, it is judged that the potential obstacle is stopped. Further, when the traveling direction indicated by the lane information in the blind spot region and the traveling direction of the vehicle 2 are different and the blind spot region is located in front of the vehicle 2 on the road, the potential obstacle is the road in the blind spot region. Judge that the vehicle is traveling at the maximum speed according to the environment.
  • the maximum speed can be calculated based on the legal speed represented by the lane information in the blind spot area and the information on the traffic state in the blind spot area included in the traffic information acquired by the information acquisition unit 11. Further, when the traveling direction indicated by the lane information of the blind spot region and the traveling direction of the vehicle 2 match, and the blind spot region is located on the side of the vehicle 2, the potential obstacle is the vehicle 2. It is judged that the vehicle is traveling at the same speed as. By doing so, it is possible to appropriately determine the assumed behavior of a potential obstacle that may exist in the blind spot region.
  • the blind spot region is represented by a predetermined shape, but as shown in FIG. 2, it may be represented by a cell unit of a grid map, or may be represented by an aggregate of a plurality of cells. Good.
  • each process is executed by using one processing unit 10 and one storage unit 30 in the traveling control device 3
  • a plurality of processing units 10 and storage units 30 are used.
  • Each process may be executed in a different processing unit or storage unit.
  • processing software having the same configuration may be installed in each storage unit, and the processing may be shared and executed by each processing unit.
  • each process of the travel control device 3 is realized by executing a predetermined operation program using the processor and the RAM, but it is realized by the original hardware as needed. It is also possible. Further, in the above embodiment, the external sensor group 4, the vehicle sensor group 5, the actuator group 7, the HMI device group 8, and the external communication device 9 are described as individual devices, but any of them may be used as necessary. It is also possible to realize by combining two or more.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

車両に搭載される電子制御装置は、前記車両に搭載されるセンサの検出範囲に含まれない死角領域を特定する死角領域特定部と、前記死角領域を含む前記車両の周辺の道路の車線情報を取得する情報取得部と、前記死角領域の車線情報と、前記車両に対する前記死角領域の道路上の位置関係とに基づき、前記死角領域に存在し得る潜在的な障害物の想定挙動を判断する死角領域危険事象判定部と、を備える。

Description

電子制御装置
 本発明は、電子制御装置に関する。
 近年、車両の快適で安全な運転支援や自動運転を実現するため、車両の周辺環境を認識するセンサの死角となる領域に潜むリスクを判断する技術が提案されている。例えば、特許文献1では、死角領域に存在すると仮定される仮想移動体を設定して衝突確率を算出する手段が開示されている。
日本国特開2012-104029号公報
 特許文献1に記載されている発明では、死角領域に存在すると仮定される仮想移動体の種類を推定後、仮想移動体の種類に応じて仮想移動体の速度を推定している。しかしながら、死角領域に存在し得る潜在的な障害物の挙動は、その死角領域が置かれている環境によって異なってくる。そのため、特許文献1のように、仮想移動体の種類だけに基づき速度を設定して衝突確率を算出する手段では、死角領域に存在し得る潜在的な障害物の挙動を適切に判断することができず、そのためリスクを過小評価してしまい、危険な運転支援や自動運転につながる恐れがあった。
 本発明による電子制御装置は、車両に搭載されるものであって、前記車両に搭載されるセンサの検出範囲に含まれない死角領域を特定する死角領域特定部と、前記死角領域を含む前記車両の周辺の道路の車線情報を取得する情報取得部と、前記死角領域の車線情報と、前記車両に対する前記死角領域の道路上の位置関係とに基づき、前記死角領域に存在し得る潜在的な障害物の想定挙動を判断する死角領域危険事象判定部と、を備える。
 本発明によれば、死角領域に存在し得る潜在的な障害物の挙動を適切に判断することができる。
本発明の実施の形態に係る走行制御装置を含む車両システムの構成を示す機能ブロック図 死角領域データ群の説明図 走行制御装置が実現する機能の相関関係を示す図 死角領域危険事象判定部で実行される処理を説明するフローチャート 危険事象モデル決定表の一例を示す図 車両システムの第1動作例に対応する走行シーンを示す図 第1動作例の走行シーンにおける死角領域危険事象データ群の一例を示す図 第1動作例の走行シーンにおける潜在障害物データ群の一例を示す図 第1動作例の走行シーンの車線上の各位置における潜在障害物と自車両の推定到達時間の関係を示す図 第1動作例の走行シーンにおける潜在危険度マップデータ群の一例を示す図 第1動作例の走行シーンにおいて自車両が取り得る走行経路候補と潜在危険度の関係を示す図 第1動作例の走行シーンにおける走行経路候補と目標速度の算出方法の一例を示す図 車両システムの第2動作例に対応する1つ目の走行シーンを示す図 第2動作例の1つ目の走行シーンにおける潜在障害物データ群と潜在危険度マップデータ群の一例を示す図 第2動作例の1つ目の走行シーンの車線上の各位置における潜在障害物と自車両の推定到達時間の関係を示す図 車両システムの第2動作例に対応する2つ目の走行シーンを示す図 第2動作例の2つ目の走行シーンの車線上の各位置における潜在障害物と自車両の推定到達時間の関係を示す図
 以下、図面を用いて本発明の実施形態を説明する。
(システム構成)
 図1は、本発明の実施の形態に係る走行制御装置3を含む車両システム1の構成を示す機能ブロック図である。車両システム1は、車両2に搭載される。車両システム1は、車両2の周辺における走行道路や周辺車両等の障害物の状況を認識した上で、適切な運転支援や走行制御を行う。図1に示すように、車両システム1は、走行制御装置3、外界センサ群4、車両センサ群5、地図情報管理装置6、アクチュエータ群7、HMI装置群8、および外部通信装置9を含んで構成される。走行制御装置3、外界センサ群4、車両センサ群5、地図情報管理装置6、アクチュエータ群7、HMI装置群8、および外部通信装置9は、車載ネットワークNにより互いに接続される。なお以下では、車両2を他の車両と区別するために「自車両」2と呼ぶこともある。
 走行制御装置3は、車両2に搭載されるECU(Electronic Control Unit)である。走行制御装置3は、外界センサ群4、車両センサ群5、地図情報管理装置6、外部通信装置9等から提供される各種入力情報に基づいて、車両2の運転支援または自動運転のための走行制御情報を生成し、アクチュエータ群7やHMI装置群8に出力する。走行制御装置3は、処理部10と、記憶部30と、通信部40と、を有する。
 処理部10は、たとえば、中央演算処理装置であるCPU(Central Processing Unit)を含んで構成される。ただし、CPUに加えて、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等を含んで構成されてもよいし、いずれか1つにより構成されてもよい。
 処理部10はその機能として、情報取得部11、死角領域特定部12、死角領域危険事象判定部13、潜在障害物生成部14、潜在危険度マップ生成部15、走行制御計画部16、および情報出力部17を有する。処理部10は、記憶部30に格納されている所定の動作プログラムを実行することで、これらを実現する。
 情報取得部11は、走行制御装置3に接続された他装置から車載ネットワークNを介して各種情報を取得し、記憶部30に格納する。たとえば、外界センサ群4が検出した車両2周辺の障害物や外界センサ群4の検出領域に関する情報を取得し、センサ認識データ群31として記憶部30に格納する。また、車両センサ群5等が検出した車両2の動きや状態等の挙動に関連する情報を取得し、車両情報データ群32として記憶部30に格納する。また、地図情報管理装置6や外部通信装置9等から車両2の走行環境に関連する情報を取得し、走行環境データ群33として記憶部30に格納する。
 死角領域特定部12は、情報取得部11により取得されて記憶部30に格納されたセンサ認識データ群31に基づいて、外界センサ群4の検出範囲に含まれない死角領域を車両2の周辺において特定する。センサ認識データ群31は、たとえば、OGM(Occupancy Grid Map)のような格子状マップ表現等で死角領域そのものが表現されていてもよいし、外界センサ群4の検出範囲(角度、距離等)と検出情報のセットのように、死角領域を特定するのに必要な情報が表現されていてもよい。外界センサ群4の検出情報とはたとえば、LiDAR(Light Detection And Ranging)やRADAR(Radio Detection And Ranging)が取得する点群データである。死角領域特定部12が特定した各死角領域の情報は、死角領域データ群34として記憶部30に格納される。
 死角領域危険事象判定部13は、情報取得部11により取得されて記憶部30に格納された走行環境データ群33に基づいて、死角領域特定部12が特定した死角領域における代表的な危険事象を判定する。死角領域における代表的な危険事象とは、例えば、当該死角領域に障害物が存在したと仮定した場合に、その障害物が取り得る場所と挙動の組合せの中で、車両2にとって最も危険と考えられる組合せである。障害物の挙動には、死角領域に存在し得る障害物の行動や進行方向、速度等の走行パラメータが含まれる。死角領域危険事象判定部13による危険事象の判定結果は、死角領域危険事象データ群35として記憶部30に記憶される。
 潜在障害物生成部14は、死角領域危険事象判定部13による各死角領域での危険事象の判定結果に基づいて、当該危険事象に相当する挙動を取る仮想的な障害物を、当該死角領域に存在しうる潜在的な障害物として生成する。この潜在的な障害物を以下では、「潜在障害物」と呼ぶ。潜在障害物生成部14が生成した潜在障害物の情報は、潜在障害物データ群36として記憶部30に記憶される。
 潜在危険度マップ生成部15は、潜在障害物生成部14が生成した潜在障害物の想定挙動と、情報取得部11により取得されて記憶部30に格納された車両情報データ群32が表す車両2の挙動とに基づいて、車両2の周辺における場所ごとの潜在的な走行危険度を表現した潜在危険度マップを生成する。潜在危険度マップ生成部15が生成した潜在危険度マップの情報は、潜在危険度マップデータ群37として記憶部30に記憶される。
 走行制御計画部16は、潜在危険度マップ生成部15が生成した潜在危険度マップ等に基づいて、車両2が走行すべき軌道を計画し、その計画軌道に追従するように車両2を制御するためのアクチュエータ群7の制御指令値を決定する。走行制御計画部16が決定した計画軌道やアクチュエータ群7の制御指令値の情報は、走行制御データ群38として記憶部30に記憶される。
 情報出力部17は、走行制御装置3に接続された他装置に対して、車載ネットワークNを介して各種情報を出力する。たとえば、走行制御データ群38に含まれる制御指令値をアクチュエータ群7に出力し、車両2の走行を制御する。また、たとえば、センサ認識データ群31や潜在危険度マップデータ群37、走行制御データ群38に含まれる計画軌道等をHMI装置群8に出力し、車両2の乗員に提示する。これにより、自動運転中の車両2において、車両システム1が周辺の走行環境をどのように解釈し(センサ認識データ群31や潜在危険度マップデータ群37の表示)、どのような走行を計画しているか(走行制御データ群38の計画軌道の表示)を乗員に提示することができる。
 記憶部30は、たとえば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置や、RAMなどのメモリを含んで構成される。記憶部30には、処理部10が処理するプログラムや、その処理に必要なデータ群等が格納される。また、処理部10がプログラムを実行する際の主記憶として、一時的にプログラムの演算に必要なデータを格納する用途にも利用される。本実施形態では、走行制御装置3の機能を実現するための情報として、センサ認識データ群31、車両情報データ群32、走行環境データ群33、死角領域データ群34、死角領域危険事象データ群35、潜在障害物データ群36、潜在危険度マップデータ群37、走行制御データ群38等が記憶部30に格納される。
 センサ認識データ群31とは、外界センサ群4による検出情報または検出状態に関するデータの集合である。検出情報とは、例えば、外界センサ群4がそのセンシング情報に基づき特定した車両2周辺の障害物や路面標示、標識、信号等の環境要素に関する情報や、外界センサ群4による車両2周辺のセンシング情報そのもの(LiDARやRADARの点群情報、カメラ画像、ステレオカメラの視差画像等)である。検出状態とは、当該センサが検出した領域やその確度を示す情報であり、例えば、OGMのような格子状マップ等が含まれる。
 車両情報データ群32とは、車両センサ群5等により検出された車両2の挙動に関するデータの集合である。車両2の挙動に関するデータとは、車両2の動きや状態等を表す情報であり、例えば、車両2の位置、走行速度、操舵角、アクセルの操作量、ブレーキの操作量、走行経路等の情報が含まれる。
 走行環境データ群33とは、車両2の走行環境に関するデータの集合である。走行環境に関するデータとは、車両2が走行している道路を含む車両2周辺の道路に関する情報である。これには例えば、車両2周辺の道路を構成する車線の形状や属性(進行方向、制限速度、走行規制等)に関する情報や、信号情報、各道路や車線の交通状態(平均速度等)に関する交通情報、過去事例などに基づく統計的知識情報、等が含まれる。道路・車線の形状や属性のような静的情報は、例えば、地図情報管理装置6等から取得される地図情報に含まれる。一方、信号情報や交通情報、統計的知識情報のような準動的もしくは動的な情報は、外部通信装置9を介して取得される。統計的知識情報とは、例えば、事故事例が多い地理的場所や時間帯、その事故類型に関する情報等を含む。
 死角領域データ群34とは、車両2の外界センサ群4の検出範囲に含まれない領域、すなわち外界センサ群4がセンシング情報を検出できていない領域を意味する死角領域に関するデータの集合である。死角領域に関するデータの表現例は、図2において後述する。死角領域データ群34は、情報取得部11により取得されたセンサ認識データ群31の情報に基づき、死角領域特定部12によって生成、格納される。
 死角領域危険事象データ群35とは、死角領域危険事象判定部13が判定した、各死角領域における代表的な危険事象に関するデータの集合である。死角領域における危険事象に関するデータとは、外界センサ群4では認識できない障害物が死角領域内に存在した場合に、その障害物が車両2と接触する危険性に関する情報である。これには例えば、当該死角領域に存在し得ると判断される障害物の種類(車両、歩行者、自転車等)と位置、当該障害物が取り得る行動(例えば、車両の場合は車線追従、車線変更、停車等)、当該行動のパラメータ(進行方向、速度、加速度等)、等が含まれる。死角領域危険事象データ群35は、死角領域特定部12により生成された死角領域データ群34や、情報取得部11により取得された走行環境データ群33の情報に基づき、死角領域危険事象判定部13によって生成、格納される。
 潜在障害物データ群36とは、外界センサ群4では認識できない(例えば、外界センサ群4の死角領域に存在し、検出されていない)が、潜在的に存在し得ると考えられる仮想的な障害物(潜在障害物)に関するデータの集合である。これには例えば、障害物の種類と位置、速度、加速度、想定し得る行動から推定される予測軌道等が含まれる。潜在障害物データ群36は、死角領域危険事象判定部13により生成された死角領域危険事象データ群35の情報に基づき、潜在障害物生成部14によって生成、格納される。
 潜在危険度マップデータ群37とは、車両2の周辺において、車両2が死角領域に潜む潜在障害物と衝突する危険度を場所ごとに表した潜在危険度マップに関するデータである。潜在危険度マップは、潜在危険度マップ生成部15によって生成され、例えば後述するような格子状マップで表現される。
 走行制御データ群38とは、車両2の走行を制御するための計画情報に関するデータ群であり、車両2の計画軌道やアクチュエータ群7に出力する制御指令値等が含まれる。走行制御データ群38におけるこれらの情報は、走行制御計画部16によって生成、格納される。
 通信部40は、車載ネットワークNを介して接続された他の装置との通信機能を有する。情報取得部11が他の装置から車載ネットワークNを介して各種情報を取得する際や、情報出力部17が車載ネットワークNを介して他の装置へ各種情報を出力する際には、この通信部40の通信機能が利用される。通信部40は、例えばIEEE802.3やCAN(Controller Area Network)等の通信規格に準拠したネットワークカード等を含んで構成される。通信部40は、車両システム1において走行制御装置3と他の装置との間で、各種プロトコルに基づきデータの送受信を行う。
 なお、本実施形態では、通信部40と処理部10とを分けて記載しているが、処理部10の中で通信部40の処理の一部が実行されてもよい。たとえば、通信処理におけるハードウェアデバイス相当が通信部40に位置し、それ以外のデバイスドライバ群や通信プロトコル処理等は、処理部10の中に位置するように構成してもよい。
 外界センサ群4は、車両2の周辺の状態を検出する装置の集合体である。外界センサ群4はたとえば、カメラ装置、ミリ波レーダ、LiDAR、ソナー等が該当する。外界センサ群4は、車両2から所定範囲の障害物、路面標示、標識、信号等の環境要素を検出し、これらの検出結果を車載ネットワークNを介して走行制御装置3に出力する。「障害物」とは、例えば、車両2以外の車両である他車両や、歩行者、道路への落下物、路端等である。「路面標示」とは、例えば、白線や横断歩道、停止線等である。また、外界センサ群4は、自身のセンシング範囲やその状態に基づき、検出状態に関する情報も車載ネットワークNを介して走行制御装置3に出力する。
 車両センサ群5は、車両2の各種状態を検出する装置の集合体である。各車両センサは、たとえば、車両2の位置情報、走行速度、操舵角、アクセルの操作量、ブレーキの操作量等を検出し、車載ネットワークNを介して走行制御装置3に出力する。
 地図情報管理装置6は、車両2周辺のデジタル地図情報を管理及び提供する装置である。地図情報管理装置6は、例えば、ナビゲーション装置等により構成される。地図情報管理装置6は、例えば、車両2の周辺を含む所定地域のデジタル道路地図データを備えており、車両センサ群5から出力される車両2の位置情報等に基づき、地図上での車両2の現在位置、すなわち車両2が走行中の道路や車線を特定するように構成されている。また、特定した車両2の現在位置やその周辺の地図データを、車載ネットワークNを介して走行制御装置3に出力する。
 アクチュエータ群7は、車両2の動きを決定する操舵、ブレーキ、アクセル等の制御要素を制御する装置群である。アクチュエータ群7は、運転者によるハンドル、ブレーキペダル、アクセルペダル等の操作情報や、走行制御装置3から出力される制御指令値に基づいて、操舵、ブレーキ、アクセル等の制御要素の動きを制御することで、車両2の挙動を制御する。
 HMI装置群8は、運転者や乗員からの車両システム1に対する情報入力や、運転者や乗員に対する車両システム1からの情報通知を行うための装置群である。HMI装置群8には、ディスプレイ、スピーカー、バイブレータ、スイッチ等が含まれる。
 外部通信装置9は、車両システム1の外部と無線通信を行う通信モジュールである。外部通信装置9は、例えば、車両システム1にサービスを提供・配信するセンタシステム(不図示)やインターネットと通信可能なように構成されている。
 図2は、死角領域データ群34の説明図である。図2(a)は、車両2が置かれた状況の一例を示す図であり、図2(b)は、図2(a)に対応する死角領域マップの例を示す図である。
 図2(a)に示す例では、車両2の外界センサ群4は、5つのセンサで構成されている。これらの各センサは、最大で符号111~115の検出範囲内に存在する障害物をそれぞれ検出できる。ただし障害物が存在する場合には、その障害物よりも遠方の範囲は当該障害物によって遮蔽されるため、検出範囲内であってもさらなる障害物が存在するか否かは検出できない。図2(a)において、白い領域は外界センサ群4により障害物が存在しないことを検出している範囲を示し、ハッチングをかけた領域は外界センサ群4が障害物を検出できない範囲、すなわち外界センサ群4の死角となる範囲を示す。
 図2(a)に示すように、外界センサ群4の死角領域は、外界センサ群4の検出範囲外である符号121、122、および124に示す領域と、障害物である他車両100によって遮蔽される領域123とを合わせた領域である。なお、外界センサ群4の検出範囲外である死角領域は、領域124のように外界センサ群4からの距離が遠いために発生する死角領域と、領域121および領域122のようにそもそも外界センサ群4が検出できない方向に発生する死角領域との2つに大別される。このうち距離が原因で発生する死角領域は、天候状態等の走行環境に応じて外界センサ群4の検出範囲が変化するため、一定とはならないことが多い。そのため、車両2の走行環境に応じて外界センサ群4の検出範囲を動的に算出し、その算出結果に応じて死角領域を設定することが望ましい。
 図2(a)に示す状況において、死角領域特定部12は、車両2に対する死角領域121~124の位置および形状を特定することで、例えば図2(b)に示す死角領域マップ130を作成し、これを表す死角領域データ群34を記憶部30に格納する。図2(b)の死角領域マップ130では、車両2の現在位置を基準点とするx-y座標系で規定された所定の領域について、x、yがそれぞれ変数である座標値(x、y)で表される各位置における外界センサ群4の検出状態を、格子状マップとして表現している。この死角領域マップ130は、図2(a)の死角領域121~124のグリッドマップ(OGM)に相当する。
 死角領域データ群34では、各位置における外界センサ群4の検出状態は、例えば「障害物あり(検出済)」「障害物なし(検出済)」「不明(未検出)」の3値で表現される。図2(b)に示す死角領域マップ130では、車両100の周囲に設定された黒色の領域が「障害物あり(検出済)」を表し、図2(a)の死角領域121~124に対応するハッチング領域が「不明(未検出)」を表している。また、それ以外の白色の領域、すなわち図2(a)の検出範囲111~115から車両100の周囲と死角領域123を除いた領域が「障害物なし(検出済)」を表している。
 なお、図2(b)では外界センサ群4の検出状態を3値で表した死角領域マップ130の例を示したが、センサの検出状態という離散値の代わりに、障害物が存在する確率を連続値(0~1の小数)で表すことにより、死角領域マップを表現してもよい。また、死角領域データ群34は、図2(b)に示すような格子状マップのセル単位で死角領域の位置や形状を表現してもよいし、複数のセルの集合体で表現してもよい。さらに、死角領域データ群34は、死角領域の位置や形状を格子状マップ以外で表現してもよい。たとえば、図2(a)の死角領域122~124の位置や形状を、各死角領域に対応する図形の辺や頂点の位置、形状等で表現してもよい。本実施の形態における以降の説明では、説明を簡略化するために、格子状マップのセル単位ではなく死角領域マップ上での位置や形状により、死角領域データ群34の各死角領域を表現する。
 次に図3~図17を用いて、本実施形態の車両システム1の動作を説明する。
 走行制御装置3は、外界センサ群4等から取得した情報に基づいて、車両2の周囲に存在する各死角領域における潜在障害物のリスクを判断し、その判断結果をマップ化した潜在危険度マップを生成する。そして、生成した潜在危険度マップを用いて車両2の計画軌道を設定し、車両2の走行制御を行うための制御指令値を生成してアクチュエータ群7に出力する。アクチュエータ群7は、走行制御装置3が出力する制御指令値に従い、車両2の各アクチュエータを制御する。これにより、車両2の走行制御が実現される。また、走行制御装置3は、車両2の走行制御にあたり、運転者や乗員に通知すべき情報としてHMI情報を生成し、HMI装置群8に出力する。これにより、運転者に走行上のリスクを認知させて安全運転を促すことや、自動走行中の車両システム1の状態を運転者や乗員に提示することができる。
 図3は、走行制御装置3が実現する機能の相関関係を示す図である。走行制御装置3は、例えば、図1に示した情報取得部11、死角領域特定部12、死角領域危険事象判定部13、潜在障害物生成部14、潜在危険度マップ生成部15、走行制御計画部16、および情報出力部17の処理が、図3に示す順番で実行されるように構成されている。一連の処理は、例えば100msごとに定期的に実行される。
 情報取得部11は、車載ネットワークNを介して他の装置から必要な情報を取得し、記憶部30に格納する。具体的には、外界センサ群4からはセンサ認識データ群31の情報を、車両センサ群5からは車両情報データ群32の情報を、地図情報管理装置6および外部通信装置9からは走行環境データ群33の情報をそれぞれ取得し、記憶部30に格納して後段の処理部に受け渡す。
 死角領域特定部12は、情報取得部11が取得したセンサ認識データ群31に基づき、死角領域データ群34を生成する処理を行い、記憶部30に格納して死角領域危険事象判定部13と潜在危険度マップ生成部15に受け渡す。このとき、センサ認識データ群31に死角領域データ群34相当の情報(例えば、OGM)が含まれる場合は、その情報に必要な補正(座標変換、時刻補正等)をかけることで、死角領域データ群34を生成することができる。一方、外界センサ群4が所定の処理周期ごとに検出した状態の情報、例えば検出範囲(角度、距離等)と検出情報のみがセンサ認識データ群31に含まれる場合は、前回の処理周期で生成した死角領域データ群34と組み合わせて、確率的に最も可能性の高い検出状態を推定し、その推定結果から死角領域を判断することで今回の死角領域データ群34を生成することが望ましい。
 死角領域危険事象判定部13は、死角領域特定部12が生成した死角領域データ群34と、情報取得部11が取得した走行環境データ群33とに基づき、死角領域の危険事象を判定する処理を行う。本処理の詳細は、図4と図5を用いて後述する。そして、処理結果から死角領域危険事象データ群35を生成し、記憶部30に格納して潜在障害物生成部14に受け渡す。
 潜在障害物生成部14は、死角領域危険事象判定部13が生成した死角領域危険事象データ群35に基づき、当該危険事象に該当する仮想的な障害物である潜在障害物を各死角領域に対して設定し、当該潜在障害物の情報である潜在障害物データ群36を生成する処理を行う。そして、生成した潜在障害物データ群36を記憶部30に格納して潜在危険度マップ生成部15に受け渡す。
 潜在危険度マップ生成部15は、死角領域特定部12が生成した死角領域データ群34と、潜在障害物生成部14が生成した潜在障害物データ群36と、情報取得部11が取得した車両情報データ群32とに基づき、各死角領域の潜在障害物によってもたらされる潜在危険度を算出する。そして、潜在危険度に応じた潜在危険度マップを車両2の周囲に対して設定し、当該潜在危険度マップの情報である潜在危険度マップデータ群37を生成する処理を行う。本処理の詳細は、図9と図10を用いて後述する。潜在危険度マップ生成部15は、生成した潜在危険度マップデータ群37を記憶部30に格納して走行制御計画部16と情報出力部17に受け渡す。
 走行制御計画部16は、潜在危険度マップ生成部15が生成した潜在危険度マップデータ群37や、情報取得部11が取得したセンサ認識データ群31、車両情報データ群32、走行環境データ群33等に基づき、車両2の走行制御の軌道を計画し、その軌道に追従するための制御指令値等を生成する。そして、生成した車両2の計画軌道や制御指令値から走行制御データ群38を生成する処理を行う。走行制御計画部16は、生成した走行制御データ群38を記憶部30に格納して情報出力部17に受け渡す。
 情報出力部17は、走行制御計画部16が生成した走行制御データ群38に基づき、制御指令値をアクチュエータ群7に出力する。また、情報取得部11が取得したセンサ認識データ群31や、潜在危険度マップ生成部15が生成した潜在危険度マップデータ群37、走行制御計画部16が生成した走行制御データ群38等に基づき、車両2周辺の走行環境や計画軌道を乗員に提示するための情報をHMI装置群8に出力する。
(死角領域危険事象判定処理)
 図4は、図1、図3の死角領域危険事象判定部13で実行される処理を説明するフローチャートである。まず、ステップS301において、死角領域危険事象判定部13は、死角領域特定部12が特定した死角領域データ群34と、情報取得部11が取得した走行環境データ群33とを、記憶部30から取得する。以下では、死角領域特定部12によってn個の死角領域A~Aが特定され、これらの死角領域A~Aが死角領域データ群34によって表されているものとして、図4のフローチャートを説明する。
 続いてステップS302において、死角領域危険事象判定部13は、ステップS301で取得した走行環境データ群33と死角領域データ群34を照合することで、各死角領域A~Aにおける走行環境コンテキストを特定する。走行環境コンテキストとは、死角領域における走行環境に関する情報である。例えば、死角領域における車線の形状や属性(進行方向、制限速度、走行規制、車線変更可否等)や横断歩道領域、その車線や横断歩道領域に関連する信号情報や交通状態(平均速度等)、当該死角領域周辺の障害物の状態、当該死角領域に関する統計的知識情報等が含まれる。
 続いてステップS303において、死角領域危険事象判定部13は、各死角領域A~A内の各範囲要素に対して、ステップS302で特定した走行環境コンテキストに基づいて、危険事象モデルr~rを判定する。そして続くステップS304において、死角領域危険事象判定部13は、走行環境コンテキストに基づいて、ステップS303で判定した各危険事象モデルr~rの発生可能性を判定する。危険事象モデルとは、該当する死角領域に存在すると危険と考えられる障害物の種類と行動のパターンを示すものである。すなわち、ステップS303、S304の処理は、死角領域が置かれている走行環境の推定結果に基づいて、当該死角領域にどのような障害物が潜んでいて、その障害物がどのような行動を取ってくる可能性があるかを判断することを意味している。なお、上記では死角領域A~Aに対して危険事象モデルr~rを一対一に判定することとしたが、1つの死角領域に対して複数の危険事象モデルを判定してもよい。
 ステップS303、S304の処理の具体例を以下に説明する。例えば、死角領域が横断歩道領域の場合は、当該死角領域において自転車が横断歩道を横断するという危険事象モデルを想定する。危険事象モデルとして歩行者を想定してもよいが、最も危険な事象を想定しておくことで他の危険事象にも対応可能となるため、好ましくは、死角領域からの飛出し速度が最も厳しい自転車で想定しておく。この危険事象モデルの発生可能性は、例えば、同横断歩道に関連する歩行者用信号の状態に応じて判断する。歩行者用信号が青もしくは赤に変化した直後の場合は、歩行者や自転車が横断する可能性が高いのに対し、一定時間赤だった場合はその可能性が低い。こうした判断は、特に車両2が交差点で右左折するような場合において有用である。
 また例えば、死角領域が歩道領域に接している場合は、歩行者が車道に飛び出してくる危険事象モデルを想定する。危険事象モデルの発生可能性は、例えば、当該死角領域の周辺に駐車車両(特にバスやタクシーのような車両)が存在するかどうかで判断する。駐車車両が存在する場合は、同車両から降りた人や乗ろうとする人が道路を無理に横断する可能性が高くなると判断可能である。また、スクールゾーンや統計的に事故が多発しているという知識情報も、この危険事象モデルの発生可能性が高いと判断する材料となり得る。
 潜在障害物が車両の場合、歩行者や自転車等の場合と比較して、走行環境に応じた挙動の変化幅は大きい。そのため、挙動を共通的に扱った場合に、車両の場合は特に受ける影響が大きく、誤った判断につながる危険性が高い。車両に関する危険事象モデルを特定する処理の詳細については、図5にて後述する。
 次に、ステップS305において、死角領域危険事象判定部13は、ステップS303で判定した危険事象モデルr~rにそれぞれ対応する危険事象情報R~Rを生成する。ステップS303の危険事象モデルr~rの判定では、各死角領域A~Aにおける潜在障害物の種類と行動のパターンしか特定されないが、ステップS305では、走行環境の動的側面(交通状態等)も踏まえて、当該潜在障害物の具体的なパラメータを決定し、危険事象情報R~Rに反映する。
 なお、すべての死角領域の危険事象モデルのリスクを一様に評価すると、過度にリスクを考慮する可能性があるため、ステップS305の処理では、ステップS304で判定した危険事象モデルごとの発生可能性を考慮して、選択的に危険事象情報を生成することが望ましい。例えば、ステップS304で発生可能性が高いと判定された危険事象モデルのみを、ステップS305において危険事象情報の生成対象とする。その場合、上述の横断歩道領域に基づく危険事象モデルの例では、歩行者用信号が青もしくは赤に変化した直後の場合に、該当する危険事象情報が生成されることになる。または、ステップS304で判定した発生可能性に関する情報を危険事象情報に加えて、後段の潜在障害物の危険度判断時に、その発生可能性が高いほど危険度が高くなるように設定することで、危険事象モデルごとの発生可能性を考慮してもよい。
 最後に、ステップS306において、死角領域危険事象判定部13は、ステップS305で生成した危険事象情報R~Rを記憶部30の死角領域危険事象データ群35に格納する。その後、死角領域危険事象判定部13の処理を終了する。
 図5は、図4のステップS303において車両に関する危険事象モデルを特定するための危険事象モデル決定表の一例である。図5の表では、自車両2に対する死角領域の車線の位置と進行方向の関係を横方向に分類し、自車両2に対する死角領域の道路上での位置関係(道路上前後関係)を縦方向に分類している。これらの分類の組合せごとに、自車両2の周囲における各死角領域の潜在障害物が車両である場合の各潜在障害物の危険事象モデルが、図5の危険事象モデル決定表において設定されている。
 自車両2と反対方向の車線上の死角領域に存在する潜在障害物の場合、最も危険なのは、死角から自車両に向かって高速に移動する対向車である。ただし、自車両2の側方や後方の死角領域の場合は、仮に対向車が存在していたとしても、その対向車は自車両に衝突することなく通過していくため、自車両2にとっての危険性はない。そのため、図5の列404に示すように、反対方向の車線については、道路上前後関係が「前方」の場合、すなわち道路上で自車両2の前方に位置する死角領域の場合のみ、危険事象モデルとして「最大車速車線走行」が決定される。一方、道路上前後関係が「側方」、「後方」の場合は、危険事象モデルが「N/A」となっている。これは、道路上で自車両2の側方や後方に位置する死角領域には危険事象モデルが設定されないことを表している。なお、「最大車速車線走行」とは、その車線において想定し得る最高速度で走行する車両のモデルを意味する。各車線の想定し得る最高速度は、例えば走行環境データ群33に含まれる交通情報に基づき、当該車線が属する道路の法定速度や当該車線の交通状態(渋滞状況)を考慮して判断することができる。
 図5において、「前方」「側方」「後方」とは、道路に沿った自車両2と死角領域との位置関係を示しており、必ずしも空間上における位置関係を示しているわけではない。例えば、道路がカーブしている場合、その道路上の走行先にある死角領域が空間上では自車両2の側方に位置することもあるが、このような場合でも、図5では当該死角領域の位置関係を「前方」として扱う。また、前方交差点における接続先道路の死角領域についても同様に、自車両2との空間上の位置関係に拠らず、「前方」として扱う。またこの場合、自車両2に対する死角領域の車線の進行方向は、当該交差点から離れていく進行方向の車線を「同一方向」、当該交差点に向かっていく進行方向の車線を「反対方向」としてそれぞれ扱う。
 自車両2と同一方向の車線上の死角領域における潜在障害物の場合は、自車両2に対する道路上での位置関係に応じて、最も危険な走行速度が変わってくる。具体的には、道路上前後関係が「前方」の場合は、逆走の可能性を考慮しないものとすると、潜在障害物の走行速度が0の場合、すなわち停止車両が最も危険な事象となる。一方、道路上前後関係が「後方」の場合は、潜在障害物の走行速度が高い場合、すなわち自車両2に対して高速に向かってくる車両が最も危険な事象である。また、道路上前後関係が「側方」の場合は、潜在障害物の走行速度が同程度の場合、すなわち自車両2の側方に長い間留まっている車両が最も危険な事象である。
 なお、道路上前後関係が「側方」の場合には、自車両2の側方に長い間留まっている車両だけでなく、自車両2よりも高速で側方を通過する車両も危険を伴うと考えられる。しかしながら、このように自車両2と速度差がある車両については、図2のように自車両2の後側方に外界センサ群4で検出可能な領域が存在すれば、その領域内で検出した時の情報からトラッキングすることで、当該車両を顕在的な障害物情報として扱える場合が多い。したがって、潜在的な危険事象として考慮する必要はない。一方、上記のように自車両2との速度差がない車両の場合、死角領域に長時間隠れてしまうことで、検出時の情報のトラッキングが途切れてしまう。そのため、死角領域の潜在的な危険事象として考慮する必要がある。また、自車両2の後側方に外界センサ群4で検出可能な領域が存在しない場合、すなわち後側方のすべてが死角領域の場合には、当該死角領域は「後方」としても扱われる。そのため、自車両2よりも高速に側方を通過する車両の危険性も考慮することが可能である。
 また、自車両2と同一方向の車線が複数存在する場合は、車両が車線変更する可能性がある。そのため、危険事象モデルとしては、同一車線を追従する車両のモデルに加えて、車線変更する車両のモデルも考慮する必要がる。ただし、車線変更が可能な領域は車線境界線の線種や標識により規定されている。そのため、走行環境データ群33により車線変更不可と判断できる領域は、図4のステップS304において、当該領域で車両が車線変更する危険事象モデルの発生可能性を低いと判断して、続くステップS305で危険事象情報の生成を抑制するか、その危険度を低く評価することが望ましい。
 図5の危険事象モデル決定表では、以上説明したような考え方に基づき、自車両2と同一方向の車線上の死角領域に潜在障害物として存在する他車両の危険事象モデルが、列401~403のように設定されている。なお、図5の危険事象モデル決定表は、自車両2に対する他車両の危険性を判断するためのものであるため、自車両2と同一車線もしくは隣接車線に向かう方向の車線変更を考慮しており、他の方向の車線変更については対象外としている。
 例えば、道路上前後関係が「前方」の場合は、前述のように停止車両が最も危険な事象であるが、他車両が車線変更を行う場合には他車両にある程度の速度が必要となる。そのため、図5の表では、同一車線追従に対応する危険事象モデルである「停止」とともに、車線変更に対応する危険事象モデルとして「低車速車線変更」が設定されている。
 なお、図5の表では、自車両2の存在との関係で発生し得ない危険事象モデルを除外している。具体的には、車線の位置が「同一車線」であり、かつ道路上前後関係が「側方」である場合は、自車両2と他車両の存在領域が重複するため、危険事象モデルが設定されていない。また、車線の位置が「同一車線」であり、かつ道路上前後関係が「後方」である場合は、他車両が同一車線の走行を続けると自車両2が他車両の走行を妨げることになるため、同一車線追従に対応する危険事象モデルが設定されていない。さらに、車線の位置が「隣接車線」であり、かつ道路上前後関係が「側方」または「後方」である場合は、自車両2や遮蔽物が車線変更する他車両の走行を妨げるため、車線変更に対応する危険事象モデルが設定されていない。
 以上説明したように、死角領域危険事象判定部13は、死角領域特定部12が特定した各死角領域の車線情報と、自車両2に対する各死角領域の道路上の位置関係とに基づき、各死角領域に存在し得る潜在的な障害物の想定挙動を判断し、その判断結果に応じた危険事象モデルを特定して危険事象情報を死角領域危険事象データ群35に格納する。これにより、各死角領域における走行環境のコンテキストを判定し、それに基づいて死角領域に潜む移動体の挙動を適切に推定できるため、後段の処理において、死角領域によってもたらされる潜在的なリスクを適切に評価することが可能となる。
 次に具体的な走行シーン例を用いて、図1、図3の死角領域危険事象判定部13、潜在障害物生成部14、潜在危険度マップ生成部15および走行制御計画部16の処理を説明する。
(第1動作例)
 図6は、車両システム1の第1動作例に対応する走行シーンを示している。図6に示す走行シーンでは、自車両2の進行方向と同一方向に二車線(車線580、581)、反対方向に一車線(車線582)を有する道路において、自車両2が車線581を走行中のシーンを示している。この走行シーンに対して、外界センサ群4により、図2(a)と同様の検出範囲510、511、512に対してセンサ認識データ群31が取得され、これらの検出範囲510~512に含まれないハッチング領域500が、死角領域特定部12によって死角領域として特定される。なお、車線580~582の形状や属性は、走行環境データ群33から特定することができる。
 死角領域特定部12の処理が完了すると、死角領域危険事象判定部13は、前述の図4に示したフローチャートに従い処理を行う。以下では、第1動作例における危険事象モデルは、図4の処理において図5の危険事象モデル決定表に基づき判定されるものとして説明する。
 死角領域危険事象判定部13は、図4のステップS301において、まず図6に示されるような走行シーンに対応する死角領域データ群34と走行環境データ群33を取得する。続く図4のステップS302では、危険事象モデルを判定するための死角領域の走行環境コンテキストを特定する処理を行う。ここで、図5の決定表を用いる場合は、車線間の位置関係が死角領域の走行環境コンテキストに相当する。そのため、ステップS302では、走行環境データ群33から自車両2の周辺の車線情報を参照し、死角領域500が各車線領域と交わる領域を死角領域501~508として抽出する。そして、抽出した死角領域501~508のそれぞれに対して、該当する車線の位置関係の情報を紐づける。具体的には、例えば、車線情報に含まれる車線中心線の形状を死角領域データ群34上で走査して、死角領域501~508と非死角領域である検出範囲510~512との境界を探索することにより、死角領域501~508に対する走行環境コンテキストの特定を実現する。図6中の星印551~558は、各車線中心線上における死角領域501~508と非死角領域との境界点を示している。
 続いて、図4のステップS303において、死角領域危険事象判定部13は、各死角領域の危険事象モデルを判定する。ここでは図5の危険事象モデル決定表を参照し、死角領域501~508の走行環境コンテキストにそれぞれ対応する危険事象モデルを以下のように判断する。
 死角領域501、504は、自車両2に対する車線の進行方向が「同一方向」であり、道路上前後関係が「前方」である。そのため、図5の表から「停止」及び「低車速車線変更」の危険事象モデルに該当すると判定される。一方、死角領域502は、自車両2に対する車線の進行方向と位置関係がそれぞれ「同一方向」、「隣接車線」であり、道路上の前後関係が「側方」である。なお、ここでは死角領域502が「後方」の判断基準に該当しないものとする。そのため、図5の表から「同程度車速車線走行」の危険事象モデルに該当すると判定される。
 死角領域503は、自車両2に対する車線の進行方向と位置関係がそれぞれ「同一方向」、「隣接車線」であり、道路上前後関係が「後方」である。そのため、図5の表から「最大車速車線走行」の危険事象モデルに該当すると判定される。また、死角領域505は、自車両2に対する車線の進行方向と位置関係がそれぞれ「同一方向」、「同一車線」であり、道路上前後関係が「後方」である。そのため、図5の表から「最大車速車線変更」の危険事象モデルに該当すると判定される。
 死角領域506は、自車両2に対する車線の進行方向が「反対方向」であり、道路上前後関係が「前方」である。そのため、図5の表から「最大車速車線走行」の危険事象モデルに該当すると判定される。一方、死角領域507、508は、自車両2に対する車線の進行方向が「反対方向」であり、道路上前後関係がそれぞれ「側方」、「後方」である。そのため、図5の表から該当する危険事象モデルは存在しないと判定される。
 続いて、図4のステップS304において、死角領域危険事象判定部13は、各危険事象モデルの発生可能性を判定する。ここでは走行環境データ群33を参照して各車線の属性を特定し、各危険事象モデルの発生可能性を以下のように判断する。
 図6において、車線580と車線581の境界線は、自車両2の後方から側方にかけては実線で、自車両2の側方から前方にかけては破線でそれぞれ表現されている。実線は車線変更不可、破線は車線変更可能であることをそれぞれ示している。そのため、車線581上の死角領域505から車線580への車線変更は、法規上許されていないと判断できる。したがって、ステップS303で死角領域505の危険事象モデルと判定された「最大車速車線変更」は、発生する可能性が低いと判断できる。
 なお、死角領域501と死角領域504の「低車速車線変更」の危険事象モデルは、それぞれ死角領域504と死角領域501の「停止」の危険事象モデルと位置関係で重複し、かつ「停止」の方の危険度が高い。そのため、これらの危険事象モデルについては、以降の処理対象から外すように発生可能性が低いと判断してもよい。
 最後に、図4のステップS305において、死角領域危険事象判定部13は、各危険事象モデルに対応する危険事象情報を生成する。そして、ステップS306で記憶部30の死角領域危険事象データ群35に記録する。ここで、ステップS304で発生可能性が低いと判断された危険事象モデルを危険事象情報の生成対象から外すものとすると、ステップS305で危険事象情報が生成される危険事象モデルと死角領域の組合せは、(「停止」、死角領域501)、(「同程度車速車線走行」、死角領域502)、(「最大車速車線走行」、死角領域503)、(「停止」、死角領域504)、(「最大車速車線走行」、死角領域506)の5つのセットである。第1動作例では、図6の走行シーンに対して、これらの組合せに関する危険事象情報が生成され、死角領域危険事象データ群35に記録される。
 図7は、第1動作例の走行シーンにおいて生成、記録された死角領域危険事象データ群35の一例を示している。図7の死角領域危険事象データ群35は、例えば、死角領域の識別子である死角領域ID801と、障害物種別802と、危険事象モデル803と、最高速度時のパラメータ804と、最低速度時のパラメータ805とを含んで構成される。なお、最高速度時のパラメータ804と最低速度時のパラメータ805は、位置、速さ、進行方向の各情報からそれぞれ構成される。また、危険事象モデル803は、自車両2にとって最も危険な潜在障害物の場所と挙動を代表的に表現したものだが、実際には障害物の場所と挙動はさまざまな範囲を取り得る。最高速度時のパラメータ804や最低速度時のパラメータ805は、これらの範囲を明示的に示す必要がある場合に用いる。
 図7から、例えば死角領域502の潜在障害物は、座標552-1から座標552-2の間を取り得ることが分かる。このとき、死角領域502の潜在障害物が所定時間後の走行位置として最も遠くまで到達可能なのは、最前方の座標552-1から取り得る最高速度で走行した場合である。これを上限と呼ぶことにする。一方、同じ所定時間後の走行位置として最も近くに留まるのは、最後方の座標552-2から取り得る最低速度で走行した場合である。これを下限と呼ぶことにする。この上限と下限の走行位置によって挟まれた範囲が、死角領域502の潜在障害物の存在可能範囲である。なお、図7では、自車両2の速度が40km/hであり、自車両2と同程度の車速を±5km/hとしたときの各死角領域のデータ例を示している。したがって、死角領域502のデータでは、最高速度時のパラメータ804における速さを45km/hとし、最低速度時のパラメータ805における速さを35km/hとしている。このように、危険事象モデルに従う潜在障害物の存在可能範囲を明示的に示す必要がある場合は、最低速度時のパラメータを設定する。
 一方、それ以外の死角領域501、503、504、506は、境界が車線に対して片側しか存在しないため、死角領域502のように上限と下限で範囲を規定できない(上限もしくは下限が存在しない)。このような場合は、最高速度時のパラメータ804として片側の境界情報を設定し、最低速度時のパラメータ805には何も設定しない。このとき、最高速度時のパラメータ804の位置には、各死角領域の境界点の座標(図6の星印551、553、554、556)をそれぞれ設定し、速さには危険事象モデルに応じた値をそれぞれ設定する。例えば、危険事象モデルが「停止」である死角領域501、504には0km/hを設定し、危険事象モデルが「最大車速車線走行」である死角領域503、506には、該当車線の法定速度+αを設定する。図7の例では、法定速度50km/h、α=10km/hを想定し、60km/hが設定されている。なお、死角領域503、506における法定速度は、走行環境データ群33に基づいて決定することができる。このとき、走行環境データ群33に含まれる交通情報に基づいて死角領域503、506の交通状態を判断し、その判断結果に応じた最高速度を設定してもよい。
 また、各死角領域の進行方向には、該当車線の進行方向をそれぞれ設定する。例えば、死角領域501、502、503には車線580の進行方向を、死角領域504には車線581の進行方向を、死角領域504には車線582の進行方向をそれぞれ指定する。
 以上により、死角領域危険事象判定部13の処理が完了し、図7に示すような死角領域危険事象データ群35が生成される。続いて、潜在障害物生成部14の処理に移る。
 潜在障害物生成部14は、死角領域危険事象判定部13の処理により生成された死角領域危険事象データ群35を用いて、潜在障害物を生成し、潜在障害物データ群36を作成する処理を行う。基本的には、死角領域危険事象データ群35に設定された情報を、センサ認識データ群31の障害物情報のようなデータ形式で、仮想的な障害物情報として表現する。
 図8は、第1動作例の走行シーンにおいて生成、記録された潜在障害物データ群36の一例を示している。図8は、図7の死角領域危険事象データ群35に従って生成され、潜在障害物データ群36に記録された潜在障害物851、852、853、854、856を、図6の走行シーン上に重畳して示したものである。図8では、図6の死角領域501、502、503、504、506にそれぞれ対応する潜在障害物851、852、853、854、856が示されている。なお、死角領域505、507、508については、図7の死角領域危険事象データ群35に含まれていないため、潜在障害物は生成されない。また、死角領域502における潜在障害物852として、最高速度時のパラメータを有する潜在障害物852-1と、最低速度時のパラメータを有する潜在障害物852-2との2つが表現されている。
 潜在障害物生成部14の処理が完了すると、潜在危険度マップ生成部15の処理に移る。以下では図9、図10を用いて、潜在危険度マップ生成部15の処理を説明する。
 潜在危険度マップ生成部15は、潜在障害物生成部14の処理により生成された潜在障害物データ群36を用いて、自車両2の周囲の各位置において各潜在障害物によってもたらされる潜在危険度を算出し、潜在危険度マップデータ群37を作成する処理を行う。
 図9は、第1動作例の走行シーンの車線上の各位置における潜在障害物と自車両2の推定到達時間の関係を示している。図9(a)は、図8に示した自車両2と各車線上の潜在障害物との位置関係を、横向きに示したものである。図9(b)~(d)は、車線580~582のそれぞれにおける経過時間ごとの各潜在障害物と自車両2の位置を示したものである。図9(b)~(d)において、横軸は車線上の位置を表し、縦軸は現在時刻からの経過時間を表している。また、各潜在障害物が存在する可能性のある範囲をハッチングで示し、自車両2の想定位置の時間変化を黒の実線で示している。
 潜在危険度マップは、車両2の周辺において、車両2が死角領域に潜む潜在的な障害物と衝突する危険度を表したマップである。そのため、潜在危険度マップを生成する対象範囲は、車両2が到達可能な範囲とすることが好ましい。図9(a)の黒枠880は、運動特性を踏まえた車両2の到達可能な範囲を示している。本動作例では、黒枠880内の領域に関して潜在危険度マップを生成するものとする。
 図9(b)では、車線580上の潜在障害物851、852-1、852-2、853の想定位置の時間変化が、破線861、862-1、862-2、863にそれぞれ示されている。潜在障害物852-1と852-2は、上述のようにそれぞれ死角領域502における潜在障害物852の存在可能範囲の上限と下限を表しており、これらの潜在障害物に対応する2つの破線862-1、862-2で囲まれた領域(ハッチング領域872)が、潜在障害物852の存在可能範囲に相当する。一方、潜在障害物851は速度0で上限が存在しないため、破線861の右側(ハッチング領域871)が潜在障害物851の存在可能範囲となる。なお、図9(b)ではマージンを考慮して、破線861の左側にもハッチング領域871が設定されている。また、潜在障害物853も、上限の破線863に対して下限側が存在しないため、破線863の左上側(ハッチング領域873)が潜在障害物853の存在可能範囲となる。
 図9(c)では、車線581上の潜在障害物854の想定位置の時間変化が、破線864に示されている。潜在障害物854は速度0であり、その存在可能範囲には上限が存在しないため、破線864の右側(ハッチング領域874)が潜在障害物854の存在可能範囲となる。なお、図9(c)でも図9(b)と同様に、マージンを考慮して、破線864の左側にもハッチング領域874が設定されている。
 図9(d)では、車線582上の潜在障害物856の想定位置の時間変化が、破線866に示されている。潜在障害物856は対向車が最大車速で走行する場合を表しており、その存在可能範囲には下限の破線866に対して上限が存在しないため、破線866の右上側(ハッチング領域876)が潜在障害物856の存在可能範囲となる。
 潜在危険度マップの各位置(グリッドマップの各格子点に相当)における潜在危険度は、当該位置において潜在障害物が存在し得る時間範囲と、自車両2が当該位置に存在すると想定される時間範囲との重なり具合から求める。例えば、図9(b)の横軸上に示した位置841において潜在障害物が存在し得る時間範囲は、潜在障害物853の存在可能範囲を示すハッチング領域873のうち位置841に対応する部分891-1と、潜在障害物852の存在可能範囲を示すハッチング領域872のうち位置841に対応する部分891-2との2つである。それに対して、自車両2の想定位置の時間変化を示す実線881は、潜在障害物852の存在時間範囲を示す部分891-2に内包されている。つまり、位置841においては、自車両2がその位置に存在すると想定される時間範囲が潜在障害物852と重なっているため、自車両2と潜在障害物852が衝突する可能性(潜在危険度)があることを示している。
 潜在危険度は、危険の有/無の2値で表現してもよいし、所定段階数のレベルで表現してもよい(例えば、危険度高、中、低)。また、所定範囲内の数値で表現してもよい(例えば、0~100)。数値で表現する場合は、図4の死角領域危険事象判定部13の処理において、ステップS304で算出した発生可能性に基づいた重み定数wと、潜在障害物と自車両2の存在時間範囲との重なり度合いを表す重複度pとの積により、潜在危険度の値を算出することが望ましい。上記の重複度pは、例えば、潜在障害物の存在時間範囲と自車両2の存在時間範囲との距離dに対して、dが0のときに最大値を取りdが大きくなるほど値が小さくなるような関数(例えば、ガウス関数)に基づき、算出することが可能である。
 図10は、第1動作例の走行シーンにおいて生成、記録された潜在危険度マップデータ群37の一例を示している。図10は、図9に示した潜在障害物と自車両2の推定到達時間の関係に基づき、各潜在障害物によってもたらされる潜在危険度を算出した結果を示したものである。なお図10では、簡単のため2値表現で潜在危険度を示している。
 図10において、潜在危険度マップの表現対象である領域880内でハッチングがかかっている領域951、952、954、956は、潜在危険度有りの領域(潜在危険度領域)をそれぞれ示している。潜在危険度領域951は、潜在障害物851による潜在危険度(正確には潜在障害物852も含む)を、潜在危険度領域952は、潜在障害物852による潜在危険度を、潜在危険度領域954は、潜在障害物854による潜在危険度を、潜在危険度領域956は、潜在障害物856による潜在危険度をそれぞれ表している。なお図10では理解をしやすくするため、潜在障害物851、852-1、852-2、854、856や道路の各車線の位置を潜在危険度マップ上に示しているが、これらは潜在危険度マップ上に必ずしも表現する必要はない。
 潜在危険度マップ生成部15の処理が完了すると、走行制御計画部16の処理に移る。走行制御計画部16は、(1)自車両2が走行する物理的な経路(走行経路)を特定し、(2)当該走行経路における速度計画を行って走行経路に速度情報が加わった走行軌道を生成し、(3)当該走行軌道を追従するためのアクチュエータ群7の制御指令値を算出する、という手順で、走行制御データ群38を作成する処理を実行する。
 手順(1)の走行経路の特定では、例えば、自車速や車線形状等の情報に基づき予め取り得る走行経路の候補を複数生成しておき、手順(2)の速度計画も含めて評価し、総合的に最も望ましい走行軌道を最終的に選択する。潜在危険度マップデータ群37は、この評価に用いられる。本来は、走行軌道の評価において、潜在危険度だけでなく、外界センサ群4で検出されている障害物や交通ルール等、様々な環境要素が総合的に考慮されるが、ここでは簡単のため潜在危険度に絞って説明する。
 図11は、第1動作例の走行シーンにおいて自車両2が取り得る走行経路候補と潜在危険度の関係を示している。図11は、潜在危険度マップ生成部15により生成された潜在危険度マップデータ群37の上に、自車両2が取り得る走行経路候補1001~1003を重畳表示したものである。図11において、領域951、952、954、956は図10に示したものと同一であり、潜在危険度が高い領域をそれぞれ示している。走行経路候補1001~1003は、領域952、954、956と位置1011~1013においてそれぞれ交わっている。
 潜在危険度は、外界センサ群4で実際に検出されている障害物との衝突危険度とは異なり、必ずしも存在するとは限らない潜在障害物に対する衝突危険度を表している。自車両2の走行制御では、確実に存在する障害物に対しては、乗員の乗り心地を損なわずに自車両2が確実に回避可能な軌道を生成することが望ましいが、潜在障害物に対しては、万一本当に存在していた場合に、乗り心地はある程度犠牲にしても最低限の安全性を担保できればよい。これは、潜在障害物は実際には存在する可能性が低く、通常の障害物と同等の制御をしてしまうと、過度にリスクを意識した走行となり、乗り心地や走行安定性が悪化するためである。そのため本実施形態では、走行制御計画部16において、潜在危険度マップデータ群37が表す潜在危険度マップ上で潜在危険度が高い領域に対して、自車両2が最低限の安全性を担保できるような走行軌道を生成する方針を採る。
 潜在危険度に対する最低限の安全性を担保するために、走行制御計画部16では、例えば潜在危険度の高い領域952、954、956に入る前に自車両2が停止できるような速度で、走行経路候補1001~1003を生成する。領域952、954、956は、上述のように、潜在障害物と衝突する可能性がある領域を示しているため、最悪のケースでは、自車両2がその場所に進入してしまうと、潜在障害物が実在していた場合にその障害物と衝突する危険性がある。しかしながら、外界センサ群4で衝突リスクを検出した場合など、いざというときに自車両2を減速して該当位置の手前で停止できるのであれば、走行経路候補1001~1003に従って自車両2を走行させたとしても、衝突を未然に回避することができる。
 自車両2において許容できる減速度をαとし、自車両2の現在の速度をvとすると、自車両2が停止するまでの距離はv/2αで求められる。走行経路候補1001~1003のうちいずれかを自車両2の走行経路とした場合に、自車両2の現在位置から当該走行経路が潜在危険度の高い領域952、954、956とそれぞれ交わる位置、すなわち図11の位置1011~1013までの距離をLとすると、走行制御装置3は、少なくともL>v/2αを満たすように、自車両2の速度を制御する必要がある。ただし、これでは当該条件を満たさなくなった時点で急減速がかかってしまうため、実際には当該条件を満たさなくなる前に、緩やかに減速しておくことが望ましい。例えば、自車両2が当該条件を満たさなくなる地点に到達するまでの時間であるTTB(Time To Braking)を指標として導入し、これに基づいて自車両2の速度を調整する方式が挙げられる。なお、TTBの値は(L-v/2α)/vで算出可能である。急減速を回避するために、例えば、TTBが所定値以下になった場合に緩やかに減速(<α)をかけるようにしてもよいし、TTBが所定値以上となるように速度を制御してもよい。
 図12は、第1動作例の走行シーンにおける走行経路候補と目標速度の算出方法の一例を示している。図12は、図11の走行経路候補1001~1003において、自車両2が潜在危険度の高い領域に進入する手前で停止するための減速開始点の位置と、TTBが所定値T以上となるように自車両2の速度を制御した場合の減速開始点の位置との関係を表した図である。図12(a)は、走行経路候補1002に関する上記の関係を表し、図12(b)は、走行経路候補1001、1003に関する上記の関係を表している。これらの図では、横軸が走行経路上の距離を表し、縦軸が自車両2の速度を表している。
 図11に示したように、走行経路候補1002は、位置1012で潜在危険度の高い領域954と交わっている。図12(a)において減速開始点位置1201に示すように、自車両2が走行経路候補1002に沿って走行した際に位置1012の手前で停止するための減速開始点は、位置1012からv/2αだけ手前の位置となる。それに対して、TTB≧Tを満たすためには、図12(a)において減速開始点位置1202に示すように、減速開始点が現在位置からT・vだけ前方にないといけない。この両者の交点1203が、条件を満たす目標速度となる。
 一方、図11に示したように、走行経路候補1001と1003は、潜在危険度の高い領域952、956との交点である位置1011、1013が、上記の位置1012よりも手前側に存在している。そのため、図12(b)に示すように、条件を満たす目標速度が走行経路候補1002の場合と比べて著しく低くなり、望ましくない結果となる。そのため、走行制御計画部16は、走行経路候補1002に沿って図12(a)の目標速度で自車両2を走行させるための走行軌道を計画し、その走行軌道に追従するための制御指令値を算出して、走行制御データ群38を生成する。こうして生成された走行制御データ群38によって表される制御指令値は、情報出力部17の処理により、アクチュエータ群7に出力される。
 なお、図12(a)の目標速度が理想的な速度(例えば、法定速度)よりも下回っているのは、外界センサ群4による検出範囲が、自車両2を理想的な速度で安全に走行させるための要求を満たしていないことを意味している。これは、外界センサ群4の元々の性能限界に起因し、手動運転に置き換えて考えると、悪天候や急カーブ等により前方が視界不良のときには安全のため人が減速して走行することに相当する。すなわち、悪天候時や急カーブ等においては、外界センサ群4の死角領域が自車両2に近づくため、走行経路における潜在危険度の高い領域との交点も近くなる。そのため、図12(a)の減速開始点位置1201が左にシフトし、それによって減速開始点位置1202との交点1203が左にずれることで、目標速度が下がる。
 以上説明したように、本実施形態の車両システム1では、死角領域に潜む潜在障害物の危険度を表現した潜在危険度マップを用いることで、外界センサ群4の死角や検出状況を踏まえた安全な走行制御を容易に実現することができる。
(第2動作例)
 次に、前述した走行シーン例とは別の走行シーン例を用いて、図1、図3の死角領域危険事象判定部13、潜在障害物生成部14、潜在危険度マップ生成部15および走行制御計画部16の具体的な処理を説明する。
 図13は、車両システム1の第2動作例に対応する1つ目の走行シーンを示している。図13では、互いに対向する車線1381、1382よりなる縦方向の道路と、互いに対向する車線1383、1384よりなる横方向の道路とが、信号有の十字路交差点で交差しており、当該交差点を自車両2が車線1381から車線1383に向かって右折する走行シーンを示している。この走行シーンに対して、外界センサ群4により、検出範囲1301に対してセンサ認識データ群31が取得され、この検出範囲1301に含まれないハッチング領域が、死角領域特定部12によって死角領域として特定される。この死角領域には、自車両2の対向車線1382において右折しようと交差点中心付近で待機している対向車両1370が遮蔽物となって形成された死角領域1331が含まれている。なお、第2動作例では、第1動作例に対して、自車両2の側方を検出可能なセンサが外界センサ群4に追加されており、このセンサによる検出範囲1302、1303が外界センサ群4の検出範囲1301に含まれている。
 図13の走行シーンにおいて、車線1381~1384の形状や属性は、走行環境データ群33から特定することができる。また、交差点の信号は、縦方向の道路側が青であり、横方向の道路側が赤の状態であるものとする。なお、信号の状態についても、走行環境データ群33から特定することができる。
 死角領域特定部12の処理が完了すると、死角領域危険事象判定部13は、前述の図4に示したフローチャートに従い処理を行う。
 死角領域危険事象判定部13は、図4のステップS301において、まず図13に示されるような走行シーンに対応する死角領域データ群34と走行環境データ群33を取得する。続く図4のステップS302では、第1動作例と同様にして、走行環境データ群33から車両2周辺の車線情報を参照し、車線ごとの死角領域1341~1345を抽出するとともに、死角領域1341~1345と非死角領域である検出範囲1301との境界点1321~1325を特定する。
 続いて、図4のステップS303において、死角領域危険事象判定部13は、各死角領域の危険事象モデルを判定する。ここでは第1動作例と同様に、図5の危険事象モデル決定表を参照することで、死角領域1341~1345にそれぞれ対応する危険事象モデルを以下のように判断する。
 自車両2は交差点を車線1381から車線1383に向かって右折することから、車線1381の対向車線である車線1382上の死角領域1341と、車線1383の対向車線である車線1384上の死角領域1343とは、自車両2に対する車線の進行方向が「反対方向」であり、道路上前後関係が「前方」であると判断される。そのため、図5の表から「最大車速車線走行」の危険事象モデルに該当すると判定される。また、車線1383上の死角領域1342は、自車両2に対する車線の進行方向が「同一方向」であり、道路上前後関係が「前方」である。そのため、図5の表から「停止」の危険事象モデルに該当すると判定される。なお、ここでは同一方向の車線が1つしか存在しないため、「低車速車線変更」の危険事象モデルには該当しないと判断される。
 図13の走行シーンでは、前述のように自車両2が交差点で右折を既に開始しており、直進や左折をすることができない状態を想定している。そのため、死角領域1344、1345は、道路上前後関係が「後方」の扱いとなる。また、自車両2に対する車線の進行方向は、死角領域1344が「同一方向(隣接車線)」であり、死角領域1345が「反対方向」である。そのため、図5の表から、死角領域1344は「最大車速車線走行」、死角領域1345は「該当なし(N/A)」の危険事象モデルに該当するとそれぞれ判定される。なお、自車両2が交差点に入る前だった場合は、直進、右左折のいずれにも向かうことが可能であるため、死角領域1344、1345は、道路上前後関係が「前方」の扱いになる。
 続いて、図4のステップS304において、死角領域危険事象判定部13は、各危険事象モデルの発生可能性を判定する。図13の走行シーンでは、図を横方向に横切っている道路に対する信号は赤の状態であるため、死角領域1343、1344から車両が飛び出してくる可能性は低いと判断できる。したがって、ステップS303で死角領域1343、1344に対してそれぞれ判定された危険事象モデルは、発生する可能性が低いと判断できる。
 最後に、図4のステップS305において、死角領域危険事象判定部13は、各危険事象モデルに対応する危険事象情報を生成する。そして、ステップS306で記憶部30の死角領域危険事象データ群35に記録する。ここで、ステップS304で発生可能性が低いと判断された死角領域1343、1344の危険事象モデルを危険事象情報の生成対象から外すものとすると、ステップS305で危険事象情報が生成される危険事象モデルと死角領域の組合せは、(「最大車速車線走行」、死角領域1341)(「停止」、死角領域1342)の2つのセットである。第2動作例では、図13の走行シーンに対して、これらの組合せに関する危険事象情報が生成され、死角領域危険事象データ群35に記録される。
 続いて、図14~図17を用いて潜在障害物生成部14および潜在危険度マップ生成部15の処理結果を説明する。図14は、第2動作例の1つ目の走行シーンにおいて生成、記録された潜在障害物データ群36および潜在危険度マップデータ群37の一例を示している。図14は、図13の走行シーンに対する死角領域危険事象データ群35に従って、潜在障害物生成部14により生成されて潜在障害物データ群36に記録された潜在障害物1421、1422と、これらの潜在障害物に対して生成されて潜在危険度マップデータ群37に記録された潜在危険度マップとを示している。図14において、潜在危険度マップの表現対象である領域1410内でハッチングがかかっている領域1431、1432は、潜在障害物1421、1422による潜在危険度が高い領域をそれぞれ示している。
 図15は、第2動作例の1つ目の走行シーンの車線上の各位置における潜在障害物と自車両2の推定到達時間の関係を示している。図15では、図14の車線1382について、自車両2と対向車両1370および潜在障害物1421との位置関係を横向きに示すとともに、経過時間ごとの潜在障害物1421と自車両2の位置を示している。図15の上図において、横軸は車線1382上の位置を表し、縦軸は現在時刻からの経過時間を表している。また、自車両2の想定位置の時間変化を黒の実線1501で示し、潜在障害物1421の想定位置の時間変化を破線1502で示すとともに、潜在障害物1421が存在する可能性のある範囲をハッチング領域1512で示している。なお、実線1501では、自車両2の側方から後方にかけての部分に相当するデータが存在しない。これは、自車両2の旋回半径の関係で到達できない部分のデータが設定されていないためである。
 図15では、自車両2の想定位置の時間変化を示す実線1501が、潜在障害物1421の存在可能範囲を示すハッチング領域1512に内包されている。これは、ハッチング領域1512において、潜在障害物1421による潜在危険度が高いということを意味している。したがって、図14に示すように、潜在障害物1421に対応する領域1431が潜在危険度マップ上に表現されている。
 図14の潜在危険度マップを見ると、自車両2の右折経路1310上に潜在危険度が高い領域1431が存在している。つまり、自車両2がこのまま発進すると、対向車両1370の死角に他の車両が潜んでいる場合に、その車両と衝突する危険性があることを意味している。
 図16は、車両システム1の第2動作例に対応する2つ目の走行シーンを示している。図16では、図13において自車両2の前方で右折待ちしている対向車両1370がいなくなった走行シーンと、その走行シーンにおける潜在障害物および潜在危険度マップとを示している。図16の走行シーンでは、図13に存在していた対向車両1370による死角領域1331がなくなるため、対向車線1382の死角領域と非死角領域の境界点は、外界センサ群4の検出限界点にまで後退する。その結果、潜在障害物生成部14の処理によって潜在障害物1621が生成され、この潜在障害物1621による潜在危険度が高い領域として、ハッチングで示した領域1631が潜在危険度マップ上に表現される。
 図17は、第2動作例の2つ目の走行シーンの車線上の各位置における潜在障害物と自車両2の推定到達時間の関係を示している。図17では、図16の車線1382について、自車両2と潜在障害物1621との位置関係を横向きに示すとともに、経過時間ごとの潜在障害物1621と自車両2の位置を示している。図17でも図15と同様に、上図の横軸は車線1382上の位置を表し、縦軸は現在時刻からの経過時間を表している。また、自車両2の想定位置の時間変化を黒の実線1701で示し、潜在障害物1621の想定位置の時間変化を破線1702で示すとともに、潜在障害物1621が存在する可能性のある範囲をハッチング領域1712で示している。
 図16の走行シーンでは、車線1382上の死角領域が、図13の死角領域1331よりも交差点から離れた位置に設定される。そのため、図17に示すように、潜在障害物1621の存在可能範囲を示すハッチング領域1712は、図15のハッチング領域1512と比較して、図の左側にずれている。その結果、車線1382上の自車両2の想定位置の時間変化を示す実線1701と、潜在障害物1621の存在可能範囲を示すハッチング領域1712とは、交差点付近では重なっていない。ここで、同じ位置に対する自車両2と潜在障害物1621のそれぞれ推定到達時間が所定の安全マージンΔt以上離れているときに潜在危険度が低いものとすると、図17の位置1730よりも右側の領域において、潜在危険度が低いと判断される。図16のハッチング領域1631は、これを潜在危険度マップ上で表現したものである。
 図16の潜在危険度マップでは、自車両2の右折経路1610上には潜在危険度が高い領域が存在していない。つまり、自車両2がこのまま発進しても、対向車線1382を走行してくる他の車両と衝突する危険性がないことを意味している。
 以上説明したように、本実施形態の車両システム1では、同一位置に対する潜在障害物と自車両2の推定到達時間をそれぞれ算出し、これらが時間的に交錯するかどうかに基づき算出した潜在危険度を潜在危険度マップに表現する。これにより、潜在危険度マップ上で自車両2の想定経路と潜在危険度が高い領域との交点を探索することで、死角領域内に潜在的に存在する障害物によってもたらされる危険性を判断することができる。そのため、例えば、右折待ち対向車により対向車線が適切に見えていないような状況での右折においても、発進可否を安全に判断することが可能である。
 以上説明した本発明の一実施形態によれば、以下の作用効果を奏する。
(1)車両2に搭載されるECUである走行制御装置3は、車両2に搭載される外界センサ群4の検出範囲に含まれない死角領域を特定する死角領域特定部12と、死角領域特定部12が特定した死角領域を含む車両2の周辺の道路の車線情報を取得する情報取得部11と、死角領域危険事象判定部13とを備える。死角領域危険事象判定部13は、情報取得部11が取得した死角領域の車線情報と、車両2に対する死角領域の道路上の位置関係とに基づき、死角領域に存在し得る潜在的な障害物の想定挙動を判断する。このようにしたので、死角領域に存在し得る潜在的な障害物の挙動を適切に判断することができる。
(2)走行制御装置3は、潜在的な障害物の想定挙動に基づいて、車両2の周辺における潜在的な走行危険度を表現した潜在危険度マップを生成する潜在危険度マップ生成部15をさらに備える。このようにしたので、死角領域に存在し得る潜在的な障害物が車両2に及ぼすリスクを適切に評価することができる。
(3)走行制御装置3は、潜在危険度マップ上で表現された潜在的な走行危険度が所定値以上の領域である潜在危険度領域に対して、危険回避可能な走行状態を維持しながら車両2を制御するための情報であるアクチュエータ群7の制御指令値を出力する情報出力部17をさらに備える。ここで、危険回避可能な走行状態とは、車両2が潜在危険度領域に到達する前に停止可能であるという条件を満たす走行状態であることが好ましい。このようにしたので、死角領域に障害物が存在した場合でも、その障害物との衝突を確実に回避できるように車両2を走行させることができる。
(4)潜在危険度マップ生成部15は、図9,15,17で説明したように、車両2の挙動に基づいて、車両2の周辺位置における車両2の推定到達時間を判断するとともに、潜在的な障害物の想定挙動に基づいて、車両2の周辺位置における潜在的な障害物の推定到達時間を判断する。そして、車両2の推定到達時間と潜在的な障害物の推定到達時間との重なりに基づいて、車両2の周辺位置における潜在的な走行危険度を判断する。このようにしたので、車両2の周辺位置における潜在的な走行危険度を適切に判断することができる。
(5)図5の危険事象モデル決定表で説明したように、死角領域危険事象判定部13は、死角領域の車線情報が表す進行方向と車両2の進行方向とが一致し、かつ、車両2に対して死角領域が道路上で前方に位置する場合、潜在的な障害物は停止していると判断する。また、死角領域の車線情報が表す進行方向と車両2の進行方向とが異なり、かつ、車両2に対して死角領域が道路上で前方に位置する場合、潜在的な障害物は死角領域の道路環境に応じた最高速度で走行していると判断する。このとき、例えば死角領域の車線情報が表す法定速度や、情報取得部11が取得した交通情報に含まれる死角領域の交通状態に関する情報に基づいて、最高速度を算出することができる。また、死角領域の車線情報が表す進行方向と車両2の進行方向とが一致し、かつ、車両2に対して死角領域が道路上で側方に位置する場合、潜在的な障害物は車両2と同程度の速度で走行していると判断する。このようにしたので、死角領域に存在し得る潜在的な障害物の想定挙動を適切に判断することができる。
 なお、以上で説明した実施形態は一例であり、本発明はこれに限られない。すなわち、本発明では様々な応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。例えば、上記実施形態では、死角領域を所定の形状で表現したが、図2で示したように格子状マップのセル単位で表現してもよいし、複数のセルの集合体で表現してもよい。
 また、例えば上記の実施形態では、走行制御装置3において、それぞれ一つの処理部10および記憶部30を用いて各処理を実行する例を記載しているが、処理部10や記憶部30を複数に分けて構成し、各処理を異なる処理部や記憶部で実行してもよい。その場合は、例えば、同様の構成を持つ処理ソフトウェアがそれぞれの記憶部に搭載され、それぞれの処理部で分担して当該処理を実行する形態としてもよい。
 また、上記の実施形態では、走行制御装置3の各処理を、プロセッサとRAMを用いて、所定の動作プログラムを実行することで実現しているが、必要に応じて独自のハードウェアで実現することも可能である。また、上記の実施形態では、外界センサ群4、車両センサ群5、アクチュエータ群7、HMI装置群8、外部通信装置9をそれぞれ個別の装置として記載しているが、必要に応じて任意のいずれか2つ以上を組合せて実現することも可能である。
 また、図面には、実施形態を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2019-169821(2019年9月18日出願)
 1:車両システム、2:車両、3:走行制御装置、4:外界センサ群、5:車両センサ群、6:地図情報管理装置、7:アクチュエータ群、8:HMI装置群、9:外部通信装置、10:処理部、11:情報取得部、12:死角領域特定部、13:死角領域危険事象判定部、14:潜在障害物生成部、15:潜在危険度マップ生成部、16:走行制御計画部、17:情報出力部、30:記憶部、31:センサ認識データ群、32:車両情報データ群、33:走行環境データ群、34:死角領域データ群、35:死角領域危険事象データ群、36:潜在障害物データ群、37:潜在危険度マップデータ群、38:走行制御データ群、40:通信部

Claims (10)

  1.  車両に搭載される電子制御装置であって、
     前記車両に搭載されるセンサの検出範囲に含まれない死角領域を特定する死角領域特定部と、
     前記死角領域を含む前記車両の周辺の道路の車線情報を取得する情報取得部と、
     前記死角領域の車線情報と、前記車両に対する前記死角領域の道路上の位置関係とに基づき、前記死角領域に存在し得る潜在的な障害物の想定挙動を判断する死角領域危険事象判定部と、を備える電子制御装置。
  2.  請求項1に記載の電子制御装置において、
     前記潜在的な障害物の想定挙動に基づいて、前記車両の周辺における潜在的な走行危険度を表現した潜在危険度マップを生成する潜在危険度マップ生成部をさらに備える電子制御装置。
  3.  請求項2に記載の電子制御装置において、
     前記潜在危険度マップ上で表現された前記潜在的な走行危険度が所定値以上の領域である潜在危険度領域に対して、危険回避可能な走行状態を維持しながら前記車両を制御するための情報を出力する情報出力部をさらに備える電子制御装置。
  4.  請求項3に記載の電子制御装置において、
     前記危険回避可能な走行状態とは、前記車両が前記潜在危険度領域に到達する前に停止可能であるという条件を満たす走行状態である電子制御装置。
  5.  請求項2に記載の電子制御装置において、
     前記潜在危険度マップ生成部は、
     前記車両の挙動に基づいて、前記車両の周辺位置における前記車両の推定到達時間を判断し、
     前記潜在的な障害物の想定挙動に基づいて、前記車両の周辺位置における前記潜在的な障害物の推定到達時間を判断し、
     前記車両の推定到達時間と前記潜在的な障害物の推定到達時間との重なりに基づいて、前記車両の周辺位置における潜在的な走行危険度を判断する電子制御装置。
  6.  請求項1に記載の電子制御装置において、
     前記死角領域危険事象判定部は、前記死角領域の車線情報が表す進行方向と前記車両の進行方向とが一致し、かつ、前記車両に対して前記死角領域が道路上で前方に位置する場合、前記潜在的な障害物は停止していると判断する電子制御装置。
  7.  請求項1に記載の電子制御装置において、
     前記死角領域危険事象判定部は、前記死角領域の車線情報が表す進行方向と前記車両の進行方向とが異なり、かつ、前記車両に対して前記死角領域が道路上で前方に位置する場合、前記潜在的な障害物は前記死角領域の道路環境に応じた最高速度で走行していると判断する電子制御装置。
  8.  請求項7に記載の電子制御装置において、
     前記死角領域危険事象判定部は、前記死角領域の車線情報が表す法定速度に基づいて前記最高速度を算出する電子制御装置。
  9.  請求項7に記載の電子制御装置において、
     前記情報取得部は、前記死角領域の交通状態に関する情報を含む交通情報を取得し、
     前記死角領域危険事象判定部は、前記交通情報が表す前記死角領域の交通状態に基づいて前記最高速度を算出する電子制御装置。
  10.  請求項1に記載の電子制御装置において、
     前記死角領域危険事象判定部は、前記死角領域の車線情報が表す進行方向と前記車両の進行方向とが一致し、かつ、前記車両に対して前記死角領域が道路上で側方に位置する場合、前記潜在的な障害物は前記車両と同程度の速度で走行していると判断する電子制御装置。
PCT/JP2020/031732 2019-09-18 2020-08-21 電子制御装置 WO2021054051A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/633,639 US20220314968A1 (en) 2019-09-18 2020-08-21 Electronic control device
CN202080052275.3A CN114126940A (zh) 2019-09-18 2020-08-21 电子控制装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-169821 2019-09-18
JP2019169821A JP7289760B2 (ja) 2019-09-18 2019-09-18 電子制御装置

Publications (1)

Publication Number Publication Date
WO2021054051A1 true WO2021054051A1 (ja) 2021-03-25

Family

ID=74876352

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/031732 WO2021054051A1 (ja) 2019-09-18 2020-08-21 電子制御装置

Country Status (4)

Country Link
US (1) US20220314968A1 (ja)
JP (1) JP7289760B2 (ja)
CN (1) CN114126940A (ja)
WO (1) WO2021054051A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7145815B2 (ja) * 2019-05-27 2022-10-03 日立Astemo株式会社 電子制御装置
US20210200241A1 (en) * 2019-12-30 2021-07-01 Subaru Corporation Mobility information provision system, server, and vehicle
CN112650243B (zh) * 2020-12-22 2023-10-10 北京百度网讯科技有限公司 车辆控制方法、装置、电子设备和自动驾驶车辆
JP2023114943A (ja) * 2022-02-07 2023-08-18 日立Astemo株式会社 車両制御装置
CN115257728B (zh) * 2022-10-08 2022-12-23 杭州速玛科技有限公司 一种用于自动驾驶的盲区风险区检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195289A (ja) * 2007-02-14 2008-08-28 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2013254409A (ja) * 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc 漫然運転検出装置及びプログラム
JP2016122308A (ja) * 2014-12-25 2016-07-07 クラリオン株式会社 車両制御装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011194979A (ja) * 2010-03-18 2011-10-06 Toyota Motor Corp 運転支援装置
JP5454695B2 (ja) * 2010-09-08 2014-03-26 トヨタ自動車株式会社 危険度算出装置
JP5704239B2 (ja) * 2011-08-10 2015-04-22 トヨタ自動車株式会社 運転支援装置
JP2014149627A (ja) * 2013-01-31 2014-08-21 Toyota Motor Corp 運転支援装置及び運転支援方法
JP6622148B2 (ja) * 2016-06-17 2019-12-18 日立オートモティブシステムズ株式会社 周辺環境認識装置
US10146223B1 (en) * 2016-10-21 2018-12-04 Waymo Llc Handling sensor occlusions for autonomous vehicles
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
WO2018216194A1 (ja) * 2017-05-26 2018-11-29 本田技研工業株式会社 車両制御システムおよび車両制御方法
US11091158B2 (en) * 2018-06-24 2021-08-17 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling motion of vehicle with variable speed
CN112703541B (zh) * 2018-09-17 2022-09-20 日产自动车株式会社 车辆行为预测方法以及车辆行为预测装置
JP7163729B2 (ja) * 2018-11-08 2022-11-01 トヨタ自動車株式会社 車両制御装置
JP7180436B2 (ja) * 2019-02-15 2022-11-30 株式会社デンソー 行動制御方法、及び行動制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008195289A (ja) * 2007-02-14 2008-08-28 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2013254409A (ja) * 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc 漫然運転検出装置及びプログラム
JP2016122308A (ja) * 2014-12-25 2016-07-07 クラリオン株式会社 車両制御装置

Also Published As

Publication number Publication date
JP2021047644A (ja) 2021-03-25
CN114126940A (zh) 2022-03-01
US20220314968A1 (en) 2022-10-06
JP7289760B2 (ja) 2023-06-12

Similar Documents

Publication Publication Date Title
JP6921442B2 (ja) V2xが可能な多様な応用プログラムを利用して自律走行車両の現在の走行意図を人に対してシグナリングする方法及び装置
JP6986780B2 (ja) 自動運転制御装置及び車両
WO2021054051A1 (ja) 電子制御装置
US11851090B2 (en) Vehicle control apparatus, vehicle control method, and storage medium
CN110488802B (zh) 一种网联环境下的自动驾驶车辆动态行为决策方法
JP6308233B2 (ja) 車両制御装置及び車両制御方法
US11256260B2 (en) Generating trajectories for autonomous vehicles
EP3091370B1 (en) Method and arrangement for determining safe vehicle trajectories
JP6428928B2 (ja) オクルージョン制御装置
WO2020097011A2 (en) Vehicle trajectory modification for following
JP7145815B2 (ja) 電子制御装置
JP7185408B2 (ja) 車両制御装置
JP2019160032A (ja) 車両制御装置、車両制御方法、およびプログラム
US20200074851A1 (en) Control device and control method
CN111108031A (zh) 行驶控制装置、车辆以及行驶控制方法
JP2019144691A (ja) 車両制御装置
JP7140067B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JPWO2018220851A1 (ja) 自動運転車の制御のための車両制御装置及び方法
WO2021051959A1 (zh) 车辆控制的方法、装置、控制器和智能汽车
JP2019148856A (ja) 車両制御装置
CN113561977A (zh) 车辆自适应巡航控制方法、装置、设备和存储介质
JP7435787B2 (ja) 経路確認装置および経路確認方法
JP7481239B2 (ja) 電子制御装置
JP2020163968A (ja) 車両運転支援システム
WO2023149003A1 (ja) 車両制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20865790

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20865790

Country of ref document: EP

Kind code of ref document: A1