WO2020250725A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2020250725A1
WO2020250725A1 PCT/JP2020/021542 JP2020021542W WO2020250725A1 WO 2020250725 A1 WO2020250725 A1 WO 2020250725A1 JP 2020021542 W JP2020021542 W JP 2020021542W WO 2020250725 A1 WO2020250725 A1 WO 2020250725A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
evacuation space
unit
evacuation
information
Prior art date
Application number
PCT/JP2020/021542
Other languages
English (en)
French (fr)
Inventor
琢人 元山
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN202080041941.3A priority Critical patent/CN113994408A/zh
Priority to JP2021526005A priority patent/JP7456442B2/ja
Priority to EP20822516.9A priority patent/EP3985640A4/en
Priority to US17/616,776 priority patent/US20220340130A1/en
Priority to KR1020217039019A priority patent/KR20220020804A/ko
Publication of WO2020250725A1 publication Critical patent/WO2020250725A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Definitions

  • the present disclosure relates to information processing devices, information processing methods, and programs, and in particular, information processing devices and information processing methods that enable an appropriate stop on a safe shoulder even in the event of an emergency in autonomous driving.
  • the program Regarding the program.
  • autonomous driving When autonomous driving is generalized and put into practical use, autonomous driving can be safely realized by driving in the driving lane, which is supposed to be the route to the destination, while checking the surrounding conditions under normal conditions. Will be done.
  • This disclosure has been made in view of such a situation, and in particular, it is intended to enable an appropriate stop on a safe shoulder even in the event of an emergency while driving.
  • the information processing device on one aspect of the present disclosure includes a distance information acquisition unit that acquires distance information, an image acquisition unit that acquires an image, and an image attribute that recognizes the acquired attributes of each region in the image as image attribute information.
  • the evacuation space map creation unit is provided with a recognition unit and an evacuation space map creation unit that creates an evacuation space map that is a map consisting of evacuation spaces that the vehicle can safely evacuate based on the distance information and the image attribute information.
  • the unit sets a travelable area in which the vehicle can travel based on the distance information, and sets the travelable area in the travelable area according to the road surface condition of the travelable area based on the image attribute information.
  • This is an information processing device that creates the save space map by setting the save space.
  • the information processing method and program of one aspect of the present disclosure correspond to the information processing device.
  • distance information is acquired, an image is acquired, attributes for each region in the acquired image are recognized as image attribute information, and the vehicle is based on the distance information and the image attribute information.
  • An evacuation space map is created, which is a map consisting of evacuation spaces that can be safely evacuated, a travelable area in which the vehicle can travel is set based on the distance information, and the travel is based on the image attribute information.
  • the evacuation space map is created by setting the evacuation space in the travelable area according to the condition of the road surface in the possible area.
  • the own vehicle CS traveling in the traveling lane L1 by automatic driving travels in the direction of the upper arrow in the figure while following the other vehicle CA1 which is the preceding vehicle. Think about the case.
  • the vehicle on which the user himself / herself is boarding is referred to as the own vehicle CS, and the other vehicles are referred to as other vehicles CA1 and CA2.
  • the own vehicle CS running in automatic driving is in front of the other vehicle CA1 which is the preceding vehicle and is on the shoulder of the traveling lane L1. It is necessary to evacuate the emergency vehicle CE so as to give up the traveling lane L1 by bringing the vehicle closer to the vehicle and stopping the vehicle.
  • the own vehicle CS needs to take an action that deviates from the traffic rules, such as entering a road shoulder that is not on the driving lane L1 to be driven according to the traffic rules and stopping in the normal state.
  • the own vehicle CS searches for a road shoulder on the left side of the traveling lane L1 that can be safely stopped, and stops at the road shoulder where the searched safety is confirmed.
  • the own vehicle CS is equipped with a depth sensor such as LiDAR (Light Detection and Ringing or Laser Imaging Detection and Ringing)
  • a depth sensor such as LiDAR (Light Detection and Ringing or Laser Imaging Detection and Ringing)
  • the condition of the shoulder on the left side with respect to the traveling direction of the own vehicle CS is detected by the depth sensor.
  • Search for a road shoulder that can be safely stopped depending on the presence or absence of an object that is regarded as an obstacle and stop the vehicle by regarding the area without an obstacle as a road shoulder that can be safely stopped.
  • LiDAR is provided to irradiate the road shoulder on the left side from the left side surface of the own vehicle CS with infrared laser light, measure the distance around the road shoulder according to the reflected light, and acquire a depth image. To do.
  • the own vehicle CS detects the presence or absence of an obstacle on the road shoulder based on the depth image consisting of the distance measurement result of LiDAR, even if the own vehicle CS can appropriately detect the road surface by the depth image. , The condition of the shoulder may not be detected properly.
  • the resolution of the depth image detected by LiDAR is Alternatively, the gutter G existing on the road shoulder may not be detected depending on the installation position / angle of LiDAR with respect to the road surface.
  • FIG. 2 shows a radial straight line of infrared laser light emitted by LiDAR provided in the own vehicle CS when the own vehicle CS is viewed from the driver's seat of the emergency vehicle CE traveling behind the own vehicle CS. It is a figure represented by.
  • the infrared laser light from LiDAR is irradiated to the left with respect to the traveling direction of the own vehicle CS in the upper part of FIG. 2, the infrared laser light is provided with a side groove G on the road shoulder on the left side of the road surface RF. Since the infrared laser beam is irradiated on the road surface RF, the road surface RF can be detected.
  • the infrared laser light from LiDAR may not irradiate the side groove G as shown in the upper part of FIG. 2 depending on the resolution and the angle of incidence of the infrared laser light.
  • the gutter G is actually present and is safe. There was a possibility that the road shoulder could be regarded as a safe stop even though the road shoulder could not be stopped.
  • a map consisting of evacuation spaces capable of safely stopping in chronological order while traveling is generated as an evacuation space map, and when an emergency occurs, the evacuation space map can be used safely. Make your own vehicle CS stop.
  • the evacuation space map is, for example, as shown in FIG. 3, the occupancy map M4 and the lane map M2 of the occupancy map M4 and the lane map M2 in the environment map layer structure and the animal body map M1. It is a save space map M3 set between and.
  • the occupancy map M4 is a depth image In3 obtained by a depth sensor composed of a LiDAR, a stereo camera, or the like, and a self such as GPS (Global Positioning System), IMU (Inertial Measurement Unit), and VO (Visual Odometry). It is a map obtained from the self-position information In4 detected by the position sensor.
  • GPS Global Positioning System
  • IMU Inertial Measurement Unit
  • VO Visual Odometry
  • the occupancy map M4 is a map showing an area with an object having a height that may come into contact with the vehicle CS when the vehicle CS travels, and an area other than that, as viewed from the vehicle CS. ..
  • the lane map M2 includes self-position information In4, depth image In3, image recognition result In2 composed of object recognition results such as white lines on the road surface in an image captured by an RGB camera, a polarized camera, an infrared camera, and the like, and , It is a map for specifying the position of the lane (traveling lane) in which the vehicle travels, which is obtained from the preliminary map In1 showing the position of the lane.
  • the animal body map M1 is a map showing the positions of the animal bodies existing around the own vehicle CS in the real-time image obtained from the self-position information In4, the depth image In3, and the image recognition result In2.
  • the automatic operation of the own vehicle CS is realized by controlling the vehicle to travel in the area where the animal body does not exist.
  • an evacuation space map M3 including an evacuation space (evacuable area) where the vehicle can be safely stopped and an evacuation non-evacuable area where safe evacuation is impossible is generated.
  • the own vehicle CS stops at an evacuation space where it can be safely stopped based on the evacuation space map M3, so that the evacuation space (shoulder) is safe even when an emergency occurs. Achieve a stop.
  • the evacuation space map M3 is an area without obstacles on the occupancy map M4 from the self-position information In4, the depth image In3, and the image recognition result In2, and is a road shoulder deviating from the traveling lane (lane) in the lane map M2. It is a map which shows the evacuation possible area (escape space) including, and the evacuation impossible area.
  • the evacuation space map M3 is, for example, a map as shown in FIG.
  • the evacuation area includes the area Z1 where the left and right obstacles exist and the area Z2 where there are no other obstacles when viewed from the vehicle CS, and the area Z12 of the lane which is the traveling lane. It is an area including an area Z11 excluding the danger area Z3. Therefore, the dangerous area Z3 becomes a non-evacuable area.
  • the own vehicle CS sets an evacuation space in which the evacuation space consisting of the areas Z11 and Z12 can be safely stopped while, for example, the area Z12 of the lane which is the traveling lane is transferred to the emergency vehicle. Stop.
  • each object in the image is recognized by, for example, semantic segmentation, based on the image around the own vehicle CS, so that it is not a dangerous area such as a gutter or an icy road surface.
  • the area is identified as a retractable area.
  • the map showing the areas Z11 and Z12 consisting of the evacuation area in which the vehicle CS can be safely evacuated when an emergency occurs is the evacuation space map M3, and the vehicle SC is the evacuation space map. Based on M3, the evacuation space according to the situation is specified from the evacuation area and the vehicle is stopped.
  • the evacuation space map M3 is continuously generated during traveling, and in the event of an emergency, it is safe to use the evacuation space map M3 based on the generated information.
  • the area where the vehicle can be stopped is specified as an evacuation space, and the vehicle is safely stopped in the specified evacuation space.
  • FIG. 5 is a block diagram showing a configuration example of a schematic function of a vehicle control system 100, which is an example of a mobile control system to which the present technology can be applied.
  • a vehicle provided with the vehicle control system 100 is distinguished from other vehicles, it is referred to as a own vehicle or a own vehicle. That is, the vehicle provided with the vehicle control system 100 corresponds to the own vehicle SC in FIG. 1, and the other vehicles correspond to the other vehicles CA1 and CA2.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, and a body. It includes a system system 110, a storage unit 111, and an automatic operation control unit 112.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 are connected via the communication network 121. They are interconnected.
  • the communication network 121 is, for example, from an in-vehicle communication network or bus that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without going through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • the description of the communication network 121 shall be omitted.
  • the input unit 101 and the automatic operation control unit 112 communicate with each other via the communication network 121, it is described that the input unit 101 and the automatic operation control unit 112 simply communicate with each other.
  • the input unit 101 includes a device used by the passenger to input various data, instructions, and the like.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device capable of inputting by a method other than manual operation by voice or gesture.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device corresponding to the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data, instructions, and the like input by the passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors and the like that acquire data used for processing of the vehicle control system 100, and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the own vehicle and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU), an accelerator pedal operation amount, a brake pedal operation amount, a steering wheel steering angle, and an engine speed. It is equipped with a sensor or the like for detecting the rotation speed of the motor, the rotation speed of the wheels, or the like.
  • IMU inertial measurement unit
  • the data acquisition unit 102 includes various sensors for detecting information outside the own vehicle.
  • the data acquisition unit 102 includes an imaging device such as a ToF (TimeOfFlight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting the weather or the weather, and a surrounding information detection sensor for detecting an object around the own vehicle.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the ambient information detection sensor includes, for example, an ultrasonic sensor, a radar, LiDAR (Light Detection and Ringing, Laser Imaging Detection and Ringing), a sonar, and the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the own vehicle.
  • the data acquisition unit 102 includes a GNSS receiver or the like that receives a GNSS signal from a GNSS (Global Navigation Satellite System) satellite.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device that images the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, the seat surface or the steering wheel, and detects the biometric information of the passenger sitting on the seat or the driver holding the steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices, servers, base stations, etc. outside the vehicle, transmits data supplied from each unit of the vehicle control system 100, and transmits the received data to the vehicle control system. It is supplied to each part of 100.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 may support a plurality of types of communication protocols.
  • the communication unit 103 wirelessly communicates with the in-vehicle device 104 by wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like. Further, for example, the communication unit 103 uses USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), or MHL (registered trademark) via a connection terminal (and a cable if necessary) (not shown). Wired communication is performed with the in-vehicle device 104 by Mobile High-definition Link) or the like.
  • USB Universal Serial Bus
  • HDMI High-Definition Multimedia Interface
  • MHL registered trademark
  • the communication unit 103 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network or a network peculiar to a business operator) via a base station or an access point. Communicate. Further, for example, the communication unit 103 uses P2P (Peer To Peer) technology to connect with a terminal (for example, a pedestrian or store terminal, or an MTC (Machine Type Communication) terminal) existing in the vicinity of the own vehicle. Communicate.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network or a network peculiar to a business operator
  • the communication unit 103 uses P2P (Peer To Peer) technology to connect with a terminal (for example, a pedestrian or store terminal, or an MTC (Machine Type Communication) terminal) existing in the vicinity of the own vehicle. Communicate.
  • P2P Peer To Peer
  • a terminal for example, a pedestrian or
  • the communication unit 103 includes vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-house (Vehicle to Home) communication, and pedestrian-to-vehicle (Vehicle to Pedestrian) communication. ) Perform V2X communication such as communication. Further, for example, the communication unit 103 is provided with a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic congestion, traffic regulation, or required time. To do.
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device owned by a passenger, an information device carried in or attached to the own vehicle, a navigation device for searching a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of various information to the passengers of the own vehicle or the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data) and supplies the output signal to the output unit 106.
  • the output control unit 105 synthesizes image data captured by different imaging devices of the data acquisition unit 102 to generate a bird's-eye view image, a panoramic image, or the like, and outputs an output signal including the generated image. It is supplied to the output unit 106.
  • the output control unit 105 generates voice data including a warning sound or a warning message for dangers such as collision, contact, and entry into a danger zone, and outputs an output signal including the generated voice data to the output unit 106.
  • Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for dangers such as collision, contact, and entry into
  • the output unit 106 is provided with a device capable of outputting visual information or auditory information to the passengers of the own vehicle or the outside of the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, a wearable device such as a spectacle-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 displays visual information in the driver's field of view, such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function, in addition to the device having a normal display. It may be a display device.
  • the drive system control unit 107 controls the drive system system 108 by generating various control signals and supplying them to the drive system system 108. Further, the drive system control unit 107 supplies a control signal to each unit other than the drive system system 108 as needed, and notifies the control state of the drive system system 108.
  • the drive system system 108 includes various devices related to the drive system of the own vehicle.
  • the drive system system 108 includes a drive force generator for generating a drive force of an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle, and the like. It is equipped with a braking device that generates braking force, ABS (Antilock Brake System), ESC (Electronic Stability Control), an electric power steering device, and the like.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body system control unit 109 supplies control signals to each unit other than the body system 110 as necessary, and notifies the control state of the body system 110.
  • the body system 110 includes various body devices equipped on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, head lamps, back lamps, brake lamps, winkers, fog lamps, etc.). Etc.
  • the storage unit 111 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, and the like. ..
  • the storage unit 111 stores various programs, data, and the like used by each unit of the vehicle control system 100.
  • the storage unit 111 stores map data such as a three-dimensional high-precision map such as a dynamic map, a global map which is less accurate than the high-precision map and covers a wide area, and a local map including information around the own vehicle.
  • map data such as a three-dimensional high-precision map such as a dynamic map, a global map which is less accurate than the high-precision map and covers a wide area, and a local map including information around the own vehicle.
  • the automatic driving control unit 112 controls automatic driving such as autonomous driving or driving support. Specifically, for example, the automatic driving control unit 112 issues collision avoidance or impact mitigation of the own vehicle, follow-up running based on the inter-vehicle distance, vehicle speed maintenance running, collision warning of the own vehicle, lane deviation warning of the own vehicle, and the like. Collision control is performed for the purpose of realizing the functions of ADAS (Advanced Driver Assistance System) including. Further, for example, the automatic driving control unit 112 performs coordinated control for the purpose of automatic driving in which the vehicle autonomously travels without depending on the operation of the driver.
  • the automatic operation control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various types of information necessary for controlling automatic operation.
  • the detection unit 131 includes an outside information detection unit 141, an inside information detection unit 142, and a vehicle state detection unit 143.
  • the vehicle outside information detection unit 141 performs detection processing of information outside the own vehicle based on data or signals from each unit of the vehicle control system 100. For example, the vehicle outside information detection unit 141 performs detection processing, recognition processing, tracking processing, and distance detection processing for an object around the own vehicle. Objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings, and the like. Further, for example, the vehicle outside information detection unit 141 performs detection processing of the environment around the own vehicle. The surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface condition, and the like.
  • the vehicle outside information detection unit 141 outputs data indicating the result of the detection process to the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. It is supplied to the emergency situation avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
  • the vehicle interior information detection unit 142 performs driver authentication processing and recognition processing, driver status detection processing, passenger detection processing, vehicle interior environment detection processing, and the like.
  • the state of the driver to be detected includes, for example, physical condition, alertness, concentration, fatigue, gaze direction, and the like.
  • the environment inside the vehicle to be detected includes, for example, temperature, humidity, brightness, odor, and the like.
  • the vehicle interior information detection unit 142 supplies data indicating the result of the detection process to the situational awareness unit 153 of the situational analysis unit 133, the emergency situation avoidance unit 171 of the motion control unit 135, and the like.
  • the vehicle state detection unit 143 performs the state detection process of the own vehicle based on the data or signals from each part of the vehicle control system 100.
  • the state of the own vehicle to be detected includes, for example, speed, acceleration, steering angle, presence / absence and content of abnormality, driving operation state, power seat position / tilt, door lock state, and other in-vehicle devices. The state etc. are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimation unit 132 estimates the position and attitude of the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the vehicle exterior information detection unit 141 and the situation recognition unit 153 of the situation analysis unit 133. Perform processing. In addition, the self-position estimation unit 132 generates a local map (hereinafter, referred to as a self-position estimation map) used for self-position estimation, if necessary.
  • the map for self-position estimation is, for example, a highly accurate map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133. Further, the self-position estimation unit 132 stores the self-position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the situation of the own vehicle and the surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132 and the vehicle exterior information detection unit 141 as necessary, and the map analysis unit 151 of various maps stored in the storage unit 111. Perform analysis processing and build a map containing information necessary for automatic driving processing.
  • the map analysis unit 151 applies the constructed map to the traffic rule recognition unit 152, the situation recognition unit 153, the situation prediction unit 154, the route planning unit 161 of the planning unit 134, the action planning unit 162, the operation planning unit 163, and the like. Supply to.
  • the traffic rule recognition unit 152 determines the traffic rules around the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle outside information detection unit 141, and the map analysis unit 151. Perform recognition processing. By this recognition process, for example, the position and state of the signal around the own vehicle, the content of the traffic regulation around the own vehicle, the lane in which the vehicle can travel, and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 can be used for data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, the vehicle condition detection unit 143, and the map analysis unit 151. Based on this, the situation recognition process related to the own vehicle is performed. For example, the situational awareness unit 153 performs recognition processing such as the situation of the own vehicle, the situation around the own vehicle, and the situation of the driver of the own vehicle. In addition, the situational awareness unit 153 generates a local map (hereinafter, referred to as a situational awareness map) used for recognizing the situation around the own vehicle, if necessary.
  • the situational awareness map is, for example, an occupied grid map (OccupancyGridMap).
  • the status of the own vehicle to be recognized includes, for example, the position, posture, movement (for example, speed, acceleration, moving direction, etc.) of the own vehicle, and the presence / absence and contents of an abnormality.
  • the surrounding conditions of the vehicle to be recognized include, for example, the type and position of surrounding stationary objects, the type, position and movement of surrounding animals (for example, speed, acceleration, moving direction, etc.), and the surrounding roads.
  • the composition and road surface condition, as well as the surrounding weather, temperature, humidity, brightness, etc. are included.
  • the state of the driver to be recognized includes, for example, physical condition, arousal level, concentration level, fatigue level, eye movement, driving operation, and the like.
  • the situational awareness unit 153 supplies data indicating the result of the recognition process (including a situational awareness map, if necessary) to the self-position estimation unit 132, the situation prediction unit 154, and the like. Further, the situational awareness unit 153 stores the situational awareness map in the storage unit 111.
  • the situation prediction unit 154 performs a situation prediction process related to the own vehicle based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing such as the situation of the own vehicle, the situation around the own vehicle, and the situation of the driver.
  • the situation of the own vehicle to be predicted includes, for example, the behavior of the own vehicle, the occurrence of an abnormality, the mileage, and the like.
  • the situation around the own vehicle to be predicted includes, for example, the behavior of the animal body around the own vehicle, the change in the signal state, the change in the environment such as the weather, and the like.
  • the driver's situation to be predicted includes, for example, the driver's behavior and physical condition.
  • the situation prediction unit 154 together with the data from the traffic rule recognition unit 152 and the situation recognition unit 153, provides the data indicating the result of the prediction processing to the route planning unit 161, the action planning unit 162, and the operation planning unit 163 of the planning unit 134. And so on.
  • the route planning unit 161 plans a route to the destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the specified destination based on the global map. Further, for example, the route planning unit 161 appropriately changes the route based on the conditions of traffic congestion, accidents, traffic restrictions, construction, etc., and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely sets the route planned by the route planning unit 161 within the planned time based on the data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your vehicle's actions to drive. For example, the action planning unit 162 plans starting, stopping, traveling direction (for example, forward, backward, left turn, right turn, change of direction, etc.), traveling lane, traveling speed, and overtaking. The action planning unit 162 supplies data indicating the planned behavior of the own vehicle to the motion planning unit 163 and the like.
  • the motion planning unit 163 is the operation of the own vehicle for realizing the action planned by the action planning unit 162 based on the data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan. For example, the motion planning unit 163 plans acceleration, deceleration, traveling track, and the like. The motion planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172 and the direction control unit 173 of the motion control unit 135.
  • the motion control unit 135 controls the motion of the own vehicle.
  • the operation control unit 135 includes an emergency situation avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency situation avoidance unit 171 may collide, contact, enter a danger zone, have a driver abnormality, or cause a vehicle. Performs emergency detection processing such as abnormalities.
  • the emergency situation avoidance unit 171 detects the occurrence of an emergency situation, it plans the operation of the own vehicle to avoid an emergency situation such as a sudden stop or a sharp turn.
  • the emergency situation avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the own vehicle planned by the motion planning unit 163 or the emergency situation avoidance unit 171.
  • the acceleration / deceleration control unit 172 calculates a control target value of a driving force generator or a braking device for realizing a planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the own vehicle planned by the motion planning unit 163 or the emergency situation avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the traveling track or the sharp turn planned by the motion planning unit 163 or the emergency situation avoidance unit 171 and controls to indicate the calculated control target value. The command is supplied to the drive system control unit 107.
  • the evacuation space is specified based on the evacuation space map and the vehicle is stopped.
  • the data acquisition unit 102 includes, for example, a camera 201, a depth sensor 202, and a GPS 203.
  • the camera 201 is composed of, for example, an RGB camera or a polarized camera, captures an image of the surroundings of the own vehicle including at least the traveling direction of the own vehicle, and uses the captured image as an external information detection unit 141 and a self-position estimation unit 132. Output to.
  • the depth sensor 202 is composed of, for example, a LiDAR or a stereo camera, detects distance information to an object around the vehicle in pixel units, including at least the traveling direction of the vehicle, and detects the depth image as the detection result as information outside the vehicle. Output to unit 141 and self-position estimation unit 132.
  • GPS203 receives a signal from a satellite (not shown), positions the position of the vehicle on the earth consisting of latitude and longitude, and outputs the positioning result to the self-position estimation unit 132.
  • the vehicle exterior information detection unit 141 detects various types of vehicle exterior information based on the images, depth images, and positioning results supplied from the camera 201, depth sensor 202, and GPS 203 of the data acquisition unit 102, and detects the situation recognition unit 153. Output to.
  • the vehicle exterior information detection unit 141 includes a vehicle detection unit 211, an attribute recognition unit 212, and a depth sensing unit 213.
  • the vehicle detection unit 211 detects the vehicle area in the image by image recognition based on the image (including the two-dimensional image and the stereo image) captured by the camera 201, and determines the detection result indicating the vehicle area. Output to the recognition unit 153.
  • the attribute recognition unit 212 performs object recognition processing such as semantic segmentation learned by using, for example, deep learning on the images (including two-dimensional images and stereo images) captured by the camera 201, and each of them in the image. It recognizes which object the area belongs to in pixel units, and outputs the recognition result as image attribute information to the situation recognition unit 153.
  • object recognition processing such as semantic segmentation learned by using, for example, deep learning on the images (including two-dimensional images and stereo images) captured by the camera 201, and each of them in the image. It recognizes which object the area belongs to in pixel units, and outputs the recognition result as image attribute information to the situation recognition unit 153.
  • the attribute recognition unit 212 sets, for example, a safe area where the vehicle can safely drive, an area where the vehicle cannot drive safely, or an area where driving should be avoided as a dangerous area based on the image attribute information. Recognize and output by including in image attribute information.
  • the attribute recognition unit 212 detects a side groove, an object having a height that may collide (such as a falling object), and a frozen road surface in the image attribute information, these areas are detected. Is added to the attribute information for each pixel, and the attribute information indicating that it is a dangerous area is added to generate the image attribute information.
  • the attribute recognition unit 212 recognizes a frozen portion or the like by deep learning on an image obtained by removing a specular reflection portion on a road surface based on a polarized image captured by the polarized camera. Then, it is regarded as a dangerous area and image attribute information is generated.
  • the attribute recognition unit 212 for example, when the camera 201 is an infrared camera, is based on an infrared light image captured by the infrared light camera, for example, infrared rays in a wavelength band that absorbs water and ice.
  • the reflectance recognizes a puddle or a frozen part on the road surface, regards it as a dangerous area, and generates image attribute information.
  • the depth sensing unit 213 generates distance information in pixel units corresponding to the image in the camera 201 based on the depth image information supplied from the depth sensor 202, and outputs the distance information to the situational awareness unit 153.
  • the self-position estimation unit 132 includes an image supplied by the camera 201, a depth image supplied by the depth sensor 202, self-position information consisting of latitude and longitude supplied by GPS 203, and prior map information stored in the storage unit 111. Estimate the self-position and posture with high accuracy based on.
  • the self-position estimation unit 132 outputs the self-position and posture information, which is the estimation result, to the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153.
  • the situational awareness unit 153 Based on the vehicle detection result, the situational awareness unit 153 outputs an instruction for identifying the approach of the emergency vehicle and the evacuation mode to the output unit 106, and displays it on a speaker, a display, or the like.
  • the situation recognition unit 153 generates information on the preceding vehicle including the emergency vehicle and the oncoming vehicle, and the evacuation space map based on the vehicle detection result, the image attribute information, and the distance information, and the planning unit 134. Output to.
  • the situational awareness unit 153 includes an emergency vehicle identification unit 231, a vehicle tracking unit 232, a polar coordinate grid processing unit 233, and an evacuation space mapping unit 234.
  • the emergency vehicle identification unit 231 provides information on the area of the vehicle in the image supplied by the vehicle detection unit 211, information on wireless communication used by surrounding emergency vehicles, the sound of an alarm sound emitted by the emergency vehicle, and the user. Alternatively, based on at least one of the input information indicating the approach of the emergency vehicle, the presence or absence of the approach of the emergency vehicle is identified, and when the approach of the emergency vehicle is recognized, the evacuation mode is performed together with the information indicating the approach of the emergency vehicle. Is output to the situation prediction unit 154.
  • the situation prediction unit 154 together with the information indicating the approach of the emergency vehicle based on the supplied information.
  • the information indicating the save mode is output to the output unit 106.
  • the output unit 106 presents information indicating the approach of the emergency vehicle to the driver who drives the own vehicle by image or sound through a speaker, a display, or the like, and is instructed to enter the evacuation mode. Present information that indicates that you are doing so.
  • the vehicle tracking unit 232 acquires information on the area of the vehicle in the image supplied from the vehicle detection unit 211 in chronological order, and tracks the movements of all the preceding vehicles including the emergency vehicle and the oncoming vehicle. The tracking result is output to the situation prediction unit 154.
  • the polar coordinate grid processing unit 233 performs polar coordinate grid processing based on the image attribute information, the distance information, the preliminary map, and the self-position and posture information which is the self-position estimation result, and generates and generates a save space map.
  • the save space map is output to the save space mapping unit 234.
  • the polar coordinate grid processing unit 233 centers on the vehicle position based on the image attribute information, the distance information, the prior map, and the self position and posture information which is the self position estimation result.
  • the polar coordinate grid processing unit 233 sets the non-travelable area where an obstacle exists and the other travelable area based on the distance information in units of horizontal regions in the polar coordinate grid described later.
  • the polar coordinate grid processing unit 233 can evacuate based on the image attribute information, consisting of an area of the traveling lane in the traveling area and a space outside the traveling lane but on the shoulder of the road which can be safely evacuated. In addition to setting the area, a dangerous area (non-evacuable area) that cannot be driven or evacuated is set.
  • the polar coordinate grid processing unit 233 generates a save space map consisting of a non-travelable area, a retractable area, and a dangerous area (non-evacuable area) in time series in units of horizontal regions in the polar coordinate grid.
  • the evacuation space mapping unit 234 expands and stores the evacuation space map by accumulating the evacuation space map generated in time series by the polar coordinate grid processing unit 233, and outputs the evacuation space map to the situation prediction unit 154 in the evacuation mode.
  • the evacuation space mapping unit 234 generates a wide area evacuation space map by accumulating the evacuation space map sequentially generated by the polar coordinate grid processing unit 233 in time series, and generates a wide area evacuation space.
  • the map is output to the planning unit 134 via the situation prediction unit 154 in the evacuation mode.
  • the situation prediction unit 154 supplies information indicating the approach of an emergency vehicle, information indicating an evacuation mode, tracking information of all vehicles in front and oncoming vehicles including the emergency vehicle, an evacuation space map, and a traffic rule recognition unit 152.
  • the lane information which is the position information of the traveling lane, is acquired, the information is output to the planning unit 134 as the situation prediction result.
  • the traffic rule recognition unit 152 performs a recognition process of traffic rules around the own vehicle based on the information of the prior map stored in the storage unit 111 and the detailed self-position and attitude information which is the self-position estimation result. Then, for example, the position and state of the signal around the own vehicle, the content of the traffic regulation around the own vehicle, and the lane information which is the lane in which the vehicle can travel are output to the situation prediction unit 154.
  • the map analysis unit 151 When the map analysis unit 151 acquires detailed self-position and attitude information, which is the self-position estimation result, from the self-position estimation unit 132, the map analysis unit 151 plans an automatic driving route based on the prior map stored in the storage unit 111. Generates necessary map information and outputs it to the planning unit 134.
  • the planning unit 134 plans a route to the destination, generates operation control information required for traveling on the planned route, and outputs the operation control information to the operation control unit 135.
  • the planning unit 134 searches for the evacuation space based on the information of the evacuation space map also supplied, and the searched evacuation space is searched. Generates motion control information for safely stopping the vehicle and outputs it to the motion control unit 135.
  • the motion control unit 135 controls the accelerator, brake, steering, etc. of the own vehicle based on the motion control information supplied from the planning unit 134 to travel on the planned route to the destination and in the evacuation mode. Is instructed to safely stop at the evacuation space planned based on the evacuation space map.
  • region Z1 which is a non-travelable region where an obstacle at a height that may cause a collision when the own vehicle SC travels exists, and a region Z2 other than that. Is the travelable area.
  • the area between the white lines on the recognized road is recognized as a traveling lane by object recognition such as semantic segmentation.
  • the road shoulder on the left side of the traveling lane in the left part of FIG. 7 has an area Z3 which is dangerous to travel and is composed of an icy road surface or a depression.
  • the driving mode (hereinafter, also referred to as the normal mode) in which the vehicle travels on the route to the destination, the driving lane is recognized, the route is planned within the range not deviating from the driving lane, and the vehicle is driven by automatic driving. Is realized.
  • the area Z3 which may be dangerous to drive, is not particularly affected as long as the vehicle is traveling in the traveling lane.
  • the own vehicle SC should stop in a safe area such as a shoulder outside the driving lane and give the traveling lane to the emergency vehicle. It will be necessary to evacuate.
  • the traveling mode in which the vehicle is stopped in a safe area such as a shoulder outside the traveling lane and evacuated so as to give the traveling lane to an emergency vehicle is also referred to as an evacuation mode hereafter.
  • an evacuation space capable of safely evacuating is provided in the travelable area Z2 in addition to the area Z12 of the lane which is the traveling lane. It is necessary to set a evacuable area consisting of the indicated area Z11 and a dangerous area (non-evacuable area) Z3 that cannot be safely evacuated.
  • an evacuation area consisting of a lane area Z12 which is a traveling lane and an evacuation area Z11 indicating a safe evacuation space
  • safety A map in which a dangerous area (non-evacuable area) Z3 that cannot be evacuated is set as an evacuation space map.
  • the evacuation space map in the central part of FIG. 7 corresponds to the evacuation space map of FIG. 4 described above.
  • the image captured by the field of view V of the camera 201 at the center of the driver's seat of the own vehicle SC in the figure is, for example, FIG.
  • the image is as shown in the right part of 7.
  • non-travelable regions Z1 such as walls on the left and right in the field view V
  • a travelable region Z2 is provided between them, and the travelable region Z2.
  • An area Z12 composed of a traveling lane in the central portion and an area Z11 of an evacuation space that can be safely evacuated on the outer road shoulder are set as evacuation areas. Further, of the area Z11, an area where safe evacuation is impossible due to the presence of obstacles, gutters, etc. is set as a dangerous area (non-evacuation area) Z3.
  • the evacuation space map is composed of an evacuation area consisting of an area Z12 consisting of a traveling lane and an area excluding a dangerous area (non-evacuation area) Z3 in the evacuation space area Z11, and a dangerous area (non-evacuation area) Z3. It is a constructed map.
  • an obstacle is generated in the region Z1 in the image by object recognition processing such as semantic segmentation. It is recognized that it exists.
  • the traveling lane that can be driven and retracted is recognized in the region Z12
  • the shoulder that can be retracted is recognized in the region Z11
  • the regions Z11 and Z12 are collectively recognized as the retractable region.
  • the dangerous area (non-evacuable area) Z3 which may be dangerous to drive and cannot be evacuated, will be recognized.
  • the attribute recognition unit 212 relatives to the travelable area Z2 as shown in the right part of FIG.
  • the object recognition result including the evacuable area consisting of the area Z12 excluding the area Z12 and the area Z3 and the dangerous area (non-retractable area) Z3 is output as image attribute information.
  • the polar coordinate grid processing unit 233 generates, for example, an image as shown in FIG. 8 by synthesizing the image attribute information supplied by the attribute recognition unit 212 and the distance information supplied by the depth sensing unit 213. ..
  • the depth sensor 202 is configured by LiDAR as distance information in the corresponding image. It is shown that the distance measurement result Dp at that time is synthesized.
  • the distance measurement result Dp of the depth sensor 202 made of LiDAR is low resolution information as compared with the resolution of the image captured by the camera 201. Therefore, in FIG. 8, the distance measurement result Dp is spotted on the image. It is written in the form.
  • the polar coordinate grid processing unit 233 sets a grid-shaped polar coordinate grid Gd as shown in the upper part of FIG. 9 in the image shown in FIG.
  • the polar coordinate grid Gd is set as a grid consisting of 10 columns ⁇ 6 rows in the horizontal direction ⁇ vertical direction, but the number of matrices is not limited to this.
  • the positions of the squares in the horizontal direction of the polar coordinate grid Gd in the upper part of FIG. 9 correspond to the horizontal angular direction of the polar coordinate grid Gd when viewed from the own vehicle SC shown in the lower part of FIG.
  • the positions of the squares in the vertical direction of the polar coordinate grid Gd in FIG. 9 correspond to the distance direction of the polar coordinate grid Gd from the own vehicle SC in the lower part of FIG.
  • the image of the squares below the polar coordinate grid Gd in the upper part of FIG. 9 corresponds to the image of the squares in the area closer to the own vehicle SC of the polar coordinate grid Gd in the lower part of FIG.
  • the polar coordinate grid Gd is a grid represented by a fan-shaped coordinate system when expressed in a top view as shown in the lower part of FIG. 9 when viewed from above the own vehicle SC.
  • the area closer to the vehicle SC than the dotted line in the lower grid Gd of FIG. 9 is not reflected in the upper grid Gd of FIG. 9 because it does not fit in the angle of view.
  • the 6 rows of the range Gda represented by the squares in the third column from the left in the upper row of FIG. 9 are the ranges of 6 squares in the radial polar coordinate grid Gd in the lower row of FIG. Corresponds to Gda.
  • the information of the image from the top to the sixth square in the row of the range Gda in the upper row of FIG. 9 is the information of the distance of the colored range from the outer peripheral portion of the range Gda to the sixth square in the lower row of FIG. Corresponds to. Although the description is omitted, the squares in the other columns correspond in the same manner.
  • the upper row and the lower row of FIG. 9 correspond to each of the column units indicated by other squares.
  • the polar coordinate grid processing unit 233 is in each column unit as shown by the range Gda in the grid Gd in the upper part of FIG. 9, that is, in a predetermined horizontal angular direction as shown by the range Gda in the grid Gd in the lower part of FIG.
  • a save space map is generated for each horizontal angle area with a range as a unit.
  • the polar coordinate grid processing unit 233 includes advance map information, image attribute information, and distance information in units of squares.
  • a save space map is generated by associating with.
  • the third square from the top is the area Z1 recognized as an obstacle, and as shown on the right side of FIG. 10, the camera 201 of the own vehicle SC or
  • the distance from the depth sensor 202 to the third square from the top is the distance d1 to d3 from the top to the obstacle, respectively.
  • the danger zone Z3 is included in the fourth square from the top of the range Gda on the left side of FIG. 10, and as shown on the right side of FIG. 10, from the camera 201 and the depth sensor 202 of the own vehicle SC, The distance from the top to the fourth square is the distance d4.
  • the fifth square from the top of the range Gda on the left side of FIG. 10 includes a region Z11 consisting of a road shoulder, and as shown on the right side of FIG. 10, the camera 201 and depth sensor 202 of the own vehicle SC Therefore, the distance from the top to the fifth square is defined as the distance d5.
  • the sixth square from the top of the range Gda on the left side of FIG. 10 includes a region Z12 consisting of a traveling lane, and as shown on the right side of FIG. 10, the camera 201 and the depth sensor of the own vehicle SC
  • the distance from 202 to the sixth square from the top is the distance d6.
  • the area Z12 composed of the traveling lane can also be recognized by using the prior map information and the self-position of the own vehicle.
  • the polar coordinate grid processing unit 233 sets the non-travelable area and the travelable area based on the distance information, the prior map information, and the image attribute information. That is, when the information of each square of the range Gda in FIG. 10 is associated with the occupancy map, the third square from the top is represented as a region Z1 composed of a non-travelable region as shown in the left part of FIG. The third square from the bottom is represented as a region Z2 composed of a travelable region.
  • the polar coordinate grid processing unit 233 is located on a three-dimensional plane on which the own vehicle lane region Z12 obtained from prior map information, image attribute information, etc. is placed, and the distance information from the sensor position is not placed on the three-dimensional plane.
  • the area located at a closer distance is defined as the travelable area Z2, and further corresponds to the point that the image attribute information recognizes the area as an obstacle or the distance information does not appear on the three-dimensional plane including the vehicle lane area.
  • the region to be run is set as the non-travelable region Z1, and the region Z1 composed of the non-travelable region and the region Z2 composed of the travelable region are set as in the case of the occupancy map shown on the left side of FIG.
  • the polar coordinate grid processing unit 233 sets a retractable region and a non-retractable region in the region Z2 composed of the travelable region based on the image attribute information. That is, by applying the image attribute information to the travelable area Z2 on the left side of FIG. 11, the range of the third square from the bottom is the non-evacuable area (as shown in the right part of FIG. 11). It is set as a dangerous area Z3), and the area Z11 consisting of the shoulders from the bottom to the second square and the area Z12 consisting of the traveling lane are set as the area Z21 consisting of the evacuation area, and an evacuation space map for one row is generated. Will be done.
  • the evacuation area referred to with reference to FIGS. 9 to 11 is the range between the traveling lane and the road shoulder, and does not include the dangerous area.
  • the non-travelable area and the travelable area are set based on the distance information, and the occupancy map is substantially set.
  • the image attribute information is applied to the travelable area in the occupancy map, and the evacuable area and the non-evacuable area are set. By setting, a save space map is generated.
  • the evacuation space map corresponding to the image in which the image attribute information and the distance information are combined which is shown by the range Gda in the upper left part of FIG. 12 by the above-mentioned two-step process, is as shown in the upper center of FIG. It becomes a thing.
  • the region Z1 consisting of obstacles from the viewpoint position of the field V of the camera 201 and the depth sensor 202.
  • the distance to the distance Dc is defined as the distance Dc
  • the distance to the danger region Z3 is defined as the distance Db
  • the distance to the region Z12 of the lane which is the traveling lane is defined as the distance Da
  • the distance to the region Z11 consisting of the shoulder and the like is defined as the distance De.
  • the polar coordinate grid processing unit 233 sets the evacuation space map of the range Gda shown in the upper right part of FIG. 12 as the evacuation space map of the range Gda shown in the lower part of FIG.
  • the polar coordinate grid processing unit 233 generates a save space map for the entire range of the polar coordinate grid Gd, outputs it to the save space mapping unit 234, stores it, and accumulates time.
  • the evacuation space mapping unit 234 stores the time-series evacuation space map and accumulates the time to expand the evacuation space map in time series.
  • the evacuation space mapping unit 234 stores the evacuation space map ZV of the field of view V of the viewpoint position CSS of the camera 201 and the depth sensor 202 at a predetermined timing as shown in the right part of FIG. 13, and this processing. Are sequentially repeated to accumulate time.
  • the evacuation space mapping unit 234 stores the evacuation space map ZV1 of the field of view V1 of the viewpoint position CSS1 of the camera 201 and the depth sensor 202 at the time T1, the viewpoint position CSS2 at the time T2.
  • Time is accumulated by superimposing the evacuation space map ZV2 of the field of view V2 on the evacuation space map ZV1.
  • the evacuation space mapping unit 234 stores the evacuation space map ZV3 of the visual field V3 of the viewpoint position CSS3 at the time T3
  • the evacuation space map ZV3 is added to the evacuation space maps ZV1 and ZV2 of the visual fields V1 and V2 at the times T1 and T2. Accumulate time by stacking.
  • the evacuation space mapping unit 234 will continue to expand the evacuation space map in the spatial direction in chronological order by repeating the time accumulation of the evacuation space map in association with the self-position.
  • this time accumulation method is the same as the time accumulation method of a general occupancy map, and for example, Binary Bayes Filter or the like can be used.
  • step S11 the camera 201 captures an image of the vehicle SC in front of the traveling direction and outputs the image to the vehicle exterior information detection unit 141.
  • step S12 the attribute recognition unit 212 performs attribute determination on a pixel-by-pixel basis for the image captured by the camera 201, for example, by object recognition processing such as semantic segmentation, and generates image attribute information which is the determination result.
  • step S13 the attribute recognition unit 212 outputs the generated image attribute information to the polar coordinate grid processing unit 233 of the situation recognition unit 153.
  • step S14 the depth sensor 202 captures a distance image using LiDAR or the like and outputs it to the depth sensing unit 213.
  • the depth sensing unit 213 generates pixel-based distance information based on the distance image and outputs it to the polar coordinate grid processing unit 233 of the situational awareness unit 153.
  • step S15 the polar coordinate grid processing unit 233 synthesizes the image attribute information and the distance information to generate a composite image, and sets the polar coordinate grid Gd for the composite image by the method described with reference to FIG. To do.
  • step S16 the polar coordinate grid processing unit 233 sets the unprocessed horizontal angle region in the polar coordinate grid Gd of FIG. 9 as the processing target.
  • the horizontal angle region referred to here is, for example, the range Gda in FIG. 9, and the unprocessed range Gda in the polar coordinate grid Gd is set in the horizontal angle region to be processed.
  • step S17 the polar coordinate grid processing unit 233 uses the distance information in the squares of the columns that are the horizontal angle regions to be processed in the polar coordinate grid Gd, and the non-travelable region and the travelable region in the horizontal angle region to be processed. And set.
  • step S17 by the process of step S17, as described with reference to the left part of FIG. 11, the non-travelable area and the movable area are set, so that a map corresponding to the occupancy map is generated.
  • step S18 the polar coordinate grid processing unit 233 sets a retractable area and a non-evacuable area based on the image attribute information in the travelable area in the horizontal angle area to be processed in the polar coordinate grid Gd.
  • the polar coordinate grid processing unit 233 generates a save space map consisting of a saveable area set in the travelable area and a saveable area, and stores the save space map in the save space mapping unit 234.
  • step S18 As described with reference to the right part of FIG. 11, a retractable area and a non-evacuable area are set in the travelable area in the map corresponding to the occupancy map. As a result, a save space map will be generated.
  • step S19 the polar coordinate grid processing unit 233 determines whether or not an unprocessed horizontal angle region exists, and if an unprocessed horizontal angle region exists, the process returns to step S16.
  • step S16 the processes of steps S16 to S19 are repeated until the evacuation space map is generated for all the horizontal angle regions.
  • step S19 when the evacuation space map of all the horizontal angle regions is generated, the process proceeds to step S20.
  • step S20 the evacuation space mapping unit 234 accumulates the evacuation space maps of all the horizontal angle regions in association with their own positions and expands them in chronological order.
  • step S21 the polar coordinate grid processing unit 233 determines whether or not the end of the process is instructed, and if the end is not instructed, the process returns to step S11 and the subsequent processes are repeated.
  • step S21 the process ends.
  • the non-travelable area and the non-travelable area are set based on the image attribute information and the distance information, and then the evacuation-capable area and the non-evacuable area are further set in the travelable area. By doing so, it becomes possible to generate a save space map consisting of a saveable area.
  • the evacuation space map generated by another vehicle may be acquired.
  • the evacuation space maps generated by a plurality of vehicles may be aggregated on a cloud server or the like so that various vehicles can download and use them.
  • the evacuation space map may be generated by oneself when traveling, or may be acquired in advance from another vehicle, a cloud server, or the like.
  • the information on the evacuation space map is also generated based on various information such as roads and weather that change from moment to moment, so if you do not generate it yourself, it will be updated at predetermined time intervals. It is desirable that new information be obtained to some extent.
  • Part 1 ⁇ Example of emergency evacuation> (Part 1) Next, an example of emergency evacuation to the evacuation space due to the approach of an emergency vehicle will be described by using the evacuation space map generated by the above processing.
  • the evacuation space map consists of an obstacle area Z1 on the right side, an obstacle area Z12, a traveling lane area Z12, and an evacuationable road shoulder area Z11 with respect to the front of the own vehicle CS.
  • the evacuation space map consists of an obstacle area Z1 on the right side, an obstacle area Z12, a traveling lane area Z12, and an evacuationable road shoulder area Z11 with respect to the front of the own vehicle CS.
  • the area Z2 composed of the areas Z11 and Z12 other than the obstacle area Z1 is registered in the evacuation space map as the evacuation area (Z21).
  • the planning unit 134 searches for the evacuation space candidates of the own vehicle CS in the evacuation possible area that covers the entire area Z2 based on the evacuation space map, and among the searched evacuation space candidates, the most evacuation space candidates are evacuated.
  • the area suitable for the evacuation is specified as the evacuation space.
  • the evacuation space is a space for evacuating and stopping the own vehicle SC for the purpose of giving the emergency vehicle EC to the traveling lane.
  • the planning unit 134 sets the area having the width W12 on the traveling lane side for passing the emergency vehicle EC as the transfer area Z31 in the evacuation area in the evacuation space map. ..
  • the planning unit 134 when setting the transfer area Z31, includes, for example, an area having a width W12 of the emergency vehicle EC such that an area recognized as the area Z12 consisting of traveling lanes is included based on the image attribute information.
  • the transfer area Z31 is set.
  • the planning unit 134 has an area other than the transfer area Z31 in the evacuation area, that is, a road shoulder side from the boundary BB of the transfer area Z31, and has a width W11 required for the own vehicle CS to evacuate.
  • the area Z51 surrounded by the alternate long and short dash line in the figure is searched as the evacuation space candidate area.
  • the planning unit 134 is the closest area in front of the braking distance B11 of the own vehicle CS in the area Z51 as the searched evacuation space candidate area, and the own vehicle CS is on the shoulder side with respect to the traveling lane.
  • the planning unit 134 plans a route for evacuating the own vehicle CS to the area Z51a consisting of the specified evacuation space, and provides the operation control unit 135 with operation control information such as moving along the planned route and stopping. Output.
  • the operation control unit 135 Based on the operation control information from the planning unit 134, the operation control unit 135 operates the accelerator, the brake, and the steering to realize the behavior for stopping the vehicle in the area Z51a consisting of the specified evacuation space, and the own vehicle CS. To the evacuation space and stop.
  • the own vehicle CS can safely stop and evacuate while giving up the traveling lane to the emergency vehicle when the emergency vehicle approaches.
  • an obstacle area Z1 is set on the right side of the area Z12 composed of the traveling lane, and the area Z11 consisting of the road shoulder exists on the left side with respect to the area Z12 of the traveling lane.
  • An example has been described in which the area Z51 as a space is set on the left side of the area Z12 composed of traveling lanes.
  • the transfer area Z31 is the area of the traveling lane in the case where the area Z11 consisting of the road shoulder is provided only on the right side of the area Z12.
  • the area Z51a as the evacuation space is set on the right side of the area Z12 composed of the traveling lane so as to be set on the left side of the Z12.
  • the evacuation space candidate area Z51 is searched so that the transfer area Z31 can be set by the own vehicle SC evacuation, and the searched evacuation space candidate area Z51 is searched.
  • the region in front of the braking distance of the own vehicle SC and the region closest to the braking distance is specified as the region Z51a including the evacuation space.
  • the transfer area Z31 broadly includes the area Z12 of the traveling lane for the emergency vehicle to travel, the quick and safe movement of the emergency vehicle can be ensured. Therefore, it is desirable that the evacuation space candidate area Z51 and the area Z51a including the evacuation space are set so as to include the traveling lane area Z12 in the transfer area Z31 as widely as possible. For example, when setting the transfer area Z31, a width wider than the width W12 of the emergency vehicle may be set by a predetermined ratio.
  • the evacuation space map includes an obstacle area Z1 on the right side, an obstacle area Z12, a traveling lane area Z12, and an evacuationable road shoulder area Z11 with respect to the front of the own vehicle CS.
  • the evacuation space map includes an obstacle area Z1 on the right side, an obstacle area Z12, a traveling lane area Z12, and an evacuationable road shoulder area Z11 with respect to the front of the own vehicle CS.
  • the horizontal widths of the regions Z11-1 to Z11-3 and Z12 are wider than the width W11 for the own vehicle CS to evacuate plus the width W12 required for the passage of the emergency vehicle. It shall be.
  • the areas Z11-1 to Z11-3 and Z12 are registered in the evacuation space map as evacuation areas.
  • the planning unit 134 is on the shoulder side of the boundary BB with the transfer area Z31 consisting of the area of the width W12 on the traveling lane side for passing the emergency vehicle EC in the evacuation area in the evacuation space map. Therefore, the areas Z51-1 to Z51-3 surrounded by the alternate long and short dash line in the figure, which have the width W11 required for the vehicle CS to evacuate, are searched as the evacuation space candidate area.
  • the planning unit 134 is the closest area in front of the braking distance B11 of the own vehicle CS among the areas Z51-1 to Z51-3 as the searched evacuation space candidate areas, and the own vehicle CS is in the traveling lane.
  • the area Z51-2 surrounded by the dotted line in the figure provided with the width W11 for retracting to the road shoulder side is specified as the retracting space.
  • the planning unit 134 plans a route for retracting the own vehicle CS in the area Z51-2.
  • the own vehicle CS gives the traveling lane to the emergency vehicle when the emergency vehicle approaches. , It is possible to safely stop and evacuate.
  • Part 3 Further, as shown in FIG. 17, for example, as shown in FIG. 17, only two types of areas, an obstacle area Z1 and a traveling lane area Z12, are set on the right side of the front of the own vehicle CS. Therefore, consider a case where the width of the Z12 in the horizontal direction is less than the width W11 for the own vehicle CS to evacuate plus the width W12 required for the passage of an emergency vehicle.
  • the evacuation area in the evacuation space map covers the entire area Z12 of the traveling lane, it is on the shoulder side of the boundary BB with the area of the width W12 on the traveling lane side for passing the emergency vehicle EC. , There is no area having the width W11 required for the own vehicle CS to evacuate, and the evacuation space candidate area is not searched. Therefore, in the case of FIG. 17, the evacuation space is not specified.
  • Part 4 Further, consider a case where the evacuation space map is the same as in FIG. 15, as shown in FIG. 18, and further, a case where the preceding vehicle CA exists in front of the own vehicle CS.
  • the own vehicle CS follows the preceding vehicle CA and continues to travel.
  • the area Z51a as the evacuation space. Therefore, for example, after traveling following the preceding vehicle CA for a predetermined time, the front The area Z51a consisting of the evacuation space may be specified at a position in front of the running vehicle CA, and the vehicle CS may be moved and stopped to evacuate.
  • the vehicle outside information detection unit 141 includes an image captured by the camera 201 acquired by the data acquisition unit 102, a depth image detected by the depth sensor 202, and a prior map stored in the storage unit 111. The information is acquired to detect the vehicle, and the image attribute information and the distance information are detected and output to the situation recognition unit 153.
  • the self-position estimation unit 132 obtains detailed position information and posture information of the own vehicle CS based on the position information supplied from the GPS 203, the image, the depth image, and the information of the prior map, and the situation recognition unit 153. Output to.
  • the vehicle detection unit 211 detects the vehicle by image recognition from the image, and outputs the detection result to the emergency vehicle identification unit 231 and the vehicle tracking unit 232 of the situational awareness unit 153.
  • the vehicle tracking unit 232 is a front-running vehicle that stores and tracks the vehicle information detected in the image in chronological order and travels away from the own vehicle SC, or the own vehicle.
  • Information for identifying an oncoming vehicle approaching the SC from the front or a following vehicle approaching from the rear is output to the emergency vehicle identification unit 231 and output to the planning unit 134 via the situation prediction unit 154. ..
  • the attribute recognition unit 212 recognizes the attributes of the object in the image on a pixel-by-pixel basis based on the image, generates image attribute information, and outputs the image attribute information to the polar coordinate grid processing unit 233 of the situation recognition unit 153.
  • the depth sensing unit 213 generates distance information for each pixel based on the information of the depth image, and outputs the distance information to the polar coordinate grid processing unit 233.
  • the polar coordinate grid processing unit 233 acquires the pre-map information stored in the storage unit 111, and the detailed self-position information and posture information supplied by the self-position estimation unit 132.
  • step S42 the emergency vehicle identification unit 231 determines whether or not the emergency vehicle is approaching and emergency evacuation is necessary.
  • the emergency vehicle identification unit 231 determines whether or not there is an emergency vehicle approaching the own vehicle SC for the vehicle detected in the image, for example, based on the tracking information supplied from the vehicle tracking unit 232. Based on, it is determined whether or not an emergency vehicle is approaching.
  • the emergency vehicle identification unit 231 determines whether or not there is a siren sound emitted from the emergency vehicle based on the sound outside the vehicle picked up by the microphone in the data acquisition unit 102, and conditions under which the siren sound is detected. Whether or not an emergency vehicle is approaching is determined by the presence or absence of an emergency vehicle in the image in.
  • the emergency vehicle identification unit 231 controls the communication unit 103 to notify whether or not the communication in the frequency band used by the emergency vehicle can be intercepted and the approach of the emergency vehicle from the beacon provided on the road. It is determined whether or not an emergency vehicle is approaching based on various communication signals such as the presence or absence of a signal to be used and the presence or absence of inter-vehicle communication for notifying the approach of an emergency vehicle.
  • the emergency vehicle identification unit 231 approaches the emergency vehicle by the intervention of the user who is the driver of the own vehicle SC depending on whether or not the operation devices such as the touch panel, the button, the microphone, the switch, and the lever are operated in the input unit 101. Determine the presence or absence.
  • the emergency vehicle identification unit 231 determines whether or not an emergency vehicle is approaching by at least one of these determination processes, and determines whether or not emergency evacuation is necessary.
  • step S42 If it is determined in step S42 that emergency evacuation is necessary, the process proceeds to step S43.
  • step S43 the emergency vehicle identification unit 231 provides information indicating that the emergency vehicle is approaching and information indicating that the emergency vehicle shifts to the evacuation mode as the emergency vehicle approaches, via the situation prediction unit 154. Output to the output unit 106 and the planning unit 134.
  • the output unit 106 notifies the user who is the driver that the approach of the emergency vehicle has been detected by an image or voice through a display, a speaker, or the like, and enters the evacuation mode when the emergency vehicle is detected. Notify that you are migrating.
  • step S44 the planning unit 134 generates operation control information for decelerating to a predetermined speed and outputs it to the operation control unit 135.
  • the operation control unit 135 controls the brake and the like to reduce the traveling speed of the own vehicle SC to a predetermined speed.
  • step S45 the planning unit 134 determines whether or not there is a vehicle in front based on the tracking information supplied from the vehicle tracking unit 232 via the situation prediction unit 154.
  • step S45 determines in step S45 that a vehicle in front exists. If the planning unit 134 determines in step S45 that a vehicle in front exists, the process proceeds to step S46.
  • step S46 the planning unit 134 controls the operation of the own vehicle SC so as to follow the preceding vehicle while keeping the distance from the preceding vehicle at a predetermined distance sufficient for ensuring safety. Information is generated and output to the operation control unit 135.
  • the motion control unit 135 controls the accelerator, brake, steering, etc. of the own vehicle SC based on this motion control information, and is sufficient for ensuring the safety of the own vehicle SC and the vehicle in front.
  • the vehicle is driven by following the vehicle in front while maintaining a predetermined distance.
  • step S46 when the vehicle in front is stopped and there is no evacuation space and it is not possible to evacuate, the traveling lane is set for the emergency vehicle while maintaining a predetermined distance from the vehicle in front. It includes the process of stopping even if the vehicle cannot be handed over.
  • step S47 the planning unit 134 determines whether or not the preceding vehicle has stopped based on the tracking information.
  • step S47 if the preceding vehicle does not stop and continues to travel, the process proceeds to step S48.
  • step S48 the planning unit 134 determines whether or not the vehicle is following the vehicle in front for a predetermined time or longer.
  • step S48 If it is determined in step S48 that the vehicle is not following the preceding vehicle until a predetermined time, the process returns to step S46.
  • the own vehicle SC follows the preceding vehicle when the traveling state is within a predetermined time. Continue running.
  • step S48 if the state of following the preceding vehicle continues for a predetermined time or more, the process proceeds to step S49.
  • step S47 if the traveling vehicle in front has stopped, the process proceeds to step S49.
  • step S49 when there is a vehicle in front, when the following vehicle continues for a predetermined time or longer, or when the vehicle in front stops, the process proceeds to step S49.
  • step S49 the planning unit 134 reads out the evacuation space map stored in the evacuation space mapping unit 234 via the situation prediction unit 154.
  • step S50 based on the evacuation space map, the planning unit 134 is in front of the vehicle in front, farther than the distance that can be safely stopped within its own braking distance, and closest to it, and Identify an evacuation space that can secure the width of the emergency vehicle.
  • the planning unit 134 searches for an evacuation space candidate area based on the evacuation space map, and among the searched evacuation space candidate areas, is in front of the vehicle in front and within its own braking distance. Identify an evacuation space that is farther and closest than the safe stop distance and that can secure the width of the emergency vehicle.
  • step S51 the planning unit 134 determines whether or not the evacuation space exists and can be specified.
  • step S51 If the evacuation space cannot be specified in step S51, the process returns to step S45.
  • step S51 If the evacuation space is specified in step S51, the process proceeds to step S52.
  • step S52 the planning unit 134 plans a route with the evacuation space as the destination, generates operation control information for realizing the planned operation, and outputs the operation control information to the operation control unit 135.
  • step S53 the motion control unit 135 controls the accelerator, brake, steering, etc. of the own vehicle SC based on the motion control information supplied from the planning unit 134, and follows a route with the evacuation space as the destination. Run your own vehicle SC.
  • step S54 the planning unit 134 determines whether or not the own vehicle SC has arrived at the evacuation space, which is the destination, based on the detailed position information and posture information of the own vehicle SC.
  • step S54 If the evacuation space has not arrived in step S54, the processes of steps S53 and S54 are repeated, and the own vehicle SC continues traveling toward the evacuation space which is the destination.
  • step S54 If it is determined in step S54 that the own vehicle SC has arrived at the evacuation space which is the destination, the process proceeds to step S55.
  • step S55 the planning unit 134 generates motion control information so as to stop the own vehicle SC, and outputs the motion control information to the motion control unit 135.
  • the motion control unit 135 stops the own vehicle SC in the evacuation space based on the motion control information.
  • step S56 the emergency vehicle identification unit 231 determines whether or not the state requiring emergency evacuation has ended, and the same process is repeated until it is considered that the state requiring emergency evacuation has ended.
  • step S56 for example, when an emergency vehicle approaches from behind, evacuates to the evacuation space and stops, and travels in the lane that has been transferred, it is considered that the state requiring emergency evacuation has been completed. If so, the process proceeds to step S57.
  • step S57 the emergency vehicle identification unit 231 outputs information indicating that the traveling mode is to be shifted from the evacuation mode to the normal mode to the output unit 106 and the planning unit 134 via the situation prediction unit 154.
  • the output unit 106 presents information indicating that the driving mode is shifted from the evacuation mode to the normal mode to the user who is the driver by voice or image.
  • the planning unit 134 replans the route to the original destination, generates operation control information for realizing the replanned operation, and outputs the operation control information to the operation control unit 135.
  • the motion control unit 135 controls the accelerator, brake, steering, etc. based on the replanned motion control information for realizing the motion for traveling the route to the original destination, and controls the destination.
  • the route up to is controlled so that the own vehicle SC runs.
  • step S58 the planning unit 134 determines whether or not the end of the operation is instructed, and if the end is not instructed, the process returns to step S41, and the subsequent processes are repeated.
  • step S45 if there is no vehicle in front, the process proceeds to step S59.
  • step S59 the planning unit 134 reads out the evacuation space map stored in the evacuation space mapping unit 234 via the situation prediction unit 154.
  • step S60 the planning unit 134 can secure the width of the emergency vehicle at a distance farther than a safe stopping distance within its own braking distance, at the nearest vicinity, and at the same time, based on the evacuation space map. Identify a safe evacuation space.
  • the planning unit 134 searches for the evacuation space candidate area based on the evacuation space map, and the searched evacuation space candidate area is farther than the distance that can be safely stopped within its own braking distance.
  • the evacuation space that can secure the width of the emergency vehicle in the nearest vicinity is specified.
  • the evacuation space map is immediately read and the identification of the evacuation space is started.
  • the traveling mode shifts from the normal mode to the evacuation mode, and when the preceding vehicle exists, the vehicle follows the preceding vehicle. And run.
  • the evacuation space map is read, the evacuation space is specified, and the specified evacuation is performed.
  • a route with the space as the destination is planned, and motion control for traveling on the planned route is performed.
  • the evacuation space map is immediately read, the evacuation space is specified, a route with the specified evacuation space as the destination is planned, and the vehicle travels on the planned route. Operation control is performed.
  • the vehicle will continue running until the evacuation space is detected.
  • the evacuation space map is immediately read out.
  • the vehicle may stop at the special evacuation space and give up the traveling lane to the emergency vehicle.
  • an emergency evacuation process an example in which an evacuation mode is entered when an approach of an emergency vehicle is detected, an evacuation space is specified, and the vehicle stops at the specified evacuation space has been described.
  • the mode may be returned to the normal mode before the vehicle stops.
  • the traveling lane is transferred to the emergency vehicle and moved to the region Z51 which is the evacuation space candidate region
  • the region Z51 includes a sufficiently wide traveling lane.
  • the vehicle may continue traveling in a state of being evacuated to the area Z51 and decelerated to a predetermined speed that can ensure safety in the traveling lane.
  • an emergency evacuation process such as stopping the vehicle in the evacuation space may be executed.
  • an emergency evacuation process such as stopping the vehicle in the evacuation space may be realized in order to reduce the damage.
  • the user who is the driver finds a dangerous object or a falling object in front of the vehicle, but the vehicle is going straight, the user who is the driver issues an evacuation instruction to make an emergency.
  • the save process may be realized.
  • the user who is the driver intentionally stops his / her own vehicle in order to meet the following vehicle or pick up a person, the user who is the driver issues an evacuation instruction to realize emergency handling. It may be done.
  • information from multiple vehicles can be managed via a network by a server or cloud computing so that time can be accumulated by multiple vehicles and shared by multiple vehicles. Good.
  • Example of execution by software By the way, the series of processes described above can be executed by hardware, but can also be executed by software.
  • the programs that make up the software can execute various functions by installing a computer embedded in dedicated hardware or various programs. It is installed from a recording medium on a possible, eg, general purpose computer.
  • FIG. 20 shows a configuration example of a general-purpose computer.
  • This personal computer has a built-in CPU (Central Processing Unit) 1001.
  • the input / output interface 1005 is connected to the CPU 1001 via the bus 1004.
  • ROM (Read Only Memory) 1002 and RAM (Random Access Memory) 1003 are connected to the bus 1004.
  • the input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for the user to input operation commands, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, a program and various data. It is composed of a storage unit 1008 including a hard disk drive for storing, a LAN (Local Area Network) adapter, and the like, and is connected to a communication unit 1009 for executing communication processing via a network represented by the Internet. In addition, magnetic disks (including flexible disks), optical disks (including CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc)), magneto-optical disks (including MD (Mini Disc)), or semiconductors.
  • a drive 1010 that reads / writes data to / from a removable media 1011 such as a memory is connected.
  • the CPU 1001 was read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 into the RAM 1003. Perform various processes according to the program.
  • the RAM 1003 also appropriately stores data and the like necessary for the CPU 1001 to execute various processes.
  • the CPU 1001 loads the program stored in the storage unit 1008 into the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the above-described series. Is processed.
  • the program executed by the computer can be recorded and provided on the removable media 1011 as a package media or the like, for example. Programs can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting.
  • the program can be installed in the storage unit 1008 via the input / output interface 1005 by mounting the removable media 1011 in the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be pre-installed in the ROM 1002 or the storage unit 1008.
  • the program executed by the computer may be a program that is processed in chronological order in the order described in this specification, or may be a program that is processed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • the CPU 1001 in FIG. 20 realizes the function of the automatic operation control unit 112 in FIG. Further, the storage unit 1008 in FIG. 20 realizes the storage unit 111 in FIG.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • the present disclosure can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • each step described in the above flowchart can be executed by one device or shared by a plurality of devices.
  • one step includes a plurality of processes
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • the distance information acquisition unit that acquires distance information and The image acquisition unit that acquires images and An image attribute recognition unit that recognizes the acquired attributes of each area in the image as image attribute information
  • It is provided with an evacuation space map creation unit that creates an evacuation space map, which is a map consisting of evacuation spaces in which the vehicle can safely evacuate based on the distance information and the image attribute information.
  • the evacuation space map creation unit sets a travelable area in which the vehicle can travel based on the distance information, and travels according to the condition of the road surface in the travelable area based on the image attribute information.
  • An information processing device that creates the evacuation space map by setting the evacuation space in the possible area.
  • the evacuation space map creation unit sets a travelable area in which the vehicle can travel based on the distance information, and then responds to the condition of the road surface in the travelable area based on the image attribute information.
  • the information processing device according to ⁇ 1>, wherein the evacuation space map is created by setting the evacuation space in the travelable area.
  • the evacuation space map creation unit safely evacuates the vehicle into the travelable area according to the condition of the road surface in the travelable area based on the image attribute information in the travelable area.
  • the information processing device according to ⁇ 2> wherein a possible area and an area that cannot be safely evacuated are set, and an area that can be safely evacuated by the vehicle is set as the evacuation space to create the evacuation space map. ..
  • the evacuation space map creation unit sets a polar coordinate grid for the information in which the distance information and the image attribute information are superimposed, and creates the evacuation space map in units of horizontal angle regions in the polar coordinate grid.
  • the information processing device according to ⁇ 3>.
  • ⁇ 5> The information processing device according to ⁇ 3>, wherein the evacuation space map creation unit sequentially accumulates the created evacuation space map in association with its own position.
  • the evacuation mode setting unit that sets the evacuation mode according to the occurrence of an emergency, Further including a planning unit for planning the operation of the vehicle.
  • the information processing device according to any one of ⁇ 1> to ⁇ 5>, wherein when the evacuation mode is set, the planning unit plans the operation of the vehicle based on the evacuation space map.
  • ⁇ 7> The information processing device according to ⁇ 6>, wherein the planning unit searches for the evacuation space based on the evacuation space map, and plans an operation so as to stop the vehicle in the searched evacuation space. .. ⁇ 8> Based on the evacuation space map, the planning unit searches for the evacuation space farther and closest to the braking distance of the vehicle, and stops the vehicle in the searched evacuation space. The information processing device according to ⁇ 6>, which plans the operation. ⁇ 9> When an emergency vehicle approaches from behind in the emergency situation, the planning unit searches for the evacuation space based on the evacuation space map after decelerating the vehicle to a predetermined speed. The information processing device according to ⁇ 6>, wherein the operation is planned so that the vehicle is stopped in the searched evacuation space.
  • the planning unit searches for the evacuation space based on the evacuation space map, and the width of the searched evacuation space is the width of the vehicle.
  • the width is wider than the combined width of the width of the emergency vehicle and the width of the emergency vehicle, the vehicle is stopped in the evacuation space formed by the shoulder of the traveling lane so as to give the traveling lane to the emergency vehicle.
  • the information processing device according to ⁇ 6> to be planned.
  • the planning unit searches for the evacuation space based on the evacuation space map, and plans an operation so as to continue traveling of the vehicle when the evacuation space cannot be searched. ⁇ 6>.
  • Information processing equipment is information processing equipment.
  • the planning unit searches for the evacuation space based on the evacuation space map, and the width of the searched evacuation space is the width of the vehicle.
  • the information processing device according to ⁇ 6>, wherein the operation is planned so that the vehicle continues to run when the width is not wider than the combined width of the emergency vehicle.
  • the planning unit plans an operation so that the vehicle follows the vehicle while ensuring safety with the vehicle in front. apparatus.
  • the planning unit retreats when the state of operating the vehicle so as to follow the vehicle while ensuring safety with the vehicle in front continues for a predetermined time.
  • the operation is planned so that the vehicle is stopped in the evacuation space in front of the vehicle in front, farther than the braking distance of the vehicle, and in the nearest vicinity ⁇ 13>.
  • the information processing device described in. ⁇ 15> In the above-mentioned emergency situation, when an emergency vehicle approaches from behind, when the driver's dozing driving is detected, when the driver or passenger feels unwell, the driver's heart rate, etc. When the driver's physical condition is detected from the medical data, the driver declares an emergency, or an unexpected situation occurs in the driver or passenger, an abnormality is detected in the condition of the vehicle.
  • the information processing apparatus including the case where ⁇ 16> The information processing device according to any one of ⁇ 1> to ⁇ 15>, wherein the image attribute recognition unit recognizes the acquired attributes of each pixel in the image as image attribute information by semantic segmentation. ⁇ 17> The information processing device according to any one of ⁇ 1> to ⁇ 16>, wherein the image acquisition unit acquires the image captured by an infrared light camera.
  • the information processing device according to any one of ⁇ 1> to ⁇ 16>, wherein the image acquisition unit acquires the image captured by a polarizing camera.
  • Distance information acquisition processing for acquiring distance information and Image acquisition process to acquire images and Image attribute recognition processing that recognizes the acquired attributes of each area in the image as image attribute information
  • the evacuation space map creation process for creating an evacuation space map, which is a map consisting of evacuation spaces in which the vehicle can safely evacuate, is provided based on the distance information and the image attribute information.
  • the evacuation space map creation process sets a travelable area in which the vehicle can travel based on the distance information, and travels according to the condition of the road surface in the travelable area based on the image attribute information.
  • An information processing method that creates the evacuation space map by setting the evacuation space in the possible area.
  • the distance information acquisition unit that acquires distance information and
  • the image acquisition unit that acquires images and
  • An image attribute recognition unit that recognizes the acquired attributes of each area in the image as image attribute information
  • a computer is made to function as an evacuation space map creation unit that creates an evacuation space map, which is a map consisting of evacuation spaces in which the vehicle can safely evacuate based on the distance information and the image attribute information.
  • the evacuation space map creation unit sets a travelable area in which the vehicle can travel based on the distance information, and travels according to the condition of the road surface in the travelable area based on the image attribute information.
  • a program that creates the evacuation space map by setting the evacuation space in the possible area.
  • Vehicle control system 102 Data acquisition unit, 106 Output unit, 111 Storage unit, 112 Automatic operation control unit, 131 Detection unit, 132 Self-position estimation unit, 133 Situation analysis unit, 134 Planning unit, 135 Motion control unit, 141 Outside the vehicle Information detection unit, 151 map analysis unit, 152 traffic rule recognition unit, 153 situation recognition unit, 154 situation prediction unit, 201 camera, 202 depth sensor, 203 GPS, 211 vehicle detection unit, 212 attribute recognition unit, 213 depth sensing unit, 231 Emergency vehicle identification unit, 232 vehicle tracking unit, 233 polar coordinate grid processing unit, 234 evacuation space mapping unit

Abstract

本開示は、自動運転において緊急事態が発生しても安全な路肩に適切に停車できるようにする情報処理装置、および情報処理方法、並びにプログラムに関する。 デプスセンサ等の距離情報に基づいて、オキュパンシマップのような車両が走行可能な走行可能領域を設定し、セマンティックセグメンテーションにより画像より画像属性情報を生成し、画像属性情報に基づいた、走行可能領域内の路面の状況に応じて、走行可能領域内に、退避スペースを設定することで退避スペースマップを作成する。本開示は、移動体に適用することができる。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、自動運転において緊急事態が発生しても安全な路肩に適切に停車できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
 自動運転が一般化して実用化された場合、通常状態において、目的地までの経路として想定される走行車線上を、周囲の状況を確認しながら走行することで、自律的な走行が安全に実現される。
 しかしながら、緊急車両が接近してくるような緊急事態においては、走行車線上とは異なる、すなわち、通常では走行することがない路側帯などに車体を安全に停車させて、走行車線を緊急車両に譲る必要がある。
 そこで、緊急時には路肩を検出して停車可能であるか否かを判定し、停車可能であれば停車することで安全に停車する技術が提案されている(特許文献1参照)。
特開2010-020371号公報
 しかしながら、特許文献1の技術においては、障害物の有無に基づいて安全に停車可能な路肩が探索されるものの、例えば、側溝が設けられている路肩や、積雪などにより凍結しているような路肩の場合、安全に停車することができない路肩であるにも関わらず、安全に停車可能な路肩として探索されてしまう恐れがあった。
 結果として、特許文献1に記載の技術では、安全に停車できない可能性のある路肩が安全に停車可能な路肩とみなされて探索されてしまう可能性があり、緊急車両の接近に伴う緊急事態が生じたときに安全ではない路肩に停車しようとしてしまう恐れがあった。
 本開示は、このような状況に鑑みてなされたものであり、特に、運転中に緊急事態が発生するようなときでも、安全な路肩に適切に停車できるようにするものである。
 本開示の一側面の情報処理装置は、距離情報を取得する距離情報取得部と、画像を取得する画像取得部と、取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部とを備え、前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する情報処理装置である。
 本開示の一側面の情報処理方法およびプログラムは、情報処理装置に対応する。
 本開示の一側面においては、距離情報が取得され、画像が取得され、取得した前記画像内における領域毎の属性が画像属性情報として認識され、前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップが作成され、前記距離情報に基づいて、前記車両が走行可能な走行可能領域が設定され、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースが設定されることで前記退避スペースマップが作成される。
本開示の概要である緊急車両が接近したときの動作を説明する図である。 本開示の概要であるデプスセンサで適切に路面の危険な状態を検出できない例を説明する図である。 本開示の概要である退避スペースマップを説明する図である。 本開示の概要である退避スペースマップを説明する図である。 本開示を適用した車両制御システムの構成例を説明する図である。 本開示の退避スペースマップを生成する部位を図5の車両制御システムの構成例から抽出した構成例を説明する図である。 実際の車両の周辺の状態と対応する退避スペースマップの例を説明する図である。 退避スペースマップの生成方法を説明する図である。 退避スペースマップの生成に用いられる極座標グリッドを説明する図である。 極座標グリッドを用いた退避スペースマップの生成方法を説明する図である。 極座標グリッドを用いた退避スペースマップの生成方法を説明する図である。 極座標グリッドを用いた退避スペースマップの生成方法を説明する図である。 退避スペースマップの時間蓄積を説明する図である。 退避スペースマップ生成処理を説明するフローチャートである。 退避スペースマップを用いた退避方法その1の例を説明する図である。 退避スペースマップを用いた退避方法その2の例を説明する図である。 退避スペースマップを用いた退避方法その3の例を説明する図である。 退避スペースマップを用いた退避方法その1の例を説明する図である。 緊急退避処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.本開示の概要
 2.好適な実施の形態
 3.ソフトウェアにより実行させる例
 <<1.本開示の概要>>
 本開示は、緊急事態が発生した場合でも速やかに安全な領域に停車できるようにするものである。
 まず、図1を参照して、本開示の概要について説明する。
 例えば、図1の左部で示されるように、走行車線L1を自動運転により走行する自車CSが図中の上方である矢印の方向に、前走車である他車CA1に追従しながら走行している場合について考える。
 さらに、走行車線L1の図中右側となる対向車線L2上を図中の下方向の矢印で示されるように対向車である他車CA2が走行しているものとし、また、自車CSの後方から緊急車両CEが接近してくるものとする。
 尚、ユーザ自らが搭乗する車両を自車CSと称し、それ以外の車両を他車CA1,CA2と称する。
 このとき、自動運転で走行中の自車CSは、図1の右部における黒の矢印ERで示されるように、前走車である他車CA1よりも手前で、かつ、走行車線L1の路肩に車を寄せて停車させることで、緊急車両CEに対して、走行車線L1を譲るように退避する必要がある。
 この一連の動作をするにあたって、自車CSは、通常状態において、交通ルールに従って走行すべき走行車線L1上ではない路肩に入り込んで、停車するといった、交通ルールから逸脱する行動をとる必要がある。
 また、この場合、自車CSは、走行車線L1の左側の路肩のうち、安全に停車することができる路肩を探索し、探索された安全が確認された路肩に停車することになる。
 ここで、自車CSがLiDAR(Light Detection and Ranging or Laser Imaging Detection and Ranging)のようなデプスセンサを備えている場合、自車CSの走行方向に対して左側の路肩の状況をデプスセンサにより検出して、障害物とみなされる物体の有無により安全に停車することが可能な路肩を探索し、障害物の無い領域を安全に停車することができる路肩とみなして停車させる。
 例えば、自車CSの左側面から左側の路肩に対して赤外レーザ光を照射して、反射光に応じて路肩周辺の測距を行い、デプス画像を取得するLiDARが設けられているものとする。
 このとき、LiDARの測距結果からなるデプス画像に基づいて、自車CSが、路肩の障害物の有無を検出するような場合、自車CSは、デプス画像により路面は適切に検出できても、路肩の状況を適切に検出できないことがある。
 例えば、図2の上段における、自車CSの進行方向に対して、路面RFの左側の路肩に側溝Gが設けられているような場合であっても、LiDARにより検出されるデプス画像では解像度、もしくは、LiDARの路面に対する設置位置・角度により路肩に存在する側溝Gを検出できないことがある。
 尚、図2は、自車CSの後方を走行する緊急車両CEの運転席から自車CSを見たときに、自車CSに設けられたLiDARにより照射される赤外レーザ光を放射状の直線で表した図である。
 すなわち、図2の上段の自車CSの進行方向に対して左方向に、LiDARからの赤外レーザ光が照射される場合、赤外レーザ光は、路面RFの左側の路肩に側溝Gが設けられているようなとき、路面RF上に赤外レーザ光は照射されるので、路面RFを検出することはできる。
 しかしながら、LiDARからの赤外レーザ光は、赤外レーザ光の解像度や入射角度により、図2の上段で示されるように、側溝Gには照射されることがないことがある。
 図2の上段のように、LiDARにより得られるデプス画像内では、実際には存在する側溝Gの存在を示すような検出結果が得られないことがあるため、実際には側溝Gがあり、安全に停車できない路肩であるにも関わらず、安全に停車可能な路肩であるとみなされる可能性があった。
 また、図2の中段で示されるように、路肩に障害物Bが存在する場合であっても、障害物Bが、赤外レーザ光の解像度により、赤外レーザ光の間隔内に収まってしまうことがある。
 図2の中段のように、LiDARにより検出されるデプス画像内には、実際には存在する障害物Bの存在を示すような検出結果が得られないため、実際には障害物Bがあり、安全に停車できない路肩であるにも関わらず、安全に停車可能な路肩であるとみなされる可能性があった。
 さらに、図2の下段で示されるように、路肩に自車CSが衝突するような障害物がなくても、路面RFの路肩が凍結路面FZであるような場合、LiDARにより検出されるデプス画像からでは、路肩が凍結路面FZであることは認識できない。
 このように、LiDARにより検出されるデプス画像内では、現実に障害物や側溝がない場合であっても、凍結路面FZがあり、安全に停車できない路肩であるにも関わらず、安全に停車可能な路肩であるとみなされる可能性があった。
 そこで、本開示においては、走行しながら時系列に安全に停車することが可能な退避スペースからなるマップを退避スペースマップとして生成し、緊急事態が発生したときには、退避スペースマップに基づいて、安全に自車CSを停車させるようにする。
 ここで、退避スペースマップとは、例えば、図3で示されるように、環境マップレイヤ構造におけるオキュパンシマップM4,レーンマップM2、および動物体マップM1のうちの、オキュパンシマップM4とレーンマップM2との間に設定される退避スペースマップM3である。
 ここで、オキュパンシマップM4は、LiDARやStereoカメラなどから構成されるデプスセンサにより得られるデプス画像In3と、GPS(Global Positioning System)、IMU(Inertial Measurement Unit)、およびVO(Visual Odometry)等の自己位置センサにより検出される自己位置情報In4とから得られるマップである。
 より具体的には、オキュパンシマップM4は、自車CSから見て、自車CSが走行すると接触する可能性を有する高さを有する物体のある領域と、それ以外の領域を示すマップである。
 また、レーンマップM2は、自己位置情報In4、デプス画像In3、RGBカメラ、偏光カメラ、および赤外線カメラ等により撮像される画像内における路面上の白線等の物体認識結果からなる画像認識結果In2、並びに、レーンの位置が示された事前地図In1より得られる、車両が走行するレーン(走行車線)の位置を特定するマップである。
 さらに、動物体マップM1は、自己位置情報In4、デプス画像In3、および画像認識結果In2より得られるリアルタイムな画像内における自車CSの周囲に存在する動物体の位置を示すマップである。
 すなわち、オキュパンシマップM4上における、自車CSが走行すると接触する可能性を有する物体が存在しない領域で、かつ、レーンマップM2より得られる走行車線上のうち、動物体マップM1より得られる動物体の位置に基づいて、動物体が存在しない領域を走行するように制御されることで自車CSの自動運転が実現される。
 本開示では、オキュパンシマップM4とレーンマップM2との中間階層として、オキュパンシマップM4上における、自車CSが走行すると接触する可能性を有する物体が存在しない領域で、かつ、レーンマップM2より得られる走行車線の側面の路肩のうち、安全に停車することができる退避スペース(退避可能領域)と、安全な退避が不能な退避不能領域からなる退避スペースマップM3を生成する。
 そして、緊急事態が発生したときには、自車CSは、退避スペースマップM3に基づいて、安全に停車可能な退避スペースに停車させることで、緊急事態が発生した時でも安全な退避スペース(路肩)での停車を実現する。
 退避スペースマップM3は、自己位置情報In4、デプス画像In3、および画像認識結果In2より、オキュパンシマップM4上における障害物がない領域であって、レーンマップM2における走行車線(レーン)から逸脱した路肩等を含めた退避可能領域(退避スペース)と、退避不能領域を示すマップである。
 より具体的には、退避スペースマップM3は、例えば、図4で示されるようなマップである。
 図4においては、退避可能領域は、自車CSから見て、左右の障害物が存在する領域Z1と、それ以外の障害物がない領域Z2のうち、走行車線であるレーンの領域Z12と、危険領域Z3を除く領域Z11とからなる領域となる。従って、危険領域Z3は、退避不能領域となる。
 自車CSは、緊急時に、領域Z11,Z12からなる退避可能領域のうち、例えば、走行車線であるレーンの領域Z12を緊急車両に譲りつつ、安全に停車することができる退避スペースを設定して停車する。
 ここで、退避可能領域の特定にあたっては、自車CSの周囲の画像に基づいて、画像内の物体のそれぞれを、例えば、セマンティックセグメンテーションにより認識することにより、側溝や凍結路面などの危険領域ではない領域が、退避可能領域として特定される。
 このように、緊急事態が発生したとき、自車CSを安全に退避可能な退避可能領域からなる領域Z11,Z12が示されるマップが、退避スペースマップM3であり、自車SCは、退避スペースマップM3に基づいて、退避可能領域の中から、状況に応じた退避スペースを特定して停車させる。
 本開示においては、この退避スペースマップM3が走行に際して継続的に生成されるようにし、緊急事態が発生した際には、生成した退避スペースマップM3の情報に基づいて退避可能領域のうちから、安全に停車できる領域を退避スペースとして特定し、特定した退避スペースで、安全に停車させる。
 結果として、緊急事態が発生した場合でも、障害物の無い、安全な領域に自車を停車させることが可能となる。
 <<2.好適な実施の形態>>
 図5は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。すなわち、車両制御システム100が設けられている車両が図1における自車SCに対応し、それ以外の車両が他車CA1,CA2に対応する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。
緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 <退避スペースマップを生成し、緊急事態が発生したとき退避スペースを特定して停車させる構成例>
 次に、図6を参照して、図5の車両制御システム100のうち、退避スペースマップを生成し、緊急事態が発生したとき、退避スペースマップに基づいて、退避スペースを特定して停車させる構成を抽出して説明する。
 退避スペースマップを生成し、緊急事態が発生したとき、退避スペースマップに基づいて、退避スペースを特定して停車させる構成は、データ取得部102、出力部106、記憶部111、並びに、自動運転制御部112における検出部131の車外情報検出部141、自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、および状況認識部153、計画部134、および動作制御部135からなる。
 データ取得部102は、例えば、カメラ201、デプスセンサ202、およびGPS203を備えている。
 カメラ201は、例えば、RGBカメラや偏光カメラからなり、少なくとも自車の走行方向を含む、自車の周囲の画像を撮像して、撮像した画像を車外情報検出部141、および自己位置推定部132に出力する。
 デプスセンサ202は、例えば、LiDARやステレオカメラからなり、少なくとも自車の走行方向を含む、自車の周囲の物体までの距離情報を画素単位で検出し、検出結果であるデプス画像を、車外情報検出部141、および自己位置推定部132に出力する。
 GPS203は、図示せぬ衛星からの信号を受信して、自車の地球上の緯度経度からなる位置を測位して、測位結果を自己位置推定部132に出力する。
 車外情報検出部141は、データ取得部102のカメラ201、デプスセンサ202、およびGPS203のそれぞれより供給される画像、デプス画像、および測位結果に基づいて、各種の車外情報を検出して状況認識部153に出力する。
 より詳細には、車外情報検出部141は、車両検出部211、属性認識部212、およびデプスセンシング部213を備えている。
 車両検出部211は、カメラ201により撮像された画像(2次元画像およびステレオ画像を含む)に基づいた画像認識により、画像内における車両の領域を検出して、車両の領域を示す検出結果を状況認識部153に出力する。
 属性認識部212は、カメラ201により撮像された画像(2次元画像およびステレオ画像を含む)に、例えば、ディープラーニング等を用いて学習されたセマンティックセグメンテーション等の物体認識処理を施し、画像内の各領域を画素単位で、どの物体に属する領域であるかを認識し、認識結果を画像属性情報として状況認識部153に出力する。
 属性認識部212は、例えば、画像属性情報に基づいて、自車による安全な走行が可能な安全領域と、自車による安全な走行ができない領域、または、走行を回避すべき領域を危険領域として認識し、画像属性情報に含めて出力する。
 より具体的には、属性認識部212は、画像属性情報に、側溝、衝突する可能性のある高さを備えた物体(落下物など)、および凍結路面などが検出される場合、これらの領域を画素単位の属性情報に加えて、危険領域であることを示す属性情報を付加して画像属性情報を生成する。
 属性認識部212は、例えば、カメラ201が偏光カメラであるときには、偏光カメラで撮像された偏光画像に基づいて、例えば、路面上の鏡面反射部分を除去した画像に対するディープラーニングにより凍結部分等を認識し、危険領域とみなして画像属性情報を生成する。
 また、属性認識部212は、例えば、カメラ201が赤外光カメラであるときには、赤外光カメラで撮像された赤外光画像に基づいて、例えば、水・氷を吸収する波長帯での赤外線反射率により路面上の水たまりや凍結部分等を認識し、危険領域とみなして画像属性情報を生成する。
 デプスセンシング部213は、デプスセンサ202より供給されるデプス画像の情報に基づいて、カメラ201における画像に対応する画素単位での距離情報を生成し、状況認識部153に出力する。
 自己位置推定部132は、カメラ201より供給される画像、デプスセンサ202より供給されるデプス画像、GPS203より供給される緯度経度からなる自己位置情報、および記憶部111に記憶されている事前地図の情報に基づいて、高精度な自己位置と姿勢を推定する。
 そして、自己位置推定部132は、推定結果である自己位置と姿勢の情報をマップ解析部151、交通ルール認識部152、および状況認識部153に出力する。
 状況認識部153は、車両の検出結果に基づいて、緊急車両の接近の特定および退避モードの指示を出力部106に出力し、スピーカやディスプレイ等に表示させる。
 また、状況認識部153は、車両の検出結果、画像属性情報、および距離情報に基づいて、緊急車両を含む前走車、および対向車の情報、並びに退避スペースマップを生成して、計画部134に出力する。
 より詳細には、状況認識部153は、緊急車両識別部231、車両トラッキング部232、極座標グリッド処理部233、および退避スペースマッピング部234を備えている。
 緊急車両識別部231は、車両検出部211より供給される画像内における車両の領域の情報、周辺の緊急車両が使用する無線通信の情報、緊急車両の発する警報音の音声、およびユーザが発する、または、入力する緊急車両の接近を示す情報の少なくともいずれかに基づいて、緊急車両の接近の有無を識別し、緊急車両の接近が認識されるとき、緊急車両の接近を示す情報と共に、退避モードを指示する情報を状況予測部154に出力する。
 緊急車両の接近を示す情報と共に、退避モードを指示する情報が、緊急車両識別部231より供給される場合、状況予測部154は、供給された情報に基づいて、緊急車両の接近を示す情報と共に、退避モードを指示する情報を出力部106に出力する。
 これに応じて、出力部106は、スピーカやディスプレイ等により画像や音声で、自車を運転する運転者に対して、緊急車両の接近を示す情報を提示するとともに、退避モードに入る指示がなされていることを示す情報を提示する。
 車両トラッキング部232は、車両検出部211より供給される画像内における車両の領域の情報を時系列に取得し、緊急車両を含む、全ての前走車、および対向車の動きをトラッキングして、トラッキング結果を状況予測部154に出力する。
 極座標グリッド処理部233は、画像属性情報、距離情報、事前地図、および自己位置推定結果である自己位置と姿勢の情報に基づいて、極座標グリッド処理を施して、退避スペースマップを生成し、生成した退避スペースマップを退避スペースマッピング部234に出力する。
 ここで、極座標グリッド処理においては、まず、極座標グリッド処理部233は、画像属性情報、距離情報、事前地図、および自己位置推定結果である自己位置と姿勢の情報に基づいて、自車位置を中心とした極座標系のグリッドを極座標グリッドとして設定する。
 そして、極座標グリッド処理部233は、後述する極座標グリッドにおける水平方向領域単位で、距離情報に基づいて、障害物の存在する走行不能領域、および、それ以外の走行可能領域を設定する。
 さらに、極座標グリッド処理部233は、画像属性情報に基づいて、走行可能領域内における、走行車線の領域と、走行車線外であるが路肩などであって安全に退避可能なスペースとからなる退避可能領域を設定すると共に、走行も退避もすることができない危険領域(退避不能領域)とを設定する。
 そして、極座標グリッド処理部233は、極座標グリッドにおける水平方向領域単位で、走行不能領域、退避可能領域、および危険領域(退避不能領域)とからな退避スペースマップを時系列に生成する。
 なお、極座標グリッド処理について、図7乃至図13を参照して、詳細を後述する。
 退避スペースマッピング部234は、極座標グリッド処理部233により時系列に生成される退避スペースマップを時間蓄積することで退避スペースマップを拡張させて記憶し、退避モード時に状況予測部154に出力する。
 すなわち、退避スペースマッピング部234は、極座標グリッド処理部233により時系列に順次生成される、退避スペースマップを時間蓄積することにより、より広い範囲の広域の退避スペースマップを生成し、広域の退避スペースマップを、退避モード時に状況予測部154を介して計画部134に出力する。
 状況予測部154は、緊急車両の接近を示す情報、退避モードを指示する情報、緊急車両を含む全ての前走車および対向車のトラッキング情報、退避スペースマップ、並びに、交通ルール認識部152より供給される走行車線の位置情報であるレーン情報を取得すると、これらの情報を状況予測結果として計画部134に出力する。
 交通ルール認識部152は、記憶部111に記憶されている事前地図の情報と、自己位置推定結果である詳細な自己位置と姿勢の情報に基づいて、自車の周囲の交通ルールの認識処理を行い、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線であるレーン情報を、状況予測部154に出力する。
 マップ解析部151は、自己位置推定結果である詳細な自己位置と姿勢情報を自己位置推定部132より取得すると、記憶部111に記憶されている事前地図に基づいて、自動運転の経路の計画に必要なマップ情報を生成して計画部134に出力する。
 計画部134は、目的地までのルートを計画し、計画したルートを走行する上で必要とされる動作制御情報を生成して動作制御部135に出力する。
 この際、計画部134は、状況予測部154より退避モードを指示する情報が供給されるときには、併せて供給される退避スペースマップの情報に基づいて、退避スペースを探索し、探索された退避スペースに安全に停車させるための動作制御情報を生成して動作制御部135に出力する。
 動作制御部135は、計画部134より供給される動作制御情報に基づいて、自車のアクセル、ブレーキ、およびステアリング等を制御して、目的地までの計画されたルートを走行すると共に、退避モードが指示されるとき、退避スペースマップに基づいて計画された退避スペースに安全に停車させる。
 <退避スペースマップ>
 次に、図7を参照して、時系列に生成される退避スペースマップについて、説明する。
 例えば、図7の左部で示されるように、自車SCが図中の上方に向かって走行している場合について考える。
 図7の左部においては、自車SCの両側に、自車SCが走行すると衝突の恐れがある高さの障害物が存在する走行不能領域である領域Z1が存在し、それ以外の領域Z2が走行可能領域とされている。
 また、領域Z2内においては、セマンティックセグメンテーション等の物体認識により、認識される路上の白線等の間が走行車線として認識される。
 ここで、図7の左部における走行車線の左側の路肩には、凍結路面や陥没等からなる、走行することが危険な領域Z3が存在するものとする。
 目的地までのルートを走行する走行モード(以下、通常モードとも称する)の際には、走行車線が認識されることにより、走行車線から逸脱しない範囲で、経路が計画されて、自動運転による走行が実現される。
 したがって、通常モードにおいては、図7の左部で示される情報が得られる限り、自動運転を継続することが可能である。走行に危険が伴う恐れのある領域Z3についても、走行車線上を走行している限り、特に影響を受けることもない。
 しかしながら、例えば、自車SCの後方から緊急車両が接近するような場合、自車SCは、走行車線の外側となる路肩等の安全な領域に停車させて、緊急車両に走行車線を譲るように退避する必要が生じる。
 尚、このように走行車線の外側となる路肩等の安全な領域に停車させて緊急車両に走行車線を譲るように退避する走行モードを以降においては退避モードとも称する。
 すなわち、退避モードの場合、通常モードにおける場合とは異なり、走行車線から逸脱した上で、停車する必要がある。
 このため、退避モードに対応するためには、図7の中央部で示されるように、走行可能領域Z2において、走行車線であるレーンの領域Z12に加えて、安全に退避が可能な退避スペースを示す領域Z11からなる退避可能領域と、安全な退避ができない危険領域(退避不能領域)Z3とを設定する必要がある。
 すなわち、図7の中央部で示されるように、走行可能領域Z2において、走行車線であるレーンの領域Z12、および、安全に退避が可能な退避スペースを示す領域Z11からなる退避可能領域と、安全な退避ができない危険領域(退避不能領域)Z3が設定されたマップが退避スペースマップとなる。
 尚、図7の中央部の退避スペースマップは、上述した図4の退避スペースマップに対応する。
 図7の中央部で示される退避スペースマップで示されるような状況が現実に存在する場合、図中の自車SCの運転席中央にカメラ201の視野Vで撮像される画像は、例えば、図7の右部で示されるような画像となる。
 すなわち、図7の右部においては、視野Vにおける左右に壁のような障害物の領域(走行不能領域)Z1が存在し、その間に走行可能領域Z2が設けられ、また、走行可能領域Z2の中央部に走行車線からなる領域Z12と、その外側の路肩に安全に退避可能な退避スペースの領域Z11とが退避可能領域として設定される。さらに、領域Z11のうち、障害物や側溝などの存在により安全な退避が不能な領域が危険領域(退避不能領域)Z3として設定されている。
 退避スペースマップは、走行車線からなる領域Z12と退避スペースの領域Z11のうちの危険領域(退避不能領域)Z3を除いた領域とからなる退避可能領域と、危険領域(退避不能領域)Z3とから構成されるマップである。
 例えば、図7の左部および中央部における視野Vで、図7の右部で示されるような画像が撮像されるとき、セマンティックセグメンテーション等の物体認識処理により、画像内における領域Z1に障害物が存在することが認識される。
 また、領域Z12において走行も退避も可能な走行車線が認識され、領域Z11において退避可能な路肩が認識され、領域Z11,Z12が併せて退避可能領域として認識される。
 さらに、走行に危険が伴う恐れがあり退避不能な危険領域(退避不能領域)Z3が認識されることになる。
 すなわち、属性認識部212は、カメラ201により図7の左部で示されるような画像が撮像されるとき、図7の右部で示されるような、走行可能領域となる領域Z2に対して、領域Z12と領域Z3を除く領域Z11からなる退避可能領域と、危険領域(退避不能領域)Z3とからなる物体認識結果を画像属性情報として出力する。
 <退避スペースマップの生成方法>
 次に、退避スペースマップを生成する具体的な方法について説明する。
 極座標グリッド処理部233は、属性認識部212より供給される画像属性情報と、デプスセンシング部213より供給される距離情報とを合成することにより、例えば、図8で示されるような画像を生成する。
 図8においては、図7の右部で示される属性認識部212により供給される画像属性情報である画像に対して、対応する画像内における距離情報として、例えば、デプスセンサ202がLiDARにより構成されるときの測距結果Dpが合成されている様子が示されている。
 尚、例えば、LiDARからなるデプスセンサ202の測距結果Dpは、カメラ201により撮像される画像の解像度と比較すると低解像度の情報であるため、図8においては、測距結果Dpが画像上において斑点状に表記されている。
 極座標グリッド処理部233は、図8で示されるような画像に、図9の上段で示されるような格子状の極座標グリッドGdを設定する。
 図9の上段においては、極座標グリッドGdは、水平方向×垂直方向に対して10列×6行からなるマス目として設定されているが、行列数は、これに限るものではない。
 ところで、図9の上段の極座標グリッドGdの水平方向のマス目の位置は、図9の下段で示される自車SCから見たときの極座標グリッドGdの水平角度方向に相当し、図9の上段の極座標グリッドGdの垂直方向のマス目の位置は、図9の下段における極座標グリッドGdの自車SCからの距離方向に相当する。
 このため、図9の上段における極座標グリッドGdの下方のマス目の画像ほど、図9の下段における極座標グリッドGdの自車SCから近い距離の領域のマス目の画像に対応することになる。
 すなわち、極座標グリッドGdは、自車SCの上方からみた、図9の下段で示されるような上面図で表現すると、扇状の座標系で示されるグリッドとなる。尚、図9の下段のグリッドGdにおける点線よりも自車SCに近い領域については、画角に収まっていないので、図9の上段のグリッドGdには反映されていない。
 より具体的には、図9の上段における左から3列目のマス目で表現される範囲Gdaの6行分のマス目は、図9の下段における放射状の極座標グリッドGdにおける6マス分の範囲Gdaに対応する。
 すなわち、図9の上段における範囲Gdaの列における上から6マス目までの画像の情報は、図9の下段における範囲Gdaの外周部から6マス目までの色が付された範囲の距離の情報に対応する。尚、説明は省略するが、その他の列のマス目も同様に対応する。
 図9の極座標グリッドGdにおいては、その他のマス目で示される列単位でも、図9の上段、および下段のそれぞれが対応する。
 極座標グリッド処理部233は、図9の上段におけるグリッドGdにおける範囲Gdaで示されるような各列単位、すなわち、図9の下段におけるグリッドGdにおける範囲Gdaで示されるような、所定の水平角度方向の範囲を単位とする水平角度領域単位で退避スペースマップを生成する。
 ここで、図9の上段における範囲Gdaの場合、図10の左部で示されるように、極座標グリッド処理部233は、マス目の単位で、事前地図情報と、画像属性情報と、距離情報とを対応付けることにより、退避スペースマップを生成する。
 例えば、図10の左部の範囲Gdaの場合、上から3マス目までは、障害物として認識された領域Z1であり、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から上から3マス目までの距離は、それぞれ上から障害物までの距離d1乃至d3とされる。
 また、図10の左部の範囲Gdaの上から4マス目には、危険領域Z3が含まれており、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から、上から4マス目までの距離は、距離d4とされる。
 さらに、図10の左部の範囲Gdaの上から5マス目には、路肩からなる領域Z11が含まれており、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から、上から5マス目までの距離は、距離d5とされる。
 また、図10の左部の範囲Gdaの上から6マス目には、走行車線からなる領域Z12が含まれており、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から、上から6マス目までの距離は、距離d6とされる。走行車線からなる領域Z12は、事前地図情報と自車の自己位置を用いて認識することも可能である。
 そこで、まず、極座標グリッド処理部233は、距離情報、および、事前地図情報、画像属性情報に基づいて、走行不能領域と走行可能領域を設定する。すなわち、図10の範囲Gdaの各マス目の情報は、オキュパンシマップに対応付けられると、図11の左部で示されるように上から3マス目までが走行不能領域からなる領域Z1として表現され、下から3マス目までが走行可能領域からなる領域Z2として表現されることになる。極座標グリッド処理部233は、事前地図情報や画像属性情報等より得られる自車走行車線領域Z12が載っている3次元平面上で、かつ、センサ位置から距離情報が3次元平面上に載らない点より手前の距離に位置する領域を走行可能領域Z2とし、さらに、画像属性情報で障害物として認識された、もしくは、距離情報が自車走行車線領域を含む3次元平面上に載らない点と対応する領域を、走行不能領域Z1とし、図11の左部で示されるようなオキュパンシマップと同様に走行不能領域からなる領域Z1と走行可能領域からなる領域Z2を設定する。
 次に、極座標グリッド処理部233は、画像属性情報に基づいて、走行可能領域からなる領域Z2内に退避可能領域と退避不能領域を設定する。すなわち、図11の左部の走行可能領域Z2に対して、画像属性情報が適用されることにより、図11の右部で示されるように、下から3マス目の範囲が、退避不能領域(危険領域Z3)として設定され、下から2マス目までの路肩からなる領域Z11と走行車線からなる領域Z12とが退避可能領域からなる領域Z21として設定されて、1列分の退避スペースマップが生成されることになる。
 尚、図9乃至図11を参照して言う退避可能領域は、走行車線と路肩との範囲であって、危険領域を含まない範囲となる。
 すなわち、まず、第一段階の処理として、距離情報に基づいて、走行不能領域と走行可能領域とが設定されて、実質的に、オキュパンシマップが設定される。
 そして、次に、第二段階の処理として、オキュパンシマップが設定された後、オキュパンシマップにおける走行可能領域内に対して、画像属性情報が適用されて、退避可能領域と退避不能領域とが設定されることにより、退避スペースマップが生成される。
 上述した二段階の処理により、図12の左上部の範囲Gdaで示される、画像属性情報と距離情報とが合成された画像と対応する退避スペースマップは、図12の中央上部で示されるようなものとなる。
 ここで、図12の中央上部で示される、範囲Gdaの退避スペースマップにおいては、図12の右上部で示されるように、カメラ201およびデプスセンサ202の視野Vの視点位置から障害物からなる領域Z1までの距離が距離Dcとされ、危険領域Z3まで距離が距離Dbとされ、走行車線であるレーンの領域Z12までの距離が距離Daとされ、路肩等からなる領域Z11までの距離が距離Deとなる。
 そこで、極座標グリッド処理部233は、図12の右上部で示される範囲Gdaの退避スペースマップを、図12の下段で示される範囲Gdaの退避スペースマップとして設定する。
 極座標グリッド処理部233は、極座標グリッドGdの全範囲について、退避スペースマップを生成して、退避スペースマッピング部234に出力し記憶させ、時間蓄積させる。
 退避スペースマッピング部234は、時系列の退避スペースマップを記憶して、時間蓄積させることにより、退避スペースマップを時系列に拡張させていく。
 より詳細には、退避スペースマッピング部234は、図13の右部で示されるような、所定のタイミングにおけるカメラ201およびデプスセンサ202の視点位置CSSの視野Vの退避スペースマップZVを記憶し、この処理を順次繰り返して時間蓄積する。
 すなわち、図13の左部で示されるように、退避スペースマッピング部234は、時刻T1におけるカメラ201およびデプスセンサ202の視点位置CSS1の視野V1の退避スペースマップZV1を記憶すると、時刻T2における視点位置CSS2の視野V2の退避スペースマップZV2を退避スペースマップZV1に重ねることで時間蓄積する。
 同様に、退避スペースマッピング部234は、時刻T3における視点位置CSS3の視野V3の退避スペースマップZV3を記憶すると、時刻T1,T2における視野V1,V2の退避スペースマップZV1,ZV2に、退避スペースマップZV3を重ねることで時間蓄積する。
 以下、同様の処理を繰り返すことにより、退避スペースマッピング部234は、自己位置に対応付けて、退避スペースマップの時間蓄積を繰り返すことにより、退避スペースマップを時系列に順次空間方向に拡張し続ける。
 尚、この時間蓄積方法は、一般的なオキュパンシマップの時間蓄積方法と同様であり、例えば、Binary Bayes Filter等を用いることができる。
 <退避スペースマップ生成処理>
 次に、図14のフローチャートを参照して、退避スペースマップ生成処理について説明する。
 ステップS11において、カメラ201は、自車SCの走行方向前方の画像を撮像して、車外情報検出部141に出力する。
 ステップS12において、属性認識部212は、カメラ201により撮像された画像について、例えば、セマンティックセグメンテーション等の物体認識処理により、画素単位で属性判定を行い、判定結果である画像属性情報を生成する。
 ステップS13において、属性認識部212は、生成した画像属性情報を状況認識部153の極座標グリッド処理部233に出力する。
 ステップS14において、デプスセンサ202は、LiDAR等を用いた距離画像を撮像してデプスセンシング部213に出力する。デプスセンシング部213は、距離画像に基づいて画素単位の距離情報を生成して、状況認識部153の極座標グリッド処理部233に出力する。
 ステップS15において、極座標グリッド処理部233は、画像属性情報と距離情報とを合成して合成画像を生成すると共に、図9を参照して説明した手法で、合成画像に対して極座標グリッドGdを設定する。
 ステップS16において、極座標グリッド処理部233は、図9の極座標グリッドGdにおける未処理の水平角度領域を処理対象に設定する。ここでいう水平角度領域とは、例えば、図9における範囲Gdaであり、極座標グリッドGdのうちの、未処理の範囲Gdaが処理対象の水平角度領域に設定される。
 ステップS17において、極座標グリッド処理部233は、極座標グリッドGdにおける処理対象となる水平角度領域となる列のマス目における距離情報に基づいて、処理対象となる水平角度領域における走行不能領域と走行可能領域とを設定する。
 すなわち、ステップS17の処理により、図11の左部を参照して説明したように、走行不能領域と走行可能領域とが設定されることにより、オキュパンシマップに対応するマップが生成される。
 ステップS18において、極座標グリッド処理部233は、極座標グリッドGdにおける処理対象となる水平角度領域における、走行可能領域内の画像属性情報に基づいて、退避可能領域と退避不能領域とを設定する。
 そして、極座標グリッド処理部233は、走行可能領域内に設定した退避可能領域と、退避不能領域とからなる退避スペースマップを生成し、退避スペースマッピング部234に記憶させる。
 すなわち、ステップS18の処理により、図11の右部を参照して説明したように、オキュパンシマップに相当するマップのうちの走行可能領域内に、退避可能領域と退避不能領域とが設定されることにより、退避スペースマップが生成されることになる。
 ステップS19において、極座標グリッド処理部233は、未処理の水平角度領域が存在するか否かを判定し、未処理の水平角度領域が存在する場合、処理は、ステップS16に戻る。
 すなわち、ステップS16において、全ての水平角度領域について退避スペースマップが生成されるまで、ステップS16乃至S19の処理が繰り返される。
 そして、ステップS19において、全ての水平角度領域の退避スペースマップが生成されると処理はステップS20に進む。
 ステップS20において、退避スペースマッピング部234は、全ての水平角度領域の退避スペースマップを、自己位置に対応付けて時間蓄積して、時系列に拡張していく。
 ステップS21において、極座標グリッド処理部233は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返される。
 そして、ステップS21において、終了が指示された場合、処理は終了する。
 以上の処理により、画像属性情報と距離情報とに基づいて、走行不能領域と、走行可能領域とが設定された後、さらに、走行可能領域内に、退避可能領域と、退避不可領域とが設定されることにより、退避可能領域からなる退避スペースマップを生成することが可能となる。
 尚、以上においては、自車SC自らが退避スペースマップを生成する処理について説明してきたが、他車が生成した退避スペースマップを取得するようにしてもよい。
 また、複数の車両が生成した退避スペースマップをクラウドサーバ等に集約し、様々な車両がダウンロードして使用するようにしてもよい。
 このような観点から、退避スペースマップは、走行に際して、自らで生成するようにしてもよいし、他車やクラウドサーバ等から事前に取得するようにしてもよい。
 ただし、退避スペースマップの情報は、時々刻々と変化する道路や天候等の各種の情報に基づいて生成されるものでもあるので、自らで生成しない場合については、所定の時間間隔で更新されるようにし、ある程度新しい情報が取得される状況が望ましい。
 <緊急退避の例>
 (その1)
 次に、上述した処理により生成された退避スペースマップを用いることにより、緊急車両の接近に伴った退避スペースへの緊急退避の例について説明する。
 退避スペースマップが、例えば、図15で示されるように、自車CSの前方に対して、右側に障害物の領域Z1、走行車線の領域Z12、および退避可能な路肩等からなる領域Z11の三種類の領域が全て設定されている場合について考える。
 ここで、図15の領域Z11,Z12の水平方向の幅が、自車CSが退避するための幅W11に緊急車両の通行に必要な幅W12を加えた以上の幅が存在するものとする。
 すなわち、図15においては、障害物の領域Z1以外の、領域Z11,Z12からなる領域Z2が、全域が退避可能領域(Z21)として退避スペースマップには登録されることになる。
 図15の場合、計画部134は、退避スペースマップに基づいて、領域Z2の全域となる退避可能領域内において、自車CSの退避スペース候補を探索し、探索した退避スペース候補のうち、最も退避させるのに適した領域を退避スペースとして特定する。
 より詳細には、後方より緊急車両ECが接近してくる場合、退避スペースは、緊急車両ECに走行車線に譲ることを目的として自車SCを退避させて停車させるスペースとなる。
 このため、図15の場合、計画部134は、退避スペースマップにおける退避可能領域のうち、緊急車両ECを通過させるための走行車線側の幅W12の領域を備えた領域を譲渡領域Z31として設定する。
 ここで、計画部134は、譲渡領域Z31の設定に当たって、例えば、画像属性情報に基づいて、走行車線からなる領域Z12と認識される領域が含まれるような緊急車両ECの幅W12の領域を備えた譲渡領域Z31を設定する。
 また、計画部134は、退避可能領域内における譲渡領域Z31以外の領域、すなわち、譲渡領域Z31の境界BBより路肩側であって、自車CSが退避するために必要な幅W11を備えた、図中の一点鎖線で囲まれた領域Z51を退避スペース候補領域として探索する。
 さらに、計画部134は、探索された退避スペース候補領域としての領域Z51のうち、自車CSの制動距離B11より前方の最も近傍の領域であって、自車CSが走行車線に対して路肩側に退避するための幅W11を備えた、図中の点線で囲まれる領域Z51aを退避スペースとして特定する。
 そして、計画部134は、特定された退避スペースからなる領域Z51aに自車CSを退避させる経路を計画し、計画した経路を辿って移動して停車するような動作制御情報を動作制御部135に出力する。
 動作制御部135は、計画部134からの動作制御情報に基づいて、特定された退避スペースからなる領域Z51aに停車させるための挙動を実現させるためアクセル、ブレーキ、およびステアリングを動作させて自車CSを退避スペースに移動させ、停車させる。
 このような一連の動作により、自車CSは、緊急車両が接近するような場合に、緊急車両に対して走行車線を譲りつつ、安全に停車して退避することが可能となる。
 尚、図15の場合、走行車線からなる領域Z12の右側には、障害物の領域Z1が設定されており、路肩からなる領域Z11が走行車線の領域Z12に対して左側に存在することから退避スペースとしての領域Z51が、走行車線からなる領域Z12の左側に設定される例について説明してきた。
 しかしながら、走行車線からなる領域Z12を緊急車両に譲ることができればよいので、領域Z12の右側にのみ、路肩からなる領域Z11が設けられているような場合については、譲渡領域Z31が走行車線の領域Z12の左側に対して設定されるようにして、退避スペースとしての領域Z51aは、走行車線からなる領域Z12の右側に設定されるようにする。
 すなわち、緊急車両の接近に伴う退避処理においては、自車SCが退避することで、譲渡領域Z31を設定することができるような退避スペース候補領域Z51が探索され、探索された退避スペース候補領域Z51内において、自車SCの制動距離よりも前方の領域であって、かつ、最近傍の領域が退避スペースからなる領域Z51aに特定される。
 尚、譲渡領域Z31は、緊急車両が走行するための走行車線の領域Z12を広く含む方が、緊急車両の迅速で、安全な移動を確保することができる。このため、退避スペース候補領域Z51や退避スペースからなる領域Z51aは、譲渡領域Z31における走行車線の領域Z12ができるだけ広く含まれるように設定されることが望ましい。例えば、譲渡領域Z31の設定に当たって、緊急車両の幅W12よりも所定の割合だけ広い幅が設定されるようにしてもよい。
 (その2)
 また、退避スペースマップが、例えば、図16で示されるように、自車CSの前方に対して、右側に障害物の領域Z1、走行車線の領域Z12、および退避可能な路肩等からなる領域Z11-1乃至Z11-3の三種類の領域が設定されている場合について考える。
 ここで、領域Z11-1乃至Z11-3,Z12の水平方向の幅が、それぞれ自車CSが退避するための幅W11に緊急車両の通行に必要な幅W12を加えた以上の幅が存在するものとする。
 すなわち、図16で示されるような場合については、領域Z11-1乃至Z11-3,Z12が退避可能領域として退避スペースマップには登録されることになる。
 従って、図16の場合、計画部134は、退避スペースマップにおける退避可能領域のうち、緊急車両ECを通過させるための走行車線側の幅W12の領域からなる譲渡領域Z31との境界BBより路肩側であって、自車CSが退避するために必要な幅W11を備えた、図中の一点鎖線で囲まれた領域Z51-1乃至Z51-3を退避スペース候補領域として探索する。
 さらに、計画部134は、探索された退避スペース候補領域としての領域Z51-1乃至Z51-3のうち、自車CSの制動距離B11より前方の最も近傍であって、自車CSが走行車線に対して路肩側に退避するための幅W11を備えた、図中の点線で囲まれる領域Z51-2を退避スペースとして特定する。
 すなわち、図16の場合、計画部134は、領域Z51-2に自車CSを退避させる経路を計画する。
 以降の動作については、図15の場合と同様である。
 このような動作により、自車CSは、退避スペースとなる領域が路肩のうちの一部に制限されていても、緊急車両が接近するような場合に、緊急車両に対して走行車線を譲りつつ、安全に停車して退避することが可能となる。
 (その3)
 さらに、退避スペースマップが、例えば、図17で示されるように、自車CSの前方に対して、右側に障害物の領域Z1、および走行車線の領域Z12の2種類の領域のみが設定されており、Z12の水平方向の幅が、それぞれ自車CSが退避するための幅W11に緊急車両の通行に必要な幅W12を加えた幅に満たない場合について考える。
 図17の場合、退避スペースマップにおける退避可能領域は、走行車線の領域Z12全域となるため、緊急車両ECを通過させるための走行車線側の幅W12の領域との境界BBより路肩側であって、自車CSが退避するために必要な幅W11を備えた領域は存在せず、退避スペース候補領域は探索されないことになる。従って、図17の場合、退避スペースは特定されないことになる。
 すなわち、図17においては、仮に、走行車線となる領域Z12の左側に退避スペースが設定されるようにして、自車CSが停車すると、自車CSが走行車線を塞ぐことにより、後方から接近する緊急車両ECは、走行車線からなる領域Z12を通行することができない。
 そこで、図17のような場合、自車CSは、退避スペースを特定することができないので、退避スペースを特定することができる位置まで、走行を継続する。
 このような処理により、自車CSが緊急車両の通行を妨げないようにすることが可能となる。
 (その4)
 また、退避スペースマップが、例えば、図18で示されるように、図15における場合と同様であって、さらに、自車CSの前方に前走車CAが存在する場合について考える。
 図18の場合、自車CSは、前走車CAに追従して走行を継続する。
 このような処理により、自車CSが緊急車両の通行を妨げないようにすることが可能となる。
 尚、図18の場合、図15で示されるように、退避スペースとなる領域Z51aを特定することは可能であるので、例えば、所定時間だけ前走車CAに追従して走行した後には、前走車CAよりも手前の位置に退避スペースからなる領域Z51aを特定して、自車CSを移動させて停車させることで退避させるようにしてもよい。
 <緊急退避処理>
 次に、図19のフローチャートを参照して、本開示の車両制御システムによる緊急退避処理について説明する。尚、緊急退避処理については、上述した退避スペースマップ生成処理が並列処理で、または事前処理でなされて、退避スペースマップが生成されていることが前提となる。
 ステップS41において、車外情報検出部141は、データ取得部102により取得される、カメラ201により撮像された画像、およびデプスセンサ202により検出されたデプス画像、並びに記憶部111に格納されている事前地図の情報を取得して、車両を検出すると共に、画像属性情報、および距離情報を検出して状況認識部153に出力する。
 このとき、自己位置推定部132は、GPS203より供給される位置情報、並びに画像、デプス画像、および事前地図の情報に基づいて、自車CSの詳細な位置情報と姿勢の情報を状況認識部153に出力する。
 より詳細には、車両検出部211は、画像より画像認識により車両を検出し、検出結果を状況認識部153の緊急車両識別部231、および車両トラッキング部232に出力する。
 ここで、車両トラッキング部232は、画像内で検出された車両の情報を時系列に記憶してトラッキングし、自車SCに対して離れるように走行する前走車であるのか、または、自車SCに対して前方から接近してくる対向車や後方から接近する後続車であることを識別する情報を緊急車両識別部231に出力すると共に、状況予測部154を介して計画部134に出力する。
 また、属性認識部212は、画像に基づいて、画素単位で画像内の物体の属性を認識し、画像属性情報を生成して状況認識部153の極座標グリッド処理部233に出力する。
 さらに、デプスセンシング部213は、デプス画像の情報に基づいて、画素単位の距離情報を生成し、距離情報を極座標グリッド処理部233に出力する。
 このとき、極座標グリッド処理部233は、記憶部111に記憶されている事前地図の情報、および自己位置推定部132により供給される詳細な自己位置の情報と姿勢の情報を取得する。
 ステップS42において、緊急車両識別部231は、緊急車両が接近しており緊急退避が必要であるか否かを判定する。
 より詳細には、緊急車両識別部231は、画像内において検出された車両について、例えば、車両トラッキング部232より供給されるトラッキング情報に基づいて、自車SCに接近する緊急車両があるか否かに基づいて、緊急車両の接近の有無を判定する。
 また、緊急車両識別部231は、データ取得部102における、例えば、マイクロフォンにより収音される車外の音声に基づいて、緊急車両より発せられるサイレンの音声の有無や、サイレン音が検出された条件下における画像内の緊急車両の有無により、緊急車両の接近の有無を判定する。
 さらに、緊急車両識別部231は、通信部103を制御して、緊急車両で使用される周波数帯域における通信が傍受可能であるか否か、路上に設けられたビーコンからの緊急車両の接近を通知する信号の有無、および緊急車両の接近を通知する車車間通信の有無等の様々な通信信号に基づいて、緊急車両の接近の有無を判定する。
 また、緊急車両識別部231は、入力部101におけるタッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイスの操作の有無により自車SCの運転者であるユーザの介入により緊急車両の接近の有無を判定する。
 緊急車両識別部231は、これらのうちの少なくとも1つの判定処理により緊急車両の接近の有無を判定し、緊急退避が必要であるか否かを判定する。
 ステップS42において、緊急退避が必要であると判定された場合、処理は、ステップS43に進む。
 ステップS43において、緊急車両識別部231は、緊急車両が接近していることを示す情報と、緊急車両の接近に伴って退避モードに移行することを示す情報を、状況予測部154を介して、出力部106、および計画部134に出力する。
 このとき、出力部106は、ディスプレイやスピーカ等により画像や音声で、運転者であるユーザに対して緊急車両の接近が検出されたことを通知するとともに、緊急車両の検出に伴って退避モードに移行することを通知する。
 ステップS44において、計画部134は、所定の速度まで減速するための動作制御情報を生成して動作制御部135に出力する。この処理により、動作制御部135は、ブレーキ等を制御して、自車SCの走行速度を所定の速度まで減速させる。
 ステップS45において、計画部134は、状況予測部154を介して車両トラッキング部232より供給されるトラッキング情報に基づいて、前走車が存在するか否かを判定する。
 ステップS45において、計画部134は、前走車が存在すると判定した場合、処理は、ステップS46に進む。
 ステップS46において、計画部134は、自車SCを、前走車との距離を、安全を確保する上で十分な所定の距離に保ちつつ、前走車に追従して走行するように動作制御情報を生成して、動作制御部135に出力する。
 動作制御部135は、この動作制御情報に基づいて、自車SCのアクセル、ブレーキ、およびステアリング等を制御して、自車SCを、前走車との距離を、安全を確保する上で十分な所定の距離に保ちつつ、前走車に追従して走行させる。
 尚、ステップS46の処理においては、前走車が停車した場合、退避スペースがなく、退避できない状態であるときには、前走車と所定の距離を保った状態で、緊急車両に対して走行車線を譲れない状態であっても停車する処理が含まれる。
 ステップS47において、計画部134は、トラッキング情報に基づいて、前走車が停車したか否かを判定する。
 ステップS47において、前走車が停車せず、走行を継続している場合、処理は、ステップS48に進む。
 ステップS48において、計画部134は、所定時間以上前走車に追従して走行しているか否かを判定する。
 ステップS48において、所定時間まで、前走車に追従して走行していないと判定された場合、処理は、ステップS46に戻る。
 すなわち、前走車が存在する場合、前走車が停車せず走行している限り、自車SCは、前走車に追従して走行している状態が所定時間内である場合、追従する走行を継続する。
 そして、ステップS48において、所定時間以上、前走車に追従走行している状態が継続した場合、処理は、ステップS49に進む。
 また、ステップS47において、前走車の走行が停車した場合、処理は、ステップS49に進む。
 すなわち、前走車が存在する場合、追従走行が所定時間以上継続したとき、または、前走車が停車した時には、処理は、ステップS49に進む。
 ステップS49において、計画部134は、状況予測部154を介して退避スペースマッピング部234に蓄積されている退避スペースマップを読み出す。
 ステップS50において、計画部134は、退避スペースマップに基づいて、前走車よりも手前で、かつ、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
 より詳細には、計画部134は、退避スペースマップに基づいて、退避スペース候補領域を探索し、探索した退避スペース候補領域のうち、前走車よりも手前で、かつ、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
 ステップS51において、計画部134は、退避スペースが存在し、特定できたか否かを判定する。
 ステップS51において、退避スペースが特的できない場合、処理は、ステップS45に戻る。
 すなわち、退避スペースが存在しない場合、ステップS45乃至S51の処理が繰り返される。
 すなわち、自車SCは、後方から接近する緊急車両に走行車線を譲りつつ、安全に停車して、退避することができないので、前走車と所定の距離を保ちつつ、追従走行を継続するか、または、所定の距離を保った状態で停車する。
 また、ステップS51において、退避スペースが特定された場合、処理は、ステップS52に進む。
 ステップS52において、計画部134は、退避スペースを目的地とする経路を計画し、計画した動作を実現するための動作制御情報を生成して、動作制御部135に出力する。
 ステップS53において、動作制御部135は、計画部134より供給される動作制御情報に基づいて、自車SCのアクセル、ブレーキ、およびステアリング等を制御して、退避スペースを目的地とした経路に従って、自車SCを走行させる。
 ステップS54において、計画部134は、自車SCの詳細な位置情報および姿勢の情報に基づいて、自車SCが目的地である退避スペースに到着したか否かを判定する。
 ステップS54において、退避スペースに到着していない場合、ステップS53,S54の処理が繰り返されて、自車SCが目的地である退避スペースに向けて走行を継続させる。
 ステップS54において、自車SCが目的地である退避スペースに到着したと判定された場合、処理は、ステップS55に進む。
 ステップS55において、計画部134は、自車SCを停車させるように動作制御情報を生成して、動作制御部135に出力する。これにより、動作制御部135は、動作制御情報に基づいて、自車SCを退避スペース内に停車させる。
 ステップS56において、緊急車両識別部231は、緊急退避が必要な状態が終了したか否かを判定し、緊急退避が必要な状態が終了したとみなされるまで、同様の処理が繰り返される。
 そして、ステップS56において、例えば、緊急車両が後方から接近し、退避スペースに退避して停車することで譲った走行車線を走行して通過することで、緊急退避が必要な状態が終了したとみなされた場合、処理は、ステップS57に進む。
 ステップS57において、緊急車両識別部231は、走行モードを退避モードから通常モードに移行させることを示す情報を、状況予測部154を介して出力部106、および計画部134に出力する。
 これにより出力部106は、走行モードを退避モードから通常モードに移行させることを示す情報を、音声または画像により運転者であるユーザに対して提示する。
 また、計画部134は、本来の目的地までのルートを再計画して、再計画した動作を実現するための動作制御情報を生成して、動作制御部135に出力する。
 動作制御部135は、再計画された、本来の目的地までのルートを走行するための動作を実現するための動作制御情報に基づいて、アクセル、ブレーキ、およびステアリング等を制御して、目的地までのルートを自車SCが走行するように制御する。
 ステップS58において、計画部134は、動作の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS41に戻り、それ以降の処理が繰り返される。
 また、ステップS45において、前走車が存在しない場合、処理は、ステップS59に進む。
 ステップS59において、計画部134は、状況予測部154を介して退避スペースマッピング部234に蓄積されている退避スペースマップを読み出す。
 ステップS60において、計画部134は、退避スペースマップに基づいて、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
 より詳細には、計画部134は、退避スペースマップに基づいて、退避スペース候補領域を探索し、探索した退避スペース候補領域のうち、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
 そして、処理は、ステップS51に進む。
 すなわち、前走車が存在しない場合については、直ちに退避スペースマップが読み出されて、退避スペースの特定が開始される。
 以上の処理により、緊急車両の接近による緊急退避が必要な状態であるとみなされると、走行モードが、通常モードから退避モードに遷移して、前走車が存在するときには、前走車に追従して走行する。
 そして、所定時間以上前走車に追従する走行が継続されるとき、または、前走車の走行が停車したとき、退避スペースマップが読み出されて、退避スペースが特定されて、特定された退避スペースを目的地とした経路が計画されて、計画された経路を走行するための動作制御がなされる。
 また、前走車が存在しないときには、直ちに退避スペースマップが読み出されて、退避スペースが特定されて、特定された退避スペースを目的地とした経路が計画されて、計画された経路を走行するための動作制御がなされる。
 さらに、退避スペースが特定できない場合については、退避スペースが検出されるまで、走行が継続される。
 結果として、緊急車両の接近が認識される場合、緊急車両に対して走行車線を譲りつつ、安全を確保して退避スペースに停車させることが可能となる。
 尚、以上においては、前走車が存在する場合には、前走車に追従して走行する例について説明してきたが、前走車が存在していても、直ちに退避スペースマップを読み出して、前走車の手前に退避スペースを特定することができるときは、特的された退避スペースに停車して、緊急車両に対して走行車線を譲るようにしてもよい。
 また、以上においては、緊急退避処理として、緊急車両の接近を検出すると退避モードに入り、退避スペースを特定して、特定した退避スペースで停車するようにする例について説明してきたが、緊急車両の接近が早く、退避スペースに移動しただけで退避スペースに到着する前の段階で、緊急車両が走行車線を走行して通り過ぎたときには、停車するまでに通常モードに復帰するようにしてもよい。
 すなわち、このような場合、緊急車両の通過が早ければ、緊急退避処理として退避スペースに入るだけで、停車せずに、通常モードに復帰するようにしてもよい。
 また、例えば、図15で示されるように、緊急車両に対して走行車線を譲って、退避スペース候補領域となる領域Z51に移動しても、領域Z51に十分な広さの走行車線が含まれているときには、領域Z51内に退避しつつ、走行車線上の安全を確保できる所定速度まで減速した状態で走行を継続するようにしてもよい。
 さらに、以上においては、緊急車両が自車の後方から接近する場合に、緊急退避処理を実行する例について説明してきたが、それ以外の緊急事態が発生した場合にも緊急退避処理を行うようにしてもよい。
 例えば、運転者の居眠り運転が検知されたとき、運転者または同乗者に体調不良が発生したとき、心拍数等のメディカルデータを検出し、検出されたメディカルデータから、体調の悪化が検知されるとき、および、ユーザが緊急事態を宣言するようなとき等の、運転者や同乗者に不測の事態が発生した場合に、退避スペースに停車させるような緊急退避処理が実行されるようにしてもよい。
 また、タイヤのパンク、エンジントラブル、センサの故障等、自車の状態に異常が検知された場合に、退避スペースに停車させるような緊急退避処理が実行されるようにしてもよい。
 さらに、自車の前方に危険物や落下物が検知され、衝突の恐れがある場合に、被害を軽減するため、退避スペースに停車させるような緊急退避処理が実現されるようにしてもよい。
 ここで、運転者であるユーザが自車の前方に、危険物や落下物を見つけたにもかかわらず、自車が直進しているときには、運転者であるユーザが退避指示を出して、緊急退避処理を実現するようにしても良い。
 また、後続車両の待ち合わせや人をピックアップするために、意図的に運転者であるユーザが自車を停車させるような場合に、運転者であるユーザが退避指示を出して、緊急事態処理が実現されるようにしても良い。
 さらに、退避スペースマップについては、ネットワークを介して複数の車両からの情報をサーバやクラウドコンピューティングにより管理し、複数の車両により時間蓄積されるようにして、複数の車両で共有するようにしてもよい。
 <<3.ソフトウェアにより実行させる例>>
 ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
 図20は、汎用のコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
 入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
 CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 尚、図20におけるCPU1001が、図5における自動運転制御部112の機能を実現させる。また、図20における記憶部1008が、図5における記憶部111を実現する。
 また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 距離情報を取得する距離情報取得部と、
 画像を取得する画像取得部と、
 取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
 前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部とを備え、
 前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
 情報処理装置。
<2> 前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定した後、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
 <1>に記載の情報処理装置。
<3> 前記退避スペースマップ作成部は、前記走行可能領域内の前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記車両が安全に退避可能な領域と、安全に退避不能な領域とを設定し、前記車両が安全に退避可能な領域を前記退避スペースとして設定することで前記退避スペースマップを作成する
 <2>に記載の情報処理装置。
<4> 前記退避スペースマップ作成部は、前記距離情報および前記画像属性情報を重畳した情報に対して、極座標グリッドを設定し、前記極座標グリッドにおける水平角度領域単位で、前記退避スペースマップを作成する
 <3>に記載の情報処理装置。
<5> 前記退避スペースマップ作成部は、作成した前記退避スペースマップを、自己位置に対応付けて順次時間蓄積させる
 <3>に記載の情報処理装置。
<6> 緊急事態の発生に応じて、退避モードに設定する退避モード設定部と、
 前記車両の動作を計画する計画部とをさらに含み、
 前記退避モードが設定された場合、前記計画部は、前記退避スペースマップに基づいて、前記車両の動作を計画する
 <1>乃至<5>のいずれかに記載の情報処理装置。
<7> 前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、探索した前記退避スペースに前記車両を停車させるように動作を計画する
 <6>に記載の情報処理装置。
<8> 前記計画部は、前記退避スペースマップに基づいて、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
 <6>に記載の情報処理装置。
<9> 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記車両を所定の速度まで減速させた後、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
 <6>に記載の情報処理装置。
<10> 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両の幅と、前記緊急車両の幅とを合わせた幅よりも広いとき、走行車線を前記緊急車両に譲るように、前記走行車線の路肩からなる前記退避スペースに前記車両を停車させるように動作を計画する
 <6>に記載の情報処理装置。
<11> 前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、前記退避スペースが探索できないとき、前記車両の走行を継続させるように動作を計画する
 <6>に記載の情報処理装置。
<12> 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両と、前記緊急車両とを合わせた幅よりも広くないとき、前記車両の走行を継続させるように動作を計画する
 <6>に記載の情報処理装置。
<13> 前走車が存在するとき、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画する
 <6>に記載の情報処理装置。
<14> 前走車が存在する場合、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する
 <13>に記載の情報処理装置。
<15> 前記緊急事態は、後方から緊急車両が接近してくる場合、運転者の居眠り運転が検知された場合、運転者または同乗者に体調不良が発生した場合、運転者の心拍数等のメディカルデータから、運転者の体調の悪化が検知される場合、運転者が緊急事態を宣言するような場合、運転者や同乗者に不測の事態が発生した場合、前記車両の状態に異常が検知された場合、前記車両の前方に危険物や落下物が検知され、衝突の恐れがある場合、後続車両との待ち合わせや人をピックアップするために、意図的に運転者が自車を停車させるような場合を含む
 <6>に記載の情報処理装置。
<16> 前記画像属性認識部は、取得した前記画像内における画素単位の属性をセマンティックセグメンテーションにより画像属性情報として認識する
 <1>乃至<15>のいずれかに記載の情報処理装置。
<17> 前記画像取得部は、赤外光カメラにより撮像された前記画像を取得する
 <1>乃至<16>のいずれかに記載の情報処理装置。
<18> 前記画像取得部は、偏光カメラにより撮像された前記画像を取得する
 <1>乃至<16>のいずれかに記載の情報処理装置。
<19> 距離情報を取得する距離情報取得処理と、
 画像を取得する画像取得処理と、
 取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識処理と、
 前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成処理とを備え、
 前記退避スペースマップ作成処理は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
 情報処理方法。
<20> 距離情報を取得する距離情報取得部と、
 画像を取得する画像取得部と、
 取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
 前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部としてコンピュータを機能させ、
 前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
 プログラム。
 100 車両制御システム, 102 データ取得部, 106 出力部, 111 記憶部, 112 自動運転制御部, 131 検出部, 132 自己位置推定部, 133 状況分析部, 134 計画部, 135 動作制御部, 141 車外情報検出部, 151 マップ解析部, 152 交通ルール認識部, 153 状況認識部, 154 状況予測部, 201 カメラ, 202 デプスセンサ, 203 GPS, 211 車両検出部, 212 属性認識部, 213 デプスセンシング部, 231 緊急車両識別部, 232 車両トラッキング部, 233 極座標グリッド処理部, 234 退避スペースマッピング部

Claims (20)

  1.  距離情報を取得する距離情報取得部と、
     画像を取得する画像取得部と、
     取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
     前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部とを備え、
     前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
     情報処理装置。
  2.  前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定した後、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
     請求項1に記載の情報処理装置。
  3.  前記退避スペースマップ作成部は、前記走行可能領域内の前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記車両が安全に退避可能な領域と、安全に退避不能な領域とを設定し、前記車両が安全に退避可能な領域を前記退避スペースとして設定することで前記退避スペースマップを作成する
     請求項2に記載の情報処理装置。
  4.  前記退避スペースマップ作成部は、前記距離情報および前記画像属性情報を重畳した情報に対して、極座標グリッドを設定し、前記極座標グリッドにおける水平角度領域単位で、前記退避スペースマップを作成する
     請求項3に記載の情報処理装置。
  5.  前記退避スペースマップ作成部は、作成した前記退避スペースマップを、自己位置に対応付けて順次時間蓄積させる
     請求項3に記載の情報処理装置。
  6.  緊急事態の発生に応じて、退避モードに設定する退避モード設定部と、
     前記車両の動作を計画する計画部とをさらに含み、
     前記退避モードが設定された場合、前記計画部は、前記退避スペースマップに基づいて、前記車両の動作を計画する
     請求項1に記載の情報処理装置。
  7.  前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、探索した前記退避スペースに前記車両を停車させるように動作を計画する
     請求項6に記載の情報処理装置。
  8.  前記計画部は、前記退避スペースマップに基づいて、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
     請求項6に記載の情報処理装置。
  9.  前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記車両を所定の速度まで減速させた後、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
     請求項6に記載の情報処理装置。
  10.  前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両の幅と、前記緊急車両の幅とを合わせた幅よりも広いとき、走行車線を前記緊急車両に譲るように、前記走行車線の路肩からなる前記退避スペースに前記車両を停車させるように動作を計画する
     請求項6に記載の情報処理装置。
  11.  前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、前記退避スペースが探索できないとき、前記車両の走行を継続させるように動作を計画する 請求項6に記載の情報処理装置。
  12.  前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両と、前記緊急車両とを合わせた幅よりも広くないとき、前記車両の走行を継続させるように動作を計画する
     請求項6に記載の情報処理装置。
  13.  前走車が存在するとき、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画する
     請求項6に記載の情報処理装置。
  14.  前走車が存在する場合、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する
     請求項13に記載の情報処理装置。
  15.  前記緊急事態は、後方から緊急車両が接近してくる場合、運転者の居眠り運転が検知された場合、運転者または同乗者に体調不良が発生した場合、運転者の心拍数等のメディカルデータから、運転者の体調の悪化が検知される場合、運転者が緊急事態を宣言するような場合、運転者や同乗者に不測の事態が発生した場合、前記車両の状態に異常が検知された場合、前記車両の前方に危険物や落下物が検知され、衝突の恐れがある場合、後続車両との待ち合わせや人をピックアップするために、意図的に運転者が自車を停車させるような場合を含む
     請求項6に記載の情報処理装置。
  16.  前記画像属性認識部は、取得した前記画像内における画素単位の属性をセマンティックセグメンテーションにより画像属性情報として認識する
     請求項1に記載の情報処理装置。
  17.  前記画像取得部は、赤外光カメラにより撮像された前記画像を取得する
     請求項1に記載の情報処理装置。
  18.  前記画像取得部は、偏光カメラにより撮像された前記画像を取得する
     請求項1に記載の情報処理装置。
  19.  距離情報を取得する距離情報取得処理と、
     画像を取得する画像取得処理と、
     取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識処理と、
     前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成処理とを備え、
     前記退避スペースマップ作成処理は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
     情報処理方法。
  20.  距離情報を取得する距離情報取得部と、
     画像を取得する画像取得部と、
     取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
     前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部としてコンピュータを機能させ、
     前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
     プログラム。
PCT/JP2020/021542 2019-06-14 2020-06-01 情報処理装置、および情報処理方法、並びにプログラム WO2020250725A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202080041941.3A CN113994408A (zh) 2019-06-14 2020-06-01 信息处理装置、信息处理方法和程序
JP2021526005A JP7456442B2 (ja) 2019-06-14 2020-06-01 情報処理装置、および情報処理方法、並びにプログラム
EP20822516.9A EP3985640A4 (en) 2019-06-14 2020-06-01 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US17/616,776 US20220340130A1 (en) 2019-06-14 2020-06-01 Information processing apparatus, information processing method, and program
KR1020217039019A KR20220020804A (ko) 2019-06-14 2020-06-01 정보 처리 장치 및 정보 처리 방법, 그리고 프로그램

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-110794 2019-06-14
JP2019110794 2019-06-14

Publications (1)

Publication Number Publication Date
WO2020250725A1 true WO2020250725A1 (ja) 2020-12-17

Family

ID=73781988

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021542 WO2020250725A1 (ja) 2019-06-14 2020-06-01 情報処理装置、および情報処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20220340130A1 (ja)
EP (1) EP3985640A4 (ja)
JP (1) JP7456442B2 (ja)
KR (1) KR20220020804A (ja)
CN (1) CN113994408A (ja)
WO (1) WO2020250725A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7112612B1 (ja) 2021-09-17 2022-08-04 エスワイエス・エンジニアリング株式会社 停車可又は停車不可路肩区間探索情報提供装置
WO2023182225A1 (ja) * 2022-03-22 2023-09-28 日野自動車株式会社 経路生成システム
WO2024075577A1 (ja) * 2022-10-06 2024-04-11 日立建機株式会社 鉱山車両自律走行システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022517052A (ja) * 2018-09-24 2022-03-04 パナソニックIpマネジメント株式会社 個人体験旅程
US20220297699A1 (en) * 2019-08-05 2022-09-22 Lg Electronics Inc. Method and device for transmitting abnormal operation information
KR20230123864A (ko) 2022-02-17 2023-08-24 주식회사 마키나락스 인공지능 기반의 반도체 설계 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020371A (ja) 2008-07-08 2010-01-28 Yazaki Corp 車両制御システム
JP2010271906A (ja) * 2009-05-21 2010-12-02 Kenwood Corp 車両の運転支援装置
JP2016149122A (ja) * 2015-02-10 2016-08-18 株式会社デンソー 退避制御装置、退避制御方法
JP2018043705A (ja) * 2016-09-16 2018-03-22 株式会社Subaru 車両の走行制御装置
JP2018112887A (ja) * 2017-01-11 2018-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018195202A (ja) * 2017-05-19 2018-12-06 トヨタ自動車株式会社 退避走行支援装置
WO2019026714A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体
WO2019111702A1 (ja) * 2017-12-05 2019-06-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147440A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 緊急車両回避支援装置、及び情報提供装置
JP2009248665A (ja) * 2008-04-03 2009-10-29 Alps Electric Co Ltd 路面凍結警報装置
DE102008001409A1 (de) * 2008-04-28 2009-11-05 Robert Bosch Gmbh Verfahren zur Bestimmung von freien Bereichen in der, insbesondere für die Fahrzeugführung relevanten Umgebung eines Kraftfahrzeugs
JP6336758B2 (ja) * 2011-03-04 2018-06-06 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 回避アシスタントの作動の制限
WO2012120076A1 (de) * 2011-03-09 2012-09-13 Continental Teves Ag & Co. Ohg Sicherheitsvorrichtung für ein kraftfahrzeug und verfahren zum betrieb eines kraftfahrzeugs
US20160086391A1 (en) * 2012-03-14 2016-03-24 Autoconnect Holdings Llc Fleetwide vehicle telematics systems and methods
KR101927155B1 (ko) * 2012-10-19 2018-12-10 현대자동차 주식회사 도로 갓길의 공간 인지 방법 및 시스템
US9523984B1 (en) * 2013-07-12 2016-12-20 Google Inc. Methods and systems for determining instructions for pulling over an autonomous vehicle
DE102015206144B4 (de) * 2015-04-07 2022-10-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum sicheren Abstellen eines Fahrzeuges
US10334050B2 (en) * 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
CN107134160A (zh) * 2016-02-29 2017-09-05 法拉第未来公司 紧急信号检测和响应
DE102016212587A1 (de) * 2016-07-11 2018-01-11 Continental Automotive Gmbh Verfahren und System zur Erzeugung von Karteninformationen
US20180067494A1 (en) * 2016-09-02 2018-03-08 Delphi Technologies, Inc. Automated-vehicle 3d road-model and lane-marking definition system
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US10599150B2 (en) * 2016-09-29 2020-03-24 The Charles Stark Kraper Laboratory, Inc. Autonomous vehicle: object-level fusion
KR101982774B1 (ko) * 2016-11-29 2019-05-27 엘지전자 주식회사 자율 주행 차량
KR20190014871A (ko) * 2017-08-04 2019-02-13 삼성전자주식회사 차량의 후방에 위치한 응급 차량에 기초하여 상기 차량의 주행 경로를 변경하는 장치 및 방법
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
JP6768974B2 (ja) * 2017-10-05 2020-10-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
KR102553730B1 (ko) * 2018-03-08 2023-07-11 주식회사 에이치엘클레무브 차량의 충돌 회피 제어 장치 및 방법
JP2020050109A (ja) * 2018-09-26 2020-04-02 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP6754416B2 (ja) * 2018-11-16 2020-09-09 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11131554B2 (en) * 2018-12-26 2021-09-28 Beijing Voyager Technology Co., Ltd. Systems and methods for vehicle telemetry
US11577741B1 (en) * 2019-04-05 2023-02-14 Zoox, Inc. Systems and methods for testing collision avoidance systems

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010020371A (ja) 2008-07-08 2010-01-28 Yazaki Corp 車両制御システム
JP2010271906A (ja) * 2009-05-21 2010-12-02 Kenwood Corp 車両の運転支援装置
JP2016149122A (ja) * 2015-02-10 2016-08-18 株式会社デンソー 退避制御装置、退避制御方法
JP2018043705A (ja) * 2016-09-16 2018-03-22 株式会社Subaru 車両の走行制御装置
JP2018112887A (ja) * 2017-01-11 2018-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018195202A (ja) * 2017-05-19 2018-12-06 トヨタ自動車株式会社 退避走行支援装置
WO2019026714A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体
WO2019111702A1 (ja) * 2017-12-05 2019-06-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3985640A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7112612B1 (ja) 2021-09-17 2022-08-04 エスワイエス・エンジニアリング株式会社 停車可又は停車不可路肩区間探索情報提供装置
JP2023043915A (ja) * 2021-09-17 2023-03-30 エスワイエス・エンジニアリング株式会社 停車可又は停車不可路肩区間探索情報提供装置
WO2023182225A1 (ja) * 2022-03-22 2023-09-28 日野自動車株式会社 経路生成システム
WO2024075577A1 (ja) * 2022-10-06 2024-04-11 日立建機株式会社 鉱山車両自律走行システム

Also Published As

Publication number Publication date
EP3985640A1 (en) 2022-04-20
JPWO2020250725A1 (ja) 2020-12-17
KR20220020804A (ko) 2022-02-21
CN113994408A (zh) 2022-01-28
US20220340130A1 (en) 2022-10-27
JP7456442B2 (ja) 2024-03-27
EP3985640A4 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
WO2020250725A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20210122364A1 (en) Vehicle collision avoidance apparatus and method
US20200409387A1 (en) Image processing apparatus, image processing method, and program
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JPWO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
JPWO2019082670A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US11590985B2 (en) Information processing device, moving body, information processing method, and program
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
JPWO2019044571A1 (ja) 画像処理装置、および画像処理方法、プログラム、並びに移動体
US20240054793A1 (en) Information processing device, information processing method, and program
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20220383749A1 (en) Signal processing device, signal processing method, program, and mobile device
JP2022034086A (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2021010083A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2020241303A1 (ja) 自動走行制御装置、および自動走行制御システム、並びに自動走行制御方法
JPWO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
WO2021153176A1 (ja) 自律移動装置、自律移動制御方法、並びにプログラム
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
WO2022158185A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
US20230289980A1 (en) Learning model generation method, information processing device, and information processing system
US20230245423A1 (en) Information processing apparatus, information processing method, and program
JP2022028989A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP7367014B2 (ja) 信号処理装置、信号処理方法、プログラム、及び、撮像装置
US20230206596A1 (en) Information processing device, information processing method, and program
WO2023074419A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20822516

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021526005

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020822516

Country of ref document: EP