JP7456442B2 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP7456442B2
JP7456442B2 JP2021526005A JP2021526005A JP7456442B2 JP 7456442 B2 JP7456442 B2 JP 7456442B2 JP 2021526005 A JP2021526005 A JP 2021526005A JP 2021526005 A JP2021526005 A JP 2021526005A JP 7456442 B2 JP7456442 B2 JP 7456442B2
Authority
JP
Japan
Prior art keywords
vehicle
evacuation space
evacuation
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021526005A
Other languages
English (en)
Other versions
JPWO2020250725A1 (ja
Inventor
琢人 元山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020250725A1 publication Critical patent/JPWO2020250725A1/ja
Application granted granted Critical
Publication of JP7456442B2 publication Critical patent/JP7456442B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0965Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computational Linguistics (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、情報処理装置、および情報処理方法、並びにプログラムに関し、特に、自動運転において緊急事態が発生しても安全な路肩に適切に停車できるようにした情報処理装置、および情報処理方法、並びにプログラムに関する。
自動運転が一般化して実用化された場合、通常状態において、目的地までの経路として想定される走行車線上を、周囲の状況を確認しながら走行することで、自律的な走行が安全に実現される。
しかしながら、緊急車両が接近してくるような緊急事態においては、走行車線上とは異なる、すなわち、通常では走行することがない路側帯などに車体を安全に停車させて、走行車線を緊急車両に譲る必要がある。
そこで、緊急時には路肩を検出して停車可能であるか否かを判定し、停車可能であれば停車することで安全に停車する技術が提案されている(特許文献1参照)。
特開2010-020371号公報
しかしながら、特許文献1の技術においては、障害物の有無に基づいて安全に停車可能な路肩が探索されるものの、例えば、側溝が設けられている路肩や、積雪などにより凍結しているような路肩の場合、安全に停車することができない路肩であるにも関わらず、安全に停車可能な路肩として探索されてしまう恐れがあった。
結果として、特許文献1に記載の技術では、安全に停車できない可能性のある路肩が安全に停車可能な路肩とみなされて探索されてしまう可能性があり、緊急車両の接近に伴う緊急事態が生じたときに安全ではない路肩に停車しようとしてしまう恐れがあった。
本開示は、このような状況に鑑みてなされたものであり、特に、運転中に緊急事態が発生するようなときでも、安全な路肩に適切に停車できるようにするものである。
本開示の一側面の情報処理装置は、距離情報を取得する距離情報取得部と、画像を取得する画像取得部と、取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部と、緊急事態の発生に応じて、退避モードに設定する退避モード設定部と、前記退避モードが設定された場合、前記退避スペースマップに基づいて、前記車両の動作を計画する計画部とを備え、前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成し、前走車が存在する場合、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画し、その結果、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する情報処理装置である。
本開示の一側面の情報処理方法およびプログラムは、情報処理装置に対応する。
本開示の一側面においては、距離情報が取得され、画像が取得され、取得した前記画像内における領域毎の属性が画像属性情報として認識され、前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップが作成され、緊急事態の発生に応じて、退避モードに設定され、前記退避モードが設定された場合、前記退避スペースマップに基づいて、前記車両の動作が計画され、前記距離情報に基づいて、前記車両が走行可能な走行可能領域が設定され、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースが設定されることで前記退避スペースマップが作成され、前走車が存在する場合、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作が計画され、その結果、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作が計画される。
本開示の概要である緊急車両が接近したときの動作を説明する図である。 本開示の概要であるデプスセンサで適切に路面の危険な状態を検出できない例を説明する図である。 本開示の概要である退避スペースマップを説明する図である。 本開示の概要である退避スペースマップを説明する図である。 本開示を適用した車両制御システムの構成例を説明する図である。 本開示の退避スペースマップを生成する部位を図5の車両制御システムの構成例から抽出した構成例を説明する図である。 実際の車両の周辺の状態と対応する退避スペースマップの例を説明する図である。 退避スペースマップの生成方法を説明する図である。 退避スペースマップの生成に用いられる極座標グリッドを説明する図である。 極座標グリッドを用いた退避スペースマップの生成方法を説明する図である。 極座標グリッドを用いた退避スペースマップの生成方法を説明する図である。 極座標グリッドを用いた退避スペースマップの生成方法を説明する図である。 退避スペースマップの時間蓄積を説明する図である。 退避スペースマップ生成処理を説明するフローチャートである。 退避スペースマップを用いた退避方法その1の例を説明する図である。 退避スペースマップを用いた退避方法その2の例を説明する図である。 退避スペースマップを用いた退避方法その3の例を説明する図である。 退避スペースマップを用いた退避方法その1の例を説明する図である。 緊急退避処理を説明するフローチャートである。 汎用のコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.本開示の概要
2.好適な実施の形態
3.ソフトウェアにより実行させる例
<<1.本開示の概要>>
本開示は、緊急事態が発生した場合でも速やかに安全な領域に停車できるようにするものである。
まず、図1を参照して、本開示の概要について説明する。
例えば、図1の左部で示されるように、走行車線L1を自動運転により走行する自車CSが図中の上方である矢印の方向に、前走車である他車CA1に追従しながら走行している場合について考える。
さらに、走行車線L1の図中右側となる対向車線L2上を図中の下方向の矢印で示されるように対向車である他車CA2が走行しているものとし、また、自車CSの後方から緊急車両CEが接近してくるものとする。
尚、ユーザ自らが搭乗する車両を自車CSと称し、それ以外の車両を他車CA1,CA2と称する。
このとき、自動運転で走行中の自車CSは、図1の右部における黒の矢印ERで示されるように、前走車である他車CA1よりも手前で、かつ、走行車線L1の路肩に車を寄せて停車させることで、緊急車両CEに対して、走行車線L1を譲るように退避する必要がある。
この一連の動作をするにあたって、自車CSは、通常状態において、交通ルールに従って走行すべき走行車線L1上ではない路肩に入り込んで、停車するといった、交通ルールから逸脱する行動をとる必要がある。
また、この場合、自車CSは、走行車線L1の左側の路肩のうち、安全に停車することができる路肩を探索し、探索された安全が確認された路肩に停車することになる。
ここで、自車CSがLiDAR(Light Detection and Ranging or Laser Imaging Detection and Ranging)のようなデプスセンサを備えている場合、自車CSの走行方向に対して左側の路肩の状況をデプスセンサにより検出して、障害物とみなされる物体の有無により安全に停車することが可能な路肩を探索し、障害物の無い領域を安全に停車することができる路肩とみなして停車させる。
例えば、自車CSの左側面から左側の路肩に対して赤外レーザ光を照射して、反射光に応じて路肩周辺の測距を行い、デプス画像を取得するLiDARが設けられているものとする。
このとき、LiDARの測距結果からなるデプス画像に基づいて、自車CSが、路肩の障害物の有無を検出するような場合、自車CSは、デプス画像により路面は適切に検出できても、路肩の状況を適切に検出できないことがある。
例えば、図2の上段における、自車CSの進行方向に対して、路面RFの左側の路肩に側溝Gが設けられているような場合であっても、LiDARにより検出されるデプス画像では解像度、もしくは、LiDARの路面に対する設置位置・角度により路肩に存在する側溝Gを検出できないことがある。
尚、図2は、自車CSの後方を走行する緊急車両CEの運転席から自車CSを見たときに、自車CSに設けられたLiDARにより照射される赤外レーザ光を放射状の直線で表した図である。
すなわち、図2の上段の自車CSの進行方向に対して左方向に、LiDARからの赤外レーザ光が照射される場合、赤外レーザ光は、路面RFの左側の路肩に側溝Gが設けられているようなとき、路面RF上に赤外レーザ光は照射されるので、路面RFを検出することはできる。
しかしながら、LiDARからの赤外レーザ光は、赤外レーザ光の解像度や入射角度により、図2の上段で示されるように、側溝Gには照射されることがないことがある。
図2の上段のように、LiDARにより得られるデプス画像内では、実際には存在する側溝Gの存在を示すような検出結果が得られないことがあるため、実際には側溝Gがあり、安全に停車できない路肩であるにも関わらず、安全に停車可能な路肩であるとみなされる可能性があった。
また、図2の中段で示されるように、路肩に障害物Bが存在する場合であっても、障害物Bが、赤外レーザ光の解像度により、赤外レーザ光の間隔内に収まってしまうことがある。
図2の中段のように、LiDARにより検出されるデプス画像内には、実際には存在する障害物Bの存在を示すような検出結果が得られないため、実際には障害物Bがあり、安全に停車できない路肩であるにも関わらず、安全に停車可能な路肩であるとみなされる可能性があった。
さらに、図2の下段で示されるように、路肩に自車CSが衝突するような障害物がなくても、路面RFの路肩が凍結路面FZであるような場合、LiDARにより検出されるデプス画像からでは、路肩が凍結路面FZであることは認識できない。
このように、LiDARにより検出されるデプス画像内では、現実に障害物や側溝がない場合であっても、凍結路面FZがあり、安全に停車できない路肩であるにも関わらず、安全に停車可能な路肩であるとみなされる可能性があった。
そこで、本開示においては、走行しながら時系列に安全に停車することが可能な退避スペースからなるマップを退避スペースマップとして生成し、緊急事態が発生したときには、退避スペースマップに基づいて、安全に自車CSを停車させるようにする。
ここで、退避スペースマップとは、例えば、図3で示されるように、環境マップレイヤ構造におけるオキュパンシマップM4,レーンマップM2、および動物体マップM1のうちの、オキュパンシマップM4とレーンマップM2との間に設定される退避スペースマップM3である。
ここで、オキュパンシマップM4は、LiDARやStereoカメラなどから構成されるデプスセンサにより得られるデプス画像In3と、GPS(Global Positioning System)、IMU(Inertial Measurement Unit)、およびVO(Visual Odometry)等の自己位置センサにより検出される自己位置情報In4とから得られるマップである。
より具体的には、オキュパンシマップM4は、自車CSから見て、自車CSが走行すると接触する可能性を有する高さを有する物体のある領域と、それ以外の領域を示すマップである。
また、レーンマップM2は、自己位置情報In4、デプス画像In3、RGBカメラ、偏光カメラ、および赤外線カメラ等により撮像される画像内における路面上の白線等の物体認識結果からなる画像認識結果In2、並びに、レーンの位置が示された事前地図In1より得られる、車両が走行するレーン(走行車線)の位置を特定するマップである。
さらに、動物体マップM1は、自己位置情報In4、デプス画像In3、および画像認識結果In2より得られるリアルタイムな画像内における自車CSの周囲に存在する動物体の位置を示すマップである。
すなわち、オキュパンシマップM4上における、自車CSが走行すると接触する可能性を有する物体が存在しない領域で、かつ、レーンマップM2より得られる走行車線上のうち、動物体マップM1より得られる動物体の位置に基づいて、動物体が存在しない領域を走行するように制御されることで自車CSの自動運転が実現される。
本開示では、オキュパンシマップM4とレーンマップM2との中間階層として、オキュパンシマップM4上における、自車CSが走行すると接触する可能性を有する物体が存在しない領域で、かつ、レーンマップM2より得られる走行車線の側面の路肩のうち、安全に停車することができる退避スペース(退避可能領域)と、安全な退避が不能な退避不能領域からなる退避スペースマップM3を生成する。
そして、緊急事態が発生したときには、自車CSは、退避スペースマップM3に基づいて、安全に停車可能な退避スペースに停車させることで、緊急事態が発生した時でも安全な退避スペース(路肩)での停車を実現する。
退避スペースマップM3は、自己位置情報In4、デプス画像In3、および画像認識結果In2より、オキュパンシマップM4上における障害物がない領域であって、レーンマップM2における走行車線(レーン)から逸脱した路肩等を含めた退避可能領域(退避スペース)と、退避不能領域を示すマップである。
より具体的には、退避スペースマップM3は、例えば、図4で示されるようなマップである。
図4においては、退避可能領域は、自車CSから見て、左右の障害物が存在する領域Z1と、それ以外の障害物がない領域Z2のうち、走行車線であるレーンの領域Z12と、危険領域Z3を除く領域Z11とからなる領域となる。従って、危険領域Z3は、退避不能領域となる。
自車CSは、緊急時に、領域Z11,Z12からなる退避可能領域のうち、例えば、走行車線であるレーンの領域Z12を緊急車両に譲りつつ、安全に停車することができる退避スペースを設定して停車する。
ここで、退避可能領域の特定にあたっては、自車CSの周囲の画像に基づいて、画像内の物体のそれぞれを、例えば、セマンティックセグメンテーションにより認識することにより、側溝や凍結路面などの危険領域ではない領域が、退避可能領域として特定される。
このように、緊急事態が発生したとき、自車CSを安全に退避可能な退避可能領域からなる領域Z11,Z12が示されるマップが、退避スペースマップM3であり、自車SCは、退避スペースマップM3に基づいて、退避可能領域の中から、状況に応じた退避スペースを特定して停車させる。
本開示においては、この退避スペースマップM3が走行に際して継続的に生成されるようにし、緊急事態が発生した際には、生成した退避スペースマップM3の情報に基づいて退避可能領域のうちから、安全に停車できる領域を退避スペースとして特定し、特定した退避スペースで、安全に停車させる。
結果として、緊急事態が発生した場合でも、障害物の無い、安全な領域に自車を停車させることが可能となる。
<<2.好適な実施の形態>>
図5は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。すなわち、車両制御システム100が設けられている車両が図1における自車SCに対応し、それ以外の車両が他車CA1,CA2に対応する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<退避スペースマップを生成し、緊急事態が発生したとき退避スペースを特定して停車させる構成例>
次に、図6を参照して、図5の車両制御システム100のうち、退避スペースマップを生成し、緊急事態が発生したとき、退避スペースマップに基づいて、退避スペースを特定して停車させる構成を抽出して説明する。
退避スペースマップを生成し、緊急事態が発生したとき、退避スペースマップに基づいて、退避スペースを特定して停車させる構成は、データ取得部102、出力部106、記憶部111、並びに、自動運転制御部112における検出部131の車外情報検出部141、自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、および状況認識部153、計画部134、および動作制御部135からなる。
データ取得部102は、例えば、カメラ201、デプスセンサ202、およびGPS203を備えている。
カメラ201は、例えば、RGBカメラや偏光カメラからなり、少なくとも自車の走行方向を含む、自車の周囲の画像を撮像して、撮像した画像を車外情報検出部141、および自己位置推定部132に出力する。
デプスセンサ202は、例えば、LiDARやステレオカメラからなり、少なくとも自車の走行方向を含む、自車の周囲の物体までの距離情報を画素単位で検出し、検出結果であるデプス画像を、車外情報検出部141、および自己位置推定部132に出力する。
GPS203は、図示せぬ衛星からの信号を受信して、自車の地球上の緯度経度からなる位置を測位して、測位結果を自己位置推定部132に出力する。
車外情報検出部141は、データ取得部102のカメラ201、デプスセンサ202、およびGPS203のそれぞれより供給される画像、デプス画像、および測位結果に基づいて、各種の車外情報を検出して状況認識部153に出力する。
より詳細には、車外情報検出部141は、車両検出部211、属性認識部212、およびデプスセンシング部213を備えている。
車両検出部211は、カメラ201により撮像された画像(2次元画像およびステレオ画像を含む)に基づいた画像認識により、画像内における車両の領域を検出して、車両の領域を示す検出結果を状況認識部153に出力する。
属性認識部212は、カメラ201により撮像された画像(2次元画像およびステレオ画像を含む)に、例えば、ディープラーニング等を用いて学習されたセマンティックセグメンテーション等の物体認識処理を施し、画像内の各領域を画素単位で、どの物体に属する領域であるかを認識し、認識結果を画像属性情報として状況認識部153に出力する。
属性認識部212は、例えば、画像属性情報に基づいて、自車による安全な走行が可能な安全領域と、自車による安全な走行ができない領域、または、走行を回避すべき領域を危険領域として認識し、画像属性情報に含めて出力する。
より具体的には、属性認識部212は、画像属性情報に、側溝、衝突する可能性のある高さを備えた物体(落下物など)、および凍結路面などが検出される場合、これらの領域を画素単位の属性情報に加えて、危険領域であることを示す属性情報を付加して画像属性情報を生成する。
属性認識部212は、例えば、カメラ201が偏光カメラであるときには、偏光カメラで撮像された偏光画像に基づいて、例えば、路面上の鏡面反射部分を除去した画像に対するディープラーニングにより凍結部分等を認識し、危険領域とみなして画像属性情報を生成する。
また、属性認識部212は、例えば、カメラ201が赤外光カメラであるときには、赤外光カメラで撮像された赤外光画像に基づいて、例えば、水・氷を吸収する波長帯での赤外線反射率により路面上の水たまりや凍結部分等を認識し、危険領域とみなして画像属性情報を生成する。
デプスセンシング部213は、デプスセンサ202より供給されるデプス画像の情報に基づいて、カメラ201における画像に対応する画素単位での距離情報を生成し、状況認識部153に出力する。
自己位置推定部132は、カメラ201より供給される画像、デプスセンサ202より供給されるデプス画像、GPS203より供給される緯度経度からなる自己位置情報、および記憶部111に記憶されている事前地図の情報に基づいて、高精度な自己位置と姿勢を推定する。
そして、自己位置推定部132は、推定結果である自己位置と姿勢の情報をマップ解析部151、交通ルール認識部152、および状況認識部153に出力する。
状況認識部153は、車両の検出結果に基づいて、緊急車両の接近の特定および退避モードの指示を出力部106に出力し、スピーカやディスプレイ等に表示させる。
また、状況認識部153は、車両の検出結果、画像属性情報、および距離情報に基づいて、緊急車両を含む前走車、および対向車の情報、並びに退避スペースマップを生成して、計画部134に出力する。
より詳細には、状況認識部153は、緊急車両識別部231、車両トラッキング部232、極座標グリッド処理部233、および退避スペースマッピング部234を備えている。
緊急車両識別部231は、車両検出部211より供給される画像内における車両の領域の情報、周辺の緊急車両が使用する無線通信の情報、緊急車両の発する警報音の音声、およびユーザが発する、または、入力する緊急車両の接近を示す情報の少なくともいずれかに基づいて、緊急車両の接近の有無を識別し、緊急車両の接近が認識されるとき、緊急車両の接近を示す情報と共に、退避モードを指示する情報を状況予測部154に出力する。
緊急車両の接近を示す情報と共に、退避モードを指示する情報が、緊急車両識別部231より供給される場合、状況予測部154は、供給された情報に基づいて、緊急車両の接近を示す情報と共に、退避モードを指示する情報を出力部106に出力する。
これに応じて、出力部106は、スピーカやディスプレイ等により画像や音声で、自車を運転する運転者に対して、緊急車両の接近を示す情報を提示するとともに、退避モードに入る指示がなされていることを示す情報を提示する。
車両トラッキング部232は、車両検出部211より供給される画像内における車両の領域の情報を時系列に取得し、緊急車両を含む、全ての前走車、および対向車の動きをトラッキングして、トラッキング結果を状況予測部154に出力する。
極座標グリッド処理部233は、画像属性情報、距離情報、事前地図、および自己位置推定結果である自己位置と姿勢の情報に基づいて、極座標グリッド処理を施して、退避スペースマップを生成し、生成した退避スペースマップを退避スペースマッピング部234に出力する。
ここで、極座標グリッド処理においては、まず、極座標グリッド処理部233は、画像属性情報、距離情報、事前地図、および自己位置推定結果である自己位置と姿勢の情報に基づいて、自車位置を中心とした極座標系のグリッドを極座標グリッドとして設定する。
そして、極座標グリッド処理部233は、後述する極座標グリッドにおける水平方向領域単位で、距離情報に基づいて、障害物の存在する走行不能領域、および、それ以外の走行可能領域を設定する。
さらに、極座標グリッド処理部233は、画像属性情報に基づいて、走行可能領域内における、走行車線の領域と、走行車線外であるが路肩などであって安全に退避可能なスペースとからなる退避可能領域を設定すると共に、走行も退避もすることができない危険領域(退避不能領域)とを設定する。
そして、極座標グリッド処理部233は、極座標グリッドにおける水平方向領域単位で、走行不能領域、退避可能領域、および危険領域(退避不能領域)とからな退避スペースマップを時系列に生成する。
なお、極座標グリッド処理について、図7乃至図13を参照して、詳細を後述する。
退避スペースマッピング部234は、極座標グリッド処理部233により時系列に生成される退避スペースマップを時間蓄積することで退避スペースマップを拡張させて記憶し、退避モード時に状況予測部154に出力する。
すなわち、退避スペースマッピング部234は、極座標グリッド処理部233により時系列に順次生成される、退避スペースマップを時間蓄積することにより、より広い範囲の広域の退避スペースマップを生成し、広域の退避スペースマップを、退避モード時に状況予測部154を介して計画部134に出力する。
状況予測部154は、緊急車両の接近を示す情報、退避モードを指示する情報、緊急車両を含む全ての前走車および対向車のトラッキング情報、退避スペースマップ、並びに、交通ルール認識部152より供給される走行車線の位置情報であるレーン情報を取得すると、これらの情報を状況予測結果として計画部134に出力する。
交通ルール認識部152は、記憶部111に記憶されている事前地図の情報と、自己位置推定結果である詳細な自己位置と姿勢の情報に基づいて、自車の周囲の交通ルールの認識処理を行い、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線であるレーン情報を、状況予測部154に出力する。
マップ解析部151は、自己位置推定結果である詳細な自己位置と姿勢情報を自己位置推定部132より取得すると、記憶部111に記憶されている事前地図に基づいて、自動運転の経路の計画に必要なマップ情報を生成して計画部134に出力する。
計画部134は、目的地までのルートを計画し、計画したルートを走行する上で必要とされる動作制御情報を生成して動作制御部135に出力する。
この際、計画部134は、状況予測部154より退避モードを指示する情報が供給されるときには、併せて供給される退避スペースマップの情報に基づいて、退避スペースを探索し、探索された退避スペースに安全に停車させるための動作制御情報を生成して動作制御部135に出力する。
動作制御部135は、計画部134より供給される動作制御情報に基づいて、自車のアクセル、ブレーキ、およびステアリング等を制御して、目的地までの計画されたルートを走行すると共に、退避モードが指示されるとき、退避スペースマップに基づいて計画された退避スペースに安全に停車させる。
<退避スペースマップ>
次に、図7を参照して、時系列に生成される退避スペースマップについて、説明する。
例えば、図7の左部で示されるように、自車SCが図中の上方に向かって走行している場合について考える。
図7の左部においては、自車SCの両側に、自車SCが走行すると衝突の恐れがある高さの障害物が存在する走行不能領域である領域Z1が存在し、それ以外の領域Z2が走行可能領域とされている。
また、領域Z2内においては、セマンティックセグメンテーション等の物体認識により、認識される路上の白線等の間が走行車線として認識される。
ここで、図7の左部における走行車線の左側の路肩には、凍結路面や陥没等からなる、走行することが危険な領域Z3が存在するものとする。
目的地までのルートを走行する走行モード(以下、通常モードとも称する)の際には、走行車線が認識されることにより、走行車線から逸脱しない範囲で、経路が計画されて、自動運転による走行が実現される。
したがって、通常モードにおいては、図7の左部で示される情報が得られる限り、自動運転を継続することが可能である。走行に危険が伴う恐れのある領域Z3についても、走行車線上を走行している限り、特に影響を受けることもない。
しかしながら、例えば、自車SCの後方から緊急車両が接近するような場合、自車SCは、走行車線の外側となる路肩等の安全な領域に停車させて、緊急車両に走行車線を譲るように退避する必要が生じる。
尚、このように走行車線の外側となる路肩等の安全な領域に停車させて緊急車両に走行車線を譲るように退避する走行モードを以降においては退避モードとも称する。
すなわち、退避モードの場合、通常モードにおける場合とは異なり、走行車線から逸脱した上で、停車する必要がある。
このため、退避モードに対応するためには、図7の中央部で示されるように、走行可能領域Z2において、走行車線であるレーンの領域Z12に加えて、安全に退避が可能な退避スペースを示す領域Z11からなる退避可能領域と、安全な退避ができない危険領域(退避不能領域)Z3とを設定する必要がある。
すなわち、図7の中央部で示されるように、走行可能領域Z2において、走行車線であるレーンの領域Z12、および、安全に退避が可能な退避スペースを示す領域Z11からなる退避可能領域と、安全な退避ができない危険領域(退避不能領域)Z3が設定されたマップが退避スペースマップとなる。
尚、図7の中央部の退避スペースマップは、上述した図4の退避スペースマップに対応する。
図7の中央部で示される退避スペースマップで示されるような状況が現実に存在する場合、図中の自車SCの運転席中央にカメラ201の視野Vで撮像される画像は、例えば、図7の右部で示されるような画像となる。
すなわち、図7の右部においては、視野Vにおける左右に壁のような障害物の領域(走行不能領域)Z1が存在し、その間に走行可能領域Z2が設けられ、また、走行可能領域Z2の中央部に走行車線からなる領域Z12と、その外側の路肩に安全に退避可能な退避スペースの領域Z11とが退避可能領域として設定される。さらに、領域Z11のうち、障害物や側溝などの存在により安全な退避が不能な領域が危険領域(退避不能領域)Z3として設定されている。
退避スペースマップは、走行車線からなる領域Z12と退避スペースの領域Z11のうちの危険領域(退避不能領域)Z3を除いた領域とからなる退避可能領域と、危険領域(退避不能領域)Z3とから構成されるマップである。
例えば、図7の左部および中央部における視野Vで、図7の右部で示されるような画像が撮像されるとき、セマンティックセグメンテーション等の物体認識処理により、画像内における領域Z1に障害物が存在することが認識される。
また、領域Z12において走行も退避も可能な走行車線が認識され、領域Z11において退避可能な路肩が認識され、領域Z11,Z12が併せて退避可能領域として認識される。
さらに、走行に危険が伴う恐れがあり退避不能な危険領域(退避不能領域)Z3が認識されることになる。
すなわち、属性認識部212は、カメラ201により図7の左部で示されるような画像が撮像されるとき、図7の右部で示されるような、走行可能領域となる領域Z2に対して、領域Z12と領域Z3を除く領域Z11からなる退避可能領域と、危険領域(退避不能領域)Z3とからなる物体認識結果を画像属性情報として出力する。
<退避スペースマップの生成方法>
次に、退避スペースマップを生成する具体的な方法について説明する。
極座標グリッド処理部233は、属性認識部212より供給される画像属性情報と、デプスセンシング部213より供給される距離情報とを合成することにより、例えば、図8で示されるような画像を生成する。
図8においては、図7の右部で示される属性認識部212により供給される画像属性情報である画像に対して、対応する画像内における距離情報として、例えば、デプスセンサ202がLiDARにより構成されるときの測距結果Dpが合成されている様子が示されている。
尚、例えば、LiDARからなるデプスセンサ202の測距結果Dpは、カメラ201により撮像される画像の解像度と比較すると低解像度の情報であるため、図8においては、測距結果Dpが画像上において斑点状に表記されている。
極座標グリッド処理部233は、図8で示されるような画像に、図9の上段で示されるような格子状の極座標グリッドGdを設定する。
図9の上段においては、極座標グリッドGdは、水平方向×垂直方向に対して10列×6行からなるマス目として設定されているが、行列数は、これに限るものではない。
ところで、図9の上段の極座標グリッドGdの水平方向のマス目の位置は、図9の下段で示される自車SCから見たときの極座標グリッドGdの水平角度方向に相当し、図9の上段の極座標グリッドGdの垂直方向のマス目の位置は、図9の下段における極座標グリッドGdの自車SCからの距離方向に相当する。
このため、図9の上段における極座標グリッドGdの下方のマス目の画像ほど、図9の下段における極座標グリッドGdの自車SCから近い距離の領域のマス目の画像に対応することになる。
すなわち、極座標グリッドGdは、自車SCの上方からみた、図9の下段で示されるような上面図で表現すると、扇状の座標系で示されるグリッドとなる。尚、図9の下段のグリッドGdにおける点線よりも自車SCに近い領域については、画角に収まっていないので、図9の上段のグリッドGdには反映されていない。
より具体的には、図9の上段における左から3列目のマス目で表現される範囲Gdaの6行分のマス目は、図9の下段における放射状の極座標グリッドGdにおける6マス分の範囲Gdaに対応する。
すなわち、図9の上段における範囲Gdaの列における上から6マス目までの画像の情報は、図9の下段における範囲Gdaの外周部から6マス目までの色が付された範囲の距離の情報に対応する。尚、説明は省略するが、その他の列のマス目も同様に対応する。
図9の極座標グリッドGdにおいては、その他のマス目で示される列単位でも、図9の上段、および下段のそれぞれが対応する。
極座標グリッド処理部233は、図9の上段におけるグリッドGdにおける範囲Gdaで示されるような各列単位、すなわち、図9の下段におけるグリッドGdにおける範囲Gdaで示されるような、所定の水平角度方向の範囲を単位とする水平角度領域単位で退避スペースマップを生成する。
ここで、図9の上段における範囲Gdaの場合、図10の左部で示されるように、極座標グリッド処理部233は、マス目の単位で、事前地図情報と、画像属性情報と、距離情報とを対応付けることにより、退避スペースマップを生成する。
例えば、図10の左部の範囲Gdaの場合、上から3マス目までは、障害物として認識された領域Z1であり、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から上から3マス目までの距離は、それぞれ上から障害物までの距離d1乃至d3とされる。
また、図10の左部の範囲Gdaの上から4マス目には、危険領域Z3が含まれており、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から、上から4マス目までの距離は、距離d4とされる。
さらに、図10の左部の範囲Gdaの上から5マス目には、路肩からなる領域Z11が含まれており、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から、上から5マス目までの距離は、距離d5とされる。
また、図10の左部の範囲Gdaの上から6マス目には、走行車線からなる領域Z12が含まれており、図10の右部で示されるように、自車SCのカメラ201やデプスセンサ202から、上から6マス目までの距離は、距離d6とされる。走行車線からなる領域Z12は、事前地図情報と自車の自己位置を用いて認識することも可能である。
そこで、まず、極座標グリッド処理部233は、距離情報、および、事前地図情報、画像属性情報に基づいて、走行不能領域と走行可能領域を設定する。すなわち、図10の範囲Gdaの各マス目の情報は、オキュパンシマップに対応付けられると、図11の左部で示されるように上から3マス目までが走行不能領域からなる領域Z1として表現され、下から3マス目までが走行可能領域からなる領域Z2として表現されることになる。極座標グリッド処理部233は、事前地図情報や画像属性情報等より得られる自車走行車線領域Z12が載っている3次元平面上で、かつ、センサ位置から距離情報が3次元平面上に載らない点より手前の距離に位置する領域を走行可能領域Z2とし、さらに、画像属性情報で障害物として認識された、もしくは、距離情報が自車走行車線領域を含む3次元平面上に載らない点と対応する領域を、走行不能領域Z1とし、図11の左部で示されるようなオキュパンシマップと同様に走行不能領域からなる領域Z1と走行可能領域からなる領域Z2を設定する。
次に、極座標グリッド処理部233は、画像属性情報に基づいて、走行可能領域からなる領域Z2内に退避可能領域と退避不能領域を設定する。すなわち、図11の左部の走行可能領域Z2に対して、画像属性情報が適用されることにより、図11の右部で示されるように、下から3マス目の範囲が、退避不能領域(危険領域Z3)として設定され、下から2マス目までの路肩からなる領域Z11と走行車線からなる領域Z12とが退避可能領域からなる領域Z21として設定されて、1列分の退避スペースマップが生成されることになる。
尚、図9乃至図11を参照して言う退避可能領域は、走行車線と路肩との範囲であって、危険領域を含まない範囲となる。
すなわち、まず、第一段階の処理として、距離情報に基づいて、走行不能領域と走行可能領域とが設定されて、実質的に、オキュパンシマップが設定される。
そして、次に、第二段階の処理として、オキュパンシマップが設定された後、オキュパンシマップにおける走行可能領域内に対して、画像属性情報が適用されて、退避可能領域と退避不能領域とが設定されることにより、退避スペースマップが生成される。
上述した二段階の処理により、図12の左上部の範囲Gdaで示される、画像属性情報と距離情報とが合成された画像と対応する退避スペースマップは、図12の中央上部で示されるようなものとなる。
ここで、図12の中央上部で示される、範囲Gdaの退避スペースマップにおいては、図12の右上部で示されるように、カメラ201およびデプスセンサ202の視野Vの視点位置から障害物からなる領域Z1までの距離が距離Dcとされ、危険領域Z3まで距離が距離Dbとされ、走行車線であるレーンの領域Z12までの距離が距離Daとされ、路肩等からなる領域Z11までの距離が距離Deとなる。
そこで、極座標グリッド処理部233は、図12の右上部で示される範囲Gdaの退避スペースマップを、図12の下段で示される範囲Gdaの退避スペースマップとして設定する。
極座標グリッド処理部233は、極座標グリッドGdの全範囲について、退避スペースマップを生成して、退避スペースマッピング部234に出力し記憶させ、時間蓄積させる。
退避スペースマッピング部234は、時系列の退避スペースマップを記憶して、時間蓄積させることにより、退避スペースマップを時系列に拡張させていく。
より詳細には、退避スペースマッピング部234は、図13の右部で示されるような、所定のタイミングにおけるカメラ201およびデプスセンサ202の視点位置CSSの視野Vの退避スペースマップZVを記憶し、この処理を順次繰り返して時間蓄積する。
すなわち、図13の左部で示されるように、退避スペースマッピング部234は、時刻T1におけるカメラ201およびデプスセンサ202の視点位置CSS1の視野V1の退避スペースマップZV1を記憶すると、時刻T2における視点位置CSS2の視野V2の退避スペースマップZV2を退避スペースマップZV1に重ねることで時間蓄積する。
同様に、退避スペースマッピング部234は、時刻T3における視点位置CSS3の視野V3の退避スペースマップZV3を記憶すると、時刻T1,T2における視野V1,V2の退避スペースマップZV1,ZV2に、退避スペースマップZV3を重ねることで時間蓄積する。
以下、同様の処理を繰り返すことにより、退避スペースマッピング部234は、自己位置に対応付けて、退避スペースマップの時間蓄積を繰り返すことにより、退避スペースマップを時系列に順次空間方向に拡張し続ける。
尚、この時間蓄積方法は、一般的なオキュパンシマップの時間蓄積方法と同様であり、例えば、Binary Bayes Filter等を用いることができる。
<退避スペースマップ生成処理>
次に、図14のフローチャートを参照して、退避スペースマップ生成処理について説明する。
ステップS11において、カメラ201は、自車SCの走行方向前方の画像を撮像して、車外情報検出部141に出力する。
ステップS12において、属性認識部212は、カメラ201により撮像された画像について、例えば、セマンティックセグメンテーション等の物体認識処理により、画素単位で属性判定を行い、判定結果である画像属性情報を生成する。
ステップS13において、属性認識部212は、生成した画像属性情報を状況認識部153の極座標グリッド処理部233に出力する。
ステップS14において、デプスセンサ202は、LiDAR等を用いた距離画像を撮像してデプスセンシング部213に出力する。デプスセンシング部213は、距離画像に基づいて画素単位の距離情報を生成して、状況認識部153の極座標グリッド処理部233に出力する。
ステップS15において、極座標グリッド処理部233は、画像属性情報と距離情報とを合成して合成画像を生成すると共に、図9を参照して説明した手法で、合成画像に対して極座標グリッドGdを設定する。
ステップS16において、極座標グリッド処理部233は、図9の極座標グリッドGdにおける未処理の水平角度領域を処理対象に設定する。ここでいう水平角度領域とは、例えば、図9における範囲Gdaであり、極座標グリッドGdのうちの、未処理の範囲Gdaが処理対象の水平角度領域に設定される。
ステップS17において、極座標グリッド処理部233は、極座標グリッドGdにおける処理対象となる水平角度領域となる列のマス目における距離情報に基づいて、処理対象となる水平角度領域における走行不能領域と走行可能領域とを設定する。
すなわち、ステップS17の処理により、図11の左部を参照して説明したように、走行不能領域と走行可能領域とが設定されることにより、オキュパンシマップに対応するマップが生成される。
ステップS18において、極座標グリッド処理部233は、極座標グリッドGdにおける処理対象となる水平角度領域における、走行可能領域内の画像属性情報に基づいて、退避可能領域と退避不能領域とを設定する。
そして、極座標グリッド処理部233は、走行可能領域内に設定した退避可能領域と、退避不能領域とからなる退避スペースマップを生成し、退避スペースマッピング部234に記憶させる。
すなわち、ステップS18の処理により、図11の右部を参照して説明したように、オキュパンシマップに相当するマップのうちの走行可能領域内に、退避可能領域と退避不能領域とが設定されることにより、退避スペースマップが生成されることになる。
ステップS19において、極座標グリッド処理部233は、未処理の水平角度領域が存在するか否かを判定し、未処理の水平角度領域が存在する場合、処理は、ステップS16に戻る。
すなわち、ステップS16において、全ての水平角度領域について退避スペースマップが生成されるまで、ステップS16乃至S19の処理が繰り返される。
そして、ステップS19において、全ての水平角度領域の退避スペースマップが生成されると処理はステップS20に進む。
ステップS20において、退避スペースマッピング部234は、全ての水平角度領域の退避スペースマップを、自己位置に対応付けて時間蓄積して、時系列に拡張していく。
ステップS21において、極座標グリッド処理部233は、処理の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返される。
そして、ステップS21において、終了が指示された場合、処理は終了する。
以上の処理により、画像属性情報と距離情報とに基づいて、走行不能領域と、走行可能領域とが設定された後、さらに、走行可能領域内に、退避可能領域と、退避不可領域とが設定されることにより、退避可能領域からなる退避スペースマップを生成することが可能となる。
尚、以上においては、自車SC自らが退避スペースマップを生成する処理について説明してきたが、他車が生成した退避スペースマップを取得するようにしてもよい。
また、複数の車両が生成した退避スペースマップをクラウドサーバ等に集約し、様々な車両がダウンロードして使用するようにしてもよい。
このような観点から、退避スペースマップは、走行に際して、自らで生成するようにしてもよいし、他車やクラウドサーバ等から事前に取得するようにしてもよい。
ただし、退避スペースマップの情報は、時々刻々と変化する道路や天候等の各種の情報に基づいて生成されるものでもあるので、自らで生成しない場合については、所定の時間間隔で更新されるようにし、ある程度新しい情報が取得される状況が望ましい。
<緊急退避の例>
(その1)
次に、上述した処理により生成された退避スペースマップを用いることにより、緊急車両の接近に伴った退避スペースへの緊急退避の例について説明する。
退避スペースマップが、例えば、図15で示されるように、自車CSの前方に対して、右側に障害物の領域Z1、走行車線の領域Z12、および退避可能な路肩等からなる領域Z11の三種類の領域が全て設定されている場合について考える。
ここで、図15の領域Z11,Z12の水平方向の幅が、自車CSが退避するための幅W11に緊急車両の通行に必要な幅W12を加えた以上の幅が存在するものとする。
すなわち、図15においては、障害物の領域Z1以外の、領域Z11,Z12からなる領域Z2が、全域が退避可能領域(Z21)として退避スペースマップには登録されることになる。
図15の場合、計画部134は、退避スペースマップに基づいて、領域Z2の全域となる退避可能領域内において、自車CSの退避スペース候補を探索し、探索した退避スペース候補のうち、最も退避させるのに適した領域を退避スペースとして特定する。
より詳細には、後方より緊急車両ECが接近してくる場合、退避スペースは、緊急車両ECに走行車線に譲ることを目的として自車SCを退避させて停車させるスペースとなる。
このため、図15の場合、計画部134は、退避スペースマップにおける退避可能領域のうち、緊急車両ECを通過させるための走行車線側の幅W12の領域を備えた領域を譲渡領域Z31として設定する。
ここで、計画部134は、譲渡領域Z31の設定に当たって、例えば、画像属性情報に基づいて、走行車線からなる領域Z12と認識される領域が含まれるような緊急車両ECの幅W12の領域を備えた譲渡領域Z31を設定する。
また、計画部134は、退避可能領域内における譲渡領域Z31以外の領域、すなわち、譲渡領域Z31の境界BBより路肩側であって、自車CSが退避するために必要な幅W11を備えた、図中の一点鎖線で囲まれた領域Z51を退避スペース候補領域として探索する。
さらに、計画部134は、探索された退避スペース候補領域としての領域Z51のうち、自車CSの制動距離B11より前方の最も近傍の領域であって、自車CSが走行車線に対して路肩側に退避するための幅W11を備えた、図中の点線で囲まれる領域Z51aを退避スペースとして特定する。
そして、計画部134は、特定された退避スペースからなる領域Z51aに自車CSを退避させる経路を計画し、計画した経路を辿って移動して停車するような動作制御情報を動作制御部135に出力する。
動作制御部135は、計画部134からの動作制御情報に基づいて、特定された退避スペースからなる領域Z51aに停車させるための挙動を実現させるためアクセル、ブレーキ、およびステアリングを動作させて自車CSを退避スペースに移動させ、停車させる。
このような一連の動作により、自車CSは、緊急車両が接近するような場合に、緊急車両に対して走行車線を譲りつつ、安全に停車して退避することが可能となる。
尚、図15の場合、走行車線からなる領域Z12の右側には、障害物の領域Z1が設定されており、路肩からなる領域Z11が走行車線の領域Z12に対して左側に存在することから退避スペースとしての領域Z51が、走行車線からなる領域Z12の左側に設定される例について説明してきた。
しかしながら、走行車線からなる領域Z12を緊急車両に譲ることができればよいので、領域Z12の右側にのみ、路肩からなる領域Z11が設けられているような場合については、譲渡領域Z31が走行車線の領域Z12の左側に対して設定されるようにして、退避スペースとしての領域Z51aは、走行車線からなる領域Z12の右側に設定されるようにする。
すなわち、緊急車両の接近に伴う退避処理においては、自車SCが退避することで、譲渡領域Z31を設定することができるような退避スペース候補領域Z51が探索され、探索された退避スペース候補領域Z51内において、自車SCの制動距離よりも前方の領域であって、かつ、最近傍の領域が退避スペースからなる領域Z51aに特定される。
尚、譲渡領域Z31は、緊急車両が走行するための走行車線の領域Z12を広く含む方が、緊急車両の迅速で、安全な移動を確保することができる。このため、退避スペース候補領域Z51や退避スペースからなる領域Z51aは、譲渡領域Z31における走行車線の領域Z12ができるだけ広く含まれるように設定されることが望ましい。例えば、譲渡領域Z31の設定に当たって、緊急車両の幅W12よりも所定の割合だけ広い幅が設定されるようにしてもよい。
(その2)
また、退避スペースマップが、例えば、図16で示されるように、自車CSの前方に対して、右側に障害物の領域Z1、走行車線の領域Z12、および退避可能な路肩等からなる領域Z11-1乃至Z11-3の三種類の領域が設定されている場合について考える。
ここで、領域Z11-1乃至Z11-3,Z12の水平方向の幅が、それぞれ自車CSが退避するための幅W11に緊急車両の通行に必要な幅W12を加えた以上の幅が存在するものとする。
すなわち、図16で示されるような場合については、領域Z11-1乃至Z11-3,Z12が退避可能領域として退避スペースマップには登録されることになる。
従って、図16の場合、計画部134は、退避スペースマップにおける退避可能領域のうち、緊急車両ECを通過させるための走行車線側の幅W12の領域からなる譲渡領域Z31との境界BBより路肩側であって、自車CSが退避するために必要な幅W11を備えた、図中の一点鎖線で囲まれた領域Z51-1乃至Z51-3を退避スペース候補領域として探索する。
さらに、計画部134は、探索された退避スペース候補領域としての領域Z51-1乃至Z51-3のうち、自車CSの制動距離B11より前方の最も近傍であって、自車CSが走行車線に対して路肩側に退避するための幅W11を備えた、図中の点線で囲まれる領域Z51-2を退避スペースとして特定する。
すなわち、図16の場合、計画部134は、領域Z51-2に自車CSを退避させる経路を計画する。
以降の動作については、図15の場合と同様である。
このような動作により、自車CSは、退避スペースとなる領域が路肩のうちの一部に制限されていても、緊急車両が接近するような場合に、緊急車両に対して走行車線を譲りつつ、安全に停車して退避することが可能となる。
(その3)
さらに、退避スペースマップが、例えば、図17で示されるように、自車CSの前方に対して、右側に障害物の領域Z1、および走行車線の領域Z12の2種類の領域のみが設定されており、Z12の水平方向の幅が、それぞれ自車CSが退避するための幅W11に緊急車両の通行に必要な幅W12を加えた幅に満たない場合について考える。
図17の場合、退避スペースマップにおける退避可能領域は、走行車線の領域Z12全域となるため、緊急車両ECを通過させるための走行車線側の幅W12の領域との境界BBより路肩側であって、自車CSが退避するために必要な幅W11を備えた領域は存在せず、退避スペース候補領域は探索されないことになる。従って、図17の場合、退避スペースは特定されないことになる。
すなわち、図17においては、仮に、走行車線となる領域Z12の左側に退避スペースが設定されるようにして、自車CSが停車すると、自車CSが走行車線を塞ぐことにより、後方から接近する緊急車両ECは、走行車線からなる領域Z12を通行することができない。
そこで、図17のような場合、自車CSは、退避スペースを特定することができないので、退避スペースを特定することができる位置まで、走行を継続する。
このような処理により、自車CSが緊急車両の通行を妨げないようにすることが可能となる。
(その4)
また、退避スペースマップが、例えば、図18で示されるように、図15における場合と同様であって、さらに、自車CSの前方に前走車CAが存在する場合について考える。
図18の場合、自車CSは、前走車CAに追従して走行を継続する。
このような処理により、自車CSが緊急車両の通行を妨げないようにすることが可能となる。
尚、図18の場合、図15で示されるように、退避スペースとなる領域Z51aを特定することは可能であるので、例えば、所定時間だけ前走車CAに追従して走行した後には、前走車CAよりも手前の位置に退避スペースからなる領域Z51aを特定して、自車CSを移動させて停車させることで退避させるようにしてもよい。
<緊急退避処理>
次に、図19のフローチャートを参照して、本開示の車両制御システムによる緊急退避処理について説明する。尚、緊急退避処理については、上述した退避スペースマップ生成処理が並列処理で、または事前処理でなされて、退避スペースマップが生成されていることが前提となる。
ステップS41において、車外情報検出部141は、データ取得部102により取得される、カメラ201により撮像された画像、およびデプスセンサ202により検出されたデプス画像、並びに記憶部111に格納されている事前地図の情報を取得して、車両を検出すると共に、画像属性情報、および距離情報を検出して状況認識部153に出力する。
このとき、自己位置推定部132は、GPS203より供給される位置情報、並びに画像、デプス画像、および事前地図の情報に基づいて、自車CSの詳細な位置情報と姿勢の情報を状況認識部153に出力する。
より詳細には、車両検出部211は、画像より画像認識により車両を検出し、検出結果を状況認識部153の緊急車両識別部231、および車両トラッキング部232に出力する。
ここで、車両トラッキング部232は、画像内で検出された車両の情報を時系列に記憶してトラッキングし、自車SCに対して離れるように走行する前走車であるのか、または、自車SCに対して前方から接近してくる対向車や後方から接近する後続車であることを識別する情報を緊急車両識別部231に出力すると共に、状況予測部154を介して計画部134に出力する。
また、属性認識部212は、画像に基づいて、画素単位で画像内の物体の属性を認識し、画像属性情報を生成して状況認識部153の極座標グリッド処理部233に出力する。
さらに、デプスセンシング部213は、デプス画像の情報に基づいて、画素単位の距離情報を生成し、距離情報を極座標グリッド処理部233に出力する。
このとき、極座標グリッド処理部233は、記憶部111に記憶されている事前地図の情報、および自己位置推定部132により供給される詳細な自己位置の情報と姿勢の情報を取得する。
ステップS42において、緊急車両識別部231は、緊急車両が接近しており緊急退避が必要であるか否かを判定する。
より詳細には、緊急車両識別部231は、画像内において検出された車両について、例えば、車両トラッキング部232より供給されるトラッキング情報に基づいて、自車SCに接近する緊急車両があるか否かに基づいて、緊急車両の接近の有無を判定する。
また、緊急車両識別部231は、データ取得部102における、例えば、マイクロフォンにより収音される車外の音声に基づいて、緊急車両より発せられるサイレンの音声の有無や、サイレン音が検出された条件下における画像内の緊急車両の有無により、緊急車両の接近の有無を判定する。
さらに、緊急車両識別部231は、通信部103を制御して、緊急車両で使用される周波数帯域における通信が傍受可能であるか否か、路上に設けられたビーコンからの緊急車両の接近を通知する信号の有無、および緊急車両の接近を通知する車車間通信の有無等の様々な通信信号に基づいて、緊急車両の接近の有無を判定する。
また、緊急車両識別部231は、入力部101におけるタッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイスの操作の有無により自車SCの運転者であるユーザの介入により緊急車両の接近の有無を判定する。
緊急車両識別部231は、これらのうちの少なくとも1つの判定処理により緊急車両の接近の有無を判定し、緊急退避が必要であるか否かを判定する。
ステップS42において、緊急退避が必要であると判定された場合、処理は、ステップS43に進む。
ステップS43において、緊急車両識別部231は、緊急車両が接近していることを示す情報と、緊急車両の接近に伴って退避モードに移行することを示す情報を、状況予測部154を介して、出力部106、および計画部134に出力する。
このとき、出力部106は、ディスプレイやスピーカ等により画像や音声で、運転者であるユーザに対して緊急車両の接近が検出されたことを通知するとともに、緊急車両の検出に伴って退避モードに移行することを通知する。
ステップS44において、計画部134は、所定の速度まで減速するための動作制御情報を生成して動作制御部135に出力する。この処理により、動作制御部135は、ブレーキ等を制御して、自車SCの走行速度を所定の速度まで減速させる。
ステップS45において、計画部134は、状況予測部154を介して車両トラッキング部232より供給されるトラッキング情報に基づいて、前走車が存在するか否かを判定する。
ステップS45において、計画部134は、前走車が存在すると判定した場合、処理は、ステップS46に進む。
ステップS46において、計画部134は、自車SCを、前走車との距離を、安全を確保する上で十分な所定の距離に保ちつつ、前走車に追従して走行するように動作制御情報を生成して、動作制御部135に出力する。
動作制御部135は、この動作制御情報に基づいて、自車SCのアクセル、ブレーキ、およびステアリング等を制御して、自車SCを、前走車との距離を、安全を確保する上で十分な所定の距離に保ちつつ、前走車に追従して走行させる。
尚、ステップS46の処理においては、前走車が停車した場合、退避スペースがなく、退避できない状態であるときには、前走車と所定の距離を保った状態で、緊急車両に対して走行車線を譲れない状態であっても停車する処理が含まれる。
ステップS47において、計画部134は、トラッキング情報に基づいて、前走車が停車したか否かを判定する。
ステップS47において、前走車が停車せず、走行を継続している場合、処理は、ステップS48に進む。
ステップS48において、計画部134は、所定時間以上前走車に追従して走行しているか否かを判定する。
ステップS48において、所定時間まで、前走車に追従して走行していないと判定された場合、処理は、ステップS46に戻る。
すなわち、前走車が存在する場合、前走車が停車せず走行している限り、自車SCは、前走車に追従して走行している状態が所定時間内である場合、追従する走行を継続する。
そして、ステップS48において、所定時間以上、前走車に追従走行している状態が継続した場合、処理は、ステップS49に進む。
また、ステップS47において、前走車の走行が停車した場合、処理は、ステップS49に進む。
すなわち、前走車が存在する場合、追従走行が所定時間以上継続したとき、または、前走車が停車した時には、処理は、ステップS49に進む。
ステップS49において、計画部134は、状況予測部154を介して退避スペースマッピング部234に蓄積されている退避スペースマップを読み出す。
ステップS50において、計画部134は、退避スペースマップに基づいて、前走車よりも手前で、かつ、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
より詳細には、計画部134は、退避スペースマップに基づいて、退避スペース候補領域を探索し、探索した退避スペース候補領域のうち、前走車よりも手前で、かつ、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
ステップS51において、計画部134は、退避スペースが存在し、特定できたか否かを判定する。
ステップS51において、退避スペースが特的できない場合、処理は、ステップS45に戻る。
すなわち、退避スペースが存在しない場合、ステップS45乃至S51の処理が繰り返される。
すなわち、自車SCは、後方から接近する緊急車両に走行車線を譲りつつ、安全に停車して、退避することができないので、前走車と所定の距離を保ちつつ、追従走行を継続するか、または、所定の距離を保った状態で停車する。
また、ステップS51において、退避スペースが特定された場合、処理は、ステップS52に進む。
ステップS52において、計画部134は、退避スペースを目的地とする経路を計画し、計画した動作を実現するための動作制御情報を生成して、動作制御部135に出力する。
ステップS53において、動作制御部135は、計画部134より供給される動作制御情報に基づいて、自車SCのアクセル、ブレーキ、およびステアリング等を制御して、退避スペースを目的地とした経路に従って、自車SCを走行させる。
ステップS54において、計画部134は、自車SCの詳細な位置情報および姿勢の情報に基づいて、自車SCが目的地である退避スペースに到着したか否かを判定する。
ステップS54において、退避スペースに到着していない場合、ステップS53,S54の処理が繰り返されて、自車SCが目的地である退避スペースに向けて走行を継続させる。
ステップS54において、自車SCが目的地である退避スペースに到着したと判定された場合、処理は、ステップS55に進む。
ステップS55において、計画部134は、自車SCを停車させるように動作制御情報を生成して、動作制御部135に出力する。これにより、動作制御部135は、動作制御情報に基づいて、自車SCを退避スペース内に停車させる。
ステップS56において、緊急車両識別部231は、緊急退避が必要な状態が終了したか否かを判定し、緊急退避が必要な状態が終了したとみなされるまで、同様の処理が繰り返される。
そして、ステップS56において、例えば、緊急車両が後方から接近し、退避スペースに退避して停車することで譲った走行車線を走行して通過することで、緊急退避が必要な状態が終了したとみなされた場合、処理は、ステップS57に進む。
ステップS57において、緊急車両識別部231は、走行モードを退避モードから通常モードに移行させることを示す情報を、状況予測部154を介して出力部106、および計画部134に出力する。
これにより出力部106は、走行モードを退避モードから通常モードに移行させることを示す情報を、音声または画像により運転者であるユーザに対して提示する。
また、計画部134は、本来の目的地までのルートを再計画して、再計画した動作を実現するための動作制御情報を生成して、動作制御部135に出力する。
動作制御部135は、再計画された、本来の目的地までのルートを走行するための動作を実現するための動作制御情報に基づいて、アクセル、ブレーキ、およびステアリング等を制御して、目的地までのルートを自車SCが走行するように制御する。
ステップS58において、計画部134は、動作の終了が指示されたか否かを判定し、終了が指示されていない場合、処理は、ステップS41に戻り、それ以降の処理が繰り返される。
また、ステップS45において、前走車が存在しない場合、処理は、ステップS59に進む。
ステップS59において、計画部134は、状況予測部154を介して退避スペースマッピング部234に蓄積されている退避スペースマップを読み出す。
ステップS60において、計画部134は、退避スペースマップに基づいて、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
より詳細には、計画部134は、退避スペースマップに基づいて、退避スペース候補領域を探索し、探索した退避スペース候補領域のうち、自らの制動距離内の安全に停車できる距離よりも遠くで、かつ、最近傍で、かつ、緊急車両の幅を確保することが可能な退避スペースを特定する。
そして、処理は、ステップS51に進む。
すなわち、前走車が存在しない場合については、直ちに退避スペースマップが読み出されて、退避スペースの特定が開始される。
以上の処理により、緊急車両の接近による緊急退避が必要な状態であるとみなされると、走行モードが、通常モードから退避モードに遷移して、前走車が存在するときには、前走車に追従して走行する。
そして、所定時間以上前走車に追従する走行が継続されるとき、または、前走車の走行が停車したとき、退避スペースマップが読み出されて、退避スペースが特定されて、特定された退避スペースを目的地とした経路が計画されて、計画された経路を走行するための動作制御がなされる。
また、前走車が存在しないときには、直ちに退避スペースマップが読み出されて、退避スペースが特定されて、特定された退避スペースを目的地とした経路が計画されて、計画された経路を走行するための動作制御がなされる。
さらに、退避スペースが特定できない場合については、退避スペースが検出されるまで、走行が継続される。
結果として、緊急車両の接近が認識される場合、緊急車両に対して走行車線を譲りつつ、安全を確保して退避スペースに停車させることが可能となる。
尚、以上においては、前走車が存在する場合には、前走車に追従して走行する例について説明してきたが、前走車が存在していても、直ちに退避スペースマップを読み出して、前走車の手前に退避スペースを特定することができるときは、特的された退避スペースに停車して、緊急車両に対して走行車線を譲るようにしてもよい。
また、以上においては、緊急退避処理として、緊急車両の接近を検出すると退避モードに入り、退避スペースを特定して、特定した退避スペースで停車するようにする例について説明してきたが、緊急車両の接近が早く、退避スペースに移動しただけで退避スペースに到着する前の段階で、緊急車両が走行車線を走行して通り過ぎたときには、停車するまでに通常モードに復帰するようにしてもよい。
すなわち、このような場合、緊急車両の通過が早ければ、緊急退避処理として退避スペースに入るだけで、停車せずに、通常モードに復帰するようにしてもよい。
また、例えば、図15で示されるように、緊急車両に対して走行車線を譲って、退避スペース候補領域となる領域Z51に移動しても、領域Z51に十分な広さの走行車線が含まれているときには、領域Z51内に退避しつつ、走行車線上の安全を確保できる所定速度まで減速した状態で走行を継続するようにしてもよい。
さらに、以上においては、緊急車両が自車の後方から接近する場合に、緊急退避処理を実行する例について説明してきたが、それ以外の緊急事態が発生した場合にも緊急退避処理を行うようにしてもよい。
例えば、運転者の居眠り運転が検知されたとき、運転者または同乗者に体調不良が発生したとき、心拍数等のメディカルデータを検出し、検出されたメディカルデータから、体調の悪化が検知されるとき、および、ユーザが緊急事態を宣言するようなとき等の、運転者や同乗者に不測の事態が発生した場合に、退避スペースに停車させるような緊急退避処理が実行されるようにしてもよい。
また、タイヤのパンク、エンジントラブル、センサの故障等、自車の状態に異常が検知された場合に、退避スペースに停車させるような緊急退避処理が実行されるようにしてもよい。
さらに、自車の前方に危険物や落下物が検知され、衝突の恐れがある場合に、被害を軽減するため、退避スペースに停車させるような緊急退避処理が実現されるようにしてもよい。
ここで、運転者であるユーザが自車の前方に、危険物や落下物を見つけたにもかかわらず、自車が直進しているときには、運転者であるユーザが退避指示を出して、緊急退避処理を実現するようにしても良い。
また、後続車両の待ち合わせや人をピックアップするために、意図的に運転者であるユーザが自車を停車させるような場合に、運転者であるユーザが退避指示を出して、緊急事態処理が実現されるようにしても良い。
さらに、退避スペースマップについては、ネットワークを介して複数の車両からの情報をサーバやクラウドコンピューティングにより管理し、複数の車両により時間蓄積されるようにして、複数の車両で共有するようにしてもよい。
<<3.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
図20は、汎用のコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図20におけるCPU1001が、図5における自動運転制御部112の機能を実現させる。また、図20における記憶部1008が、図5における記憶部111を実現する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> 距離情報を取得する距離情報取得部と、
画像を取得する画像取得部と、
取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部とを備え、
前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
情報処理装置。
<2> 前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定した後、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
<1>に記載の情報処理装置。
<3> 前記退避スペースマップ作成部は、前記走行可能領域内の前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記車両が安全に退避可能な領域と、安全に退避不能な領域とを設定し、前記車両が安全に退避可能な領域を前記退避スペースとして設定することで前記退避スペースマップを作成する
<2>に記載の情報処理装置。
<4> 前記退避スペースマップ作成部は、前記距離情報および前記画像属性情報を重畳した情報に対して、極座標グリッドを設定し、前記極座標グリッドにおける水平角度領域単位で、前記退避スペースマップを作成する
<3>に記載の情報処理装置。
<5> 前記退避スペースマップ作成部は、作成した前記退避スペースマップを、自己位置に対応付けて順次時間蓄積させる
<3>に記載の情報処理装置。
<6> 緊急事態の発生に応じて、退避モードに設定する退避モード設定部と、
前記車両の動作を計画する計画部とをさらに含み、
前記退避モードが設定された場合、前記計画部は、前記退避スペースマップに基づいて、前記車両の動作を計画する
<1>乃至<5>のいずれかに記載の情報処理装置。
<7> 前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、探索した前記退避スペースに前記車両を停車させるように動作を計画する
<6>に記載の情報処理装置。
<8> 前記計画部は、前記退避スペースマップに基づいて、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
<6>に記載の情報処理装置。
<9> 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記車両を所定の速度まで減速させた後、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
<6>に記載の情報処理装置。
<10> 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両の幅と、前記緊急車両の幅とを合わせた幅よりも広いとき、走行車線を前記緊急車両に譲るように、前記走行車線の路肩からなる前記退避スペースに前記車両を停車させるように動作を計画する
<6>に記載の情報処理装置。
<11> 前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、前記退避スペースが探索できないとき、前記車両の走行を継続させるように動作を計画する
<6>に記載の情報処理装置。
<12> 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両と、前記緊急車両とを合わせた幅よりも広くないとき、前記車両の走行を継続させるように動作を計画する
<6>に記載の情報処理装置。
<13> 前走車が存在するとき、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画する
<6>に記載の情報処理装置。
<14> 前走車が存在する場合、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する
<13>に記載の情報処理装置。
<15> 前記緊急事態は、後方から緊急車両が接近してくる場合、運転者の居眠り運転が検知された場合、運転者または同乗者に体調不良が発生した場合、運転者の心拍数等のメディカルデータから、運転者の体調の悪化が検知される場合、運転者が緊急事態を宣言するような場合、運転者や同乗者に不測の事態が発生した場合、前記車両の状態に異常が検知された場合、前記車両の前方に危険物や落下物が検知され、衝突の恐れがある場合、後続車両との待ち合わせや人をピックアップするために、意図的に運転者が自車を停車させるような場合を含む
<6>に記載の情報処理装置。
<16> 前記画像属性認識部は、取得した前記画像内における画素単位の属性をセマンティックセグメンテーションにより画像属性情報として認識する
<1>乃至<15>のいずれかに記載の情報処理装置。
<17> 前記画像取得部は、赤外光カメラにより撮像された前記画像を取得する
<1>乃至<16>のいずれかに記載の情報処理装置。
<18> 前記画像取得部は、偏光カメラにより撮像された前記画像を取得する
<1>乃至<16>のいずれかに記載の情報処理装置。
<19> 距離情報を取得する距離情報取得処理と、
画像を取得する画像取得処理と、
取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識処理と、
前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成処理とを備え、
前記退避スペースマップ作成処理は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
情報処理方法。
<20> 距離情報を取得する距離情報取得部と、
画像を取得する画像取得部と、
取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部としてコンピュータを機能させ、
前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
プログラム。
100 車両制御システム, 102 データ取得部, 106 出力部, 111 記憶部, 112 自動運転制御部, 131 検出部, 132 自己位置推定部, 133 状況分析部, 134 計画部, 135 動作制御部, 141 車外情報検出部, 151 マップ解析部, 152 交通ルール認識部, 153 状況認識部,
154 状況予測部, 201 カメラ, 202 デプスセンサ, 203 GPS,
211 車両検出部, 212 属性認識部, 213 デプスセンシング部, 231 緊急車両識別部, 232 車両トラッキング部, 233 極座標グリッド処理部, 234 退避スペースマッピング部

Claims (15)

  1. 距離情報を取得する距離情報取得部と、
    画像を取得する画像取得部と、
    取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
    前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部と
    緊急事態の発生に応じて、退避モードに設定する退避モード設定部と、
    前記退避モードが設定された場合、前記退避スペースマップに基づいて、前記車両の動作を計画する計画部とを備え、
    前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成し、
    前走車が存在する場合、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画し、その結果、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する
    情報処理装置。
  2. 前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定した後、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成する
    請求項1に記載の情報処理装置。
  3. 前記退避スペースマップ作成部は、前記走行可能領域内の前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記車両が安全に退避可能な領域と、安全に退避不能な領域とを設定し、前記車両が安全に退避可能な領域を前記退避スペースとして設定することで前記退避スペースマップを作成する
    請求項2に記載の情報処理装置。
  4. 前記退避スペースマップ作成部は、前記距離情報および前記画像属性情報を重畳した情報に対して、極座標グリッドを設定し、前記極座標グリッドにおける水平角度領域単位で、前記退避スペースマップを作成する
    請求項3に記載の情報処理装置。
  5. 前記退避スペースマップ作成部は、作成した前記退避スペースマップを、自己位置に対応付けて順次時間蓄積させる
    請求項3に記載の情報処理装置。
  6. 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記車両を所定の速度まで減速させた後、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースに前記車両を停車させるように動作を計画する
    請求項に記載の情報処理装置。
  7. 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両の幅と、前記緊急車両の幅とを合わせた幅よりも広いとき、走行車線を前記緊急車両に譲るように、前記走行車線の路肩からなる前記退避スペースに前記車両を停車させるように動作を計画する
    請求項に記載の情報処理装置。
  8. 前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索して、前記退避スペースが探索できないとき、前記車両の走行を継続させるように動作を計画する
    請求項1に記載の情報処理装置。
  9. 前記緊急事態が、後方から緊急車両が接近してくる場合、前記計画部は、前記退避スペースマップに基づいて、前記退避スペースを探索し、探索した前記退避スペースの幅が、前記車両と、前記緊急車両とを合わせた幅よりも広くないとき、前記車両の走行を継続させるように動作を計画する
    請求項に記載の情報処理装置。
  10. 前記緊急事態は、後方から緊急車両が接近してくる場合、運転者の居眠り運転が検知された場合、運転者または同乗者に体調不良が発生した場合、運転者の心拍数等のメディカルデータから、運転者の体調の悪化が検知される場合、運転者が緊急事態を宣言するような場合、運転者や同乗者に不測の事態が発生した場合、前記車両の状態に異常が検知された場合、前記車両の前方に危険物や落下物が検知され、衝突の恐れがある場合、後続車両との待ち合わせや人をピックアップするために、意図的に運転者が自車を停車させるような場合を含む
    請求項に記載の情報処理装置。
  11. 前記画像属性認識部は、取得した前記画像内における画素単位の属性をセマンティックセグメンテーションにより画像属性情報として認識する
    請求項1に記載の情報処理装置。
  12. 前記画像取得部は、赤外光カメラにより撮像された前記画像を取得する
    請求項1に記載の情報処理装置。
  13. 前記画像取得部は、偏光カメラにより撮像された前記画像を取得する
    請求項1に記載の情報処理装置。
  14. 距離情報を取得する距離情報取得処理と、
    画像を取得する画像取得処理と、
    取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識処理と、
    前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成処理と
    緊急事態の発生に応じて、退避モードに設定する退避モード設定処理と、
    前記退避モードが設定された場合、前記退避スペースマップに基づいて、前記車両の動作を計画する計画処理とを含み
    前記退避スペースマップ作成処理は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成し、
    前走車が存在する場合、前記計画処理は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画し、その結果、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する
    情報処理方法。
  15. 距離情報を取得する距離情報取得部と、
    画像を取得する画像取得部と、
    取得した前記画像内における領域毎の属性を画像属性情報として認識する画像属性認識部と、
    前記距離情報および前記画像属性情報に基づいて、車両が安全に退避可能な退避スペースからなるマップである退避スペースマップを作成する退避スペースマップ作成部と
    緊急事態の発生に応じて、退避モードに設定する退避モード設定部と、
    前記退避モードが設定された場合、前記退避スペースマップに基づいて、前記車両の動作を計画する計画部としてコンピュータを機能させ、
    前記退避スペースマップ作成部は、前記距離情報に基づいて、前記車両が走行可能な走行可能領域を設定し、前記画像属性情報に基づいた、前記走行可能領域の路面の状況に応じて、前記走行可能領域内に、前記退避スペースを設定することで前記退避スペースマップを作成し、
    前走車が存在する場合、前記計画部は、前記車両を、前記前走車との安全を確保しつつ追従して走行させるように動作を計画し、その結果、前記前走車との安全を確保しつつ追従して走行させるように動作する状態が所定時間継続したとき、前記退避スペースマップに基づいて、前記車両を、前記前走車よりも手前で、かつ、前記車両の制動距離よりも遠く、かつ、最近傍の前記退避スペースに停車させるように動作を計画する
    プログラム。
JP2021526005A 2019-06-14 2020-06-01 情報処理装置、および情報処理方法、並びにプログラム Active JP7456442B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019110794 2019-06-14
JP2019110794 2019-06-14
PCT/JP2020/021542 WO2020250725A1 (ja) 2019-06-14 2020-06-01 情報処理装置、および情報処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2020250725A1 JPWO2020250725A1 (ja) 2020-12-17
JP7456442B2 true JP7456442B2 (ja) 2024-03-27

Family

ID=73781988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526005A Active JP7456442B2 (ja) 2019-06-14 2020-06-01 情報処理装置、および情報処理方法、並びにプログラム

Country Status (6)

Country Link
US (1) US20220340130A1 (ja)
EP (1) EP3985640A4 (ja)
JP (1) JP7456442B2 (ja)
KR (1) KR20220020804A (ja)
CN (1) CN113994408A (ja)
WO (1) WO2020250725A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020067072A1 (en) * 2018-09-24 2020-04-02 Panasonic Intellectual Property Management Co., Ltd. Personalized experience journeys
WO2021025252A1 (ko) * 2019-08-05 2021-02-11 엘지전자 주식회사 이상 운행 정보 전송 방법 및 장치
JP7112612B1 (ja) 2021-09-17 2022-08-04 エスワイエス・エンジニアリング株式会社 停車可又は停車不可路肩区間探索情報提供装置
KR20230123864A (ko) 2022-02-17 2023-08-24 주식회사 마키나락스 인공지능 기반의 반도체 설계 방법
JP2023139794A (ja) * 2022-03-22 2023-10-04 日野自動車株式会社 経路生成システム
JP2024055113A (ja) * 2022-10-06 2024-04-18 日立建機株式会社 鉱山車両自律走行システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271906A (ja) 2009-05-21 2010-12-02 Kenwood Corp 車両の運転支援装置
JP2016149122A (ja) 2015-02-10 2016-08-18 株式会社デンソー 退避制御装置、退避制御方法
JP2018043705A (ja) 2016-09-16 2018-03-22 株式会社Subaru 車両の走行制御装置
JP2018112887A (ja) 2017-01-11 2018-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018195202A (ja) 2017-05-19 2018-12-06 トヨタ自動車株式会社 退避走行支援装置
WO2019026714A1 (ja) 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体
WO2019111702A1 (ja) 2017-12-05 2019-06-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147440A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 緊急車両回避支援装置、及び情報提供装置
JP2009248665A (ja) * 2008-04-03 2009-10-29 Alps Electric Co Ltd 路面凍結警報装置
DE102008001409A1 (de) * 2008-04-28 2009-11-05 Robert Bosch Gmbh Verfahren zur Bestimmung von freien Bereichen in der, insbesondere für die Fahrzeugführung relevanten Umgebung eines Kraftfahrzeugs
JP2010020371A (ja) * 2008-07-08 2010-01-28 Yazaki Corp 車両制御システム
JP6336758B2 (ja) * 2011-03-04 2018-06-06 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト 回避アシスタントの作動の制限
WO2012120076A1 (de) * 2011-03-09 2012-09-13 Continental Teves Ag & Co. Ohg Sicherheitsvorrichtung für ein kraftfahrzeug und verfahren zum betrieb eines kraftfahrzeugs
US20160086391A1 (en) * 2012-03-14 2016-03-24 Autoconnect Holdings Llc Fleetwide vehicle telematics systems and methods
KR101927155B1 (ko) * 2012-10-19 2018-12-10 현대자동차 주식회사 도로 갓길의 공간 인지 방법 및 시스템
US9523984B1 (en) * 2013-07-12 2016-12-20 Google Inc. Methods and systems for determining instructions for pulling over an autonomous vehicle
DE102015206144B4 (de) * 2015-04-07 2022-10-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum sicheren Abstellen eines Fahrzeuges
US10334050B2 (en) * 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
CN107134160A (zh) * 2016-02-29 2017-09-05 法拉第未来公司 紧急信号检测和响应
DE102016212587A1 (de) * 2016-07-11 2018-01-11 Continental Automotive Gmbh Verfahren und System zur Erzeugung von Karteninformationen
US20180067494A1 (en) * 2016-09-02 2018-03-08 Delphi Technologies, Inc. Automated-vehicle 3d road-model and lane-marking definition system
US10657364B2 (en) * 2016-09-23 2020-05-19 Samsung Electronics Co., Ltd System and method for deep network fusion for fast and robust object detection
US10599150B2 (en) * 2016-09-29 2020-03-24 The Charles Stark Kraper Laboratory, Inc. Autonomous vehicle: object-level fusion
KR101982774B1 (ko) * 2016-11-29 2019-05-27 엘지전자 주식회사 자율 주행 차량
KR20190014871A (ko) * 2017-08-04 2019-02-13 삼성전자주식회사 차량의 후방에 위치한 응급 차량에 기초하여 상기 차량의 주행 경로를 변경하는 장치 및 방법
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
CN111133489B (zh) * 2017-10-05 2022-02-11 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
KR102553730B1 (ko) * 2018-03-08 2023-07-11 주식회사 에이치엘클레무브 차량의 충돌 회피 제어 장치 및 방법
JP2020050109A (ja) * 2018-09-26 2020-04-02 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP6754416B2 (ja) * 2018-11-16 2020-09-09 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11131554B2 (en) * 2018-12-26 2021-09-28 Beijing Voyager Technology Co., Ltd. Systems and methods for vehicle telemetry
US11577741B1 (en) * 2019-04-05 2023-02-14 Zoox, Inc. Systems and methods for testing collision avoidance systems

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271906A (ja) 2009-05-21 2010-12-02 Kenwood Corp 車両の運転支援装置
JP2016149122A (ja) 2015-02-10 2016-08-18 株式会社デンソー 退避制御装置、退避制御方法
JP2018043705A (ja) 2016-09-16 2018-03-22 株式会社Subaru 車両の走行制御装置
JP2018112887A (ja) 2017-01-11 2018-07-19 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2018195202A (ja) 2017-05-19 2018-12-06 トヨタ自動車株式会社 退避走行支援装置
WO2019026714A1 (ja) 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体
WO2019111702A1 (ja) 2017-12-05 2019-06-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
KR20220020804A (ko) 2022-02-21
US20220340130A1 (en) 2022-10-27
EP3985640A4 (en) 2022-08-10
WO2020250725A1 (ja) 2020-12-17
EP3985640A1 (en) 2022-04-20
JPWO2020250725A1 (ja) 2020-12-17
CN113994408A (zh) 2022-01-28

Similar Documents

Publication Publication Date Title
JP7456442B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20210122364A1 (en) Vehicle collision avoidance apparatus and method
US20200409387A1 (en) Image processing apparatus, image processing method, and program
JP2020512635A (ja) 自動運転乗り物のための動的センサ選択
KR102613792B1 (ko) 촬상 장치, 화상 처리 장치 및 화상 처리 방법
JP7180670B2 (ja) 制御装置、制御方法、並びにプログラム
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
JP7257737B2 (ja) 情報処理装置、自己位置推定方法、及び、プログラム
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022034086A (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2020241303A1 (ja) 自動走行制御装置、および自動走行制御システム、並びに自動走行制御方法
WO2022158185A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
JP2023541322A (ja) 低信頼度の物体検出条件における車両動作のための注釈及びマッピング
WO2021153176A1 (ja) 自律移動装置、自律移動制御方法、並びにプログラム
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
JPWO2020036043A1 (ja) 情報処理装置と情報処理方法とプログラム
US20230289980A1 (en) Learning model generation method, information processing device, and information processing system
JP2020101960A (ja) 情報処理装置、情報処理方法及びプログラム
US20230245423A1 (en) Information processing apparatus, information processing method, and program
US20230251846A1 (en) Information processing apparatus, information processing method, information processing system, and program
JP2022028989A (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20230206596A1 (en) Information processing device, information processing method, and program
JP7371679B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2023053498A1 (ja) 情報処理装置、情報処理方法、記録媒体、および車載システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240226

R151 Written notification of patent or utility model registration

Ref document number: 7456442

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151