WO2018163856A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2018163856A1
WO2018163856A1 PCT/JP2018/006634 JP2018006634W WO2018163856A1 WO 2018163856 A1 WO2018163856 A1 WO 2018163856A1 JP 2018006634 W JP2018006634 W JP 2018006634W WO 2018163856 A1 WO2018163856 A1 WO 2018163856A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
unit
save space
information processing
space
Prior art date
Application number
PCT/JP2018/006634
Other languages
English (en)
French (fr)
Inventor
辰吾 鶴見
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/490,709 priority Critical patent/US11302196B2/en
Priority to DE112018001277.8T priority patent/DE112018001277T5/de
Priority to CN201880015527.8A priority patent/CN110383363A/zh
Publication of WO2018163856A1 publication Critical patent/WO2018163856A1/ja
Priority to US17/687,523 priority patent/US11688283B2/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • G08G1/096844Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route where the complete route is dynamically recomputed based on new data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Definitions

  • the present technology relates to an information processing device and an information processing method, and more particularly, to an information processing device and an information processing method that can easily pass an oncoming vehicle on a narrow road or the like.
  • This technology has been made in view of such a situation, and makes it possible to easily pass an oncoming vehicle on a narrow road.
  • An information processing apparatus generates map data around a vehicle, updates the map data according to movement of the vehicle, and saves the vehicle based on the map data. Detecting a evacuation space that is a possible space, and generating information on the detected evacuation space, which is information used for setting a evacuation route for evacuating the vehicle to pass the oncoming vehicle A evacuation space detection unit.
  • the escape space detection unit can detect the escape space on a road where it is difficult to pass the oncoming vehicle.
  • the save space detection unit can delete the save space information related to the save space on the road after passing the road.
  • An action plan unit for setting the evacuation route can be further provided based on the save space information.
  • the action plan unit can further set the evacuation route based on the map data.
  • a communication unit that communicates with the oncoming vehicle may be further provided, and the action planning unit may determine which of the vehicle and the oncoming vehicle is withdrawn from the oncoming vehicle.
  • the action plan unit can determine whether to evacuate according to the input instruction.
  • the map generation unit and the save space detection unit can update or delete the map data or the save space information at independent timings.
  • the map data can include a map within a predetermined range based on the vehicle.
  • the map data can be an occupied grid map.
  • An information processing method includes a map generation step of generating map data around a vehicle and updating the map data according to movement of the vehicle, and the vehicle is saved based on the map data. Detecting a evacuation space that is a possible space, and generating information on the detected evacuation space, which is information used for setting a evacuation route for evacuating the vehicle to pass the oncoming vehicle A waiting space detection step.
  • map data around a vehicle is generated, the map data is updated according to movement of the vehicle, and a save space that is a space in which the vehicle can be saved based on the map data Is detected and information on the detected escape space is generated, which is information used for setting a retreat route for retreating the vehicle in order to pass the oncoming vehicle.
  • FIG. 1 shows a configuration example of a vehicle control system 10 to which the present technology is applied.
  • the vehicle control system 10 is provided in a vehicle and controls automatic driving of the vehicle.
  • operation by control of the vehicle control system 10 may automate only a part of driving operation of a vehicle.
  • a vehicle provided with the vehicle control system 10 is distinguished from other vehicles, it is referred to as a host vehicle.
  • the vehicle control system 10 includes a GNSS (Global Navigation Satellite System) receiver 11, a camera 12, a lidar (LiDAR) 13, a radar 14, an odometer 15, a speed sensor 16, an IMU (Inertial Measurement Unit) 17, a microphone 18, and a signal processing unit. 19, position recognition processing unit 20, structural motion recognition processing unit 21, object recognition processing unit 22, situation recognition processing unit 23, map storage unit 24, save space storage unit 25, route planning unit 26, action planning unit 27, communication unit 28, a display unit 29, an audio output unit 30, an operation plan unit 31, an operation control unit 32, an acceleration control unit 33, a deceleration control unit 34, a direction control unit 35, a gear control unit 36, an indicator 37, and a horn 38.
  • GNSS Global Navigation Satellite System
  • Camera 12 includes a lidar (LiDAR) 13, a radar 14, an odometer 15, a speed sensor 16, an IMU (Inertial Measurement Unit) 17, a microphone 18, and a signal processing unit. 19, position recognition processing unit 20, structural motion recognition processing unit 21, object recognition processing
  • the GNSS receiver 11 receives a GNSS signal from a GNSS satellite and supplies the received GNSS signal to the signal processing unit 19.
  • the camera 12 shoots the traveling direction of the host vehicle and the surroundings of the host vehicle other than the traveling direction, and the driver driving the host vehicle.
  • the camera 12 supplies an image signal obtained as a result of shooting to the signal processing unit 19.
  • the odometer 15 measures the rotation speed of the axle of the host vehicle and supplies a signal indicating the measurement result to the signal processing unit 19.
  • the IMU 17 measures the angular velocity and acceleration in the three-axis direction of the own vehicle, and supplies a signal indicating the measurement result to the signal processing unit 19.
  • the microphone 18 detects a voice such as a voice of a passenger in the host vehicle, and supplies a voice signal indicating the detected voice to the signal processing unit 19.
  • the position recognition processing unit 20 performs a process for recognizing the position of the host vehicle based on the signal supplied from the signal processing unit 19 and the like.
  • the position recognition processing unit 20 includes a position detection unit 101 and a self-position estimation unit 102.
  • the self-position estimation unit 102 estimates the motion and posture of the own vehicle based on signals from the camera 12, the lidar 13, the radar 14, the odometer 15, the speed sensor 16, and the IMU 17.
  • the self-position estimation unit 102 corrects the detection result of the position detection unit 101 based on the estimation result of the movement and posture of the own vehicle.
  • the self-position estimation unit 102 supplies the current position, motion, and posture estimation results of the own vehicle to the situation recognition processing unit 23.
  • the structural motion recognition processing unit 21 performs recognition processing of the structure and motion around the vehicle based on the signal supplied from the signal processing unit 19 and the like.
  • the structural motion recognition processing unit 21 includes a distance detection unit 111, a moving object identification unit 112, and an object clustering unit 113.
  • the distance detection unit 111 performs depth sensing based on signals from the camera 12, the lidar 13, and the radar 14. That is, the distance detection unit 111 detects a distance to an object around the own vehicle. The distance detection unit 111 supplies the detection result to the situation recognition processing unit 23.
  • the moving object identification unit 112 Based on the detection result of the distance detection unit 111, the moving object identification unit 112 identifies a region where the moving object is present and a region where the moving object is not present around the host vehicle. The moving object identification unit 112 supplies the identification result to the situation recognition processing unit 23.
  • the object clustering unit 113 performs clustering of a region where an object exists around the own vehicle based on the detection results of the distance detection unit 111 and the moving object detection unit 112. That is, the object clustering unit 113 individually detects a region where an object exists around the own vehicle for each object. The object clustering unit 113 supplies the clustering result to the situation recognition processing unit 23.
  • the object recognition processing unit 22 performs recognition processing of objects around the own vehicle. Note that objects around the vehicle include roads, road markings, characters, symbols, and the like.
  • the object recognition processing unit 22 includes an object detection unit 121, an object recognition unit 122, and an object tracking unit 123.
  • the object detection unit 121 detects an object around the host vehicle based on signals from the camera 12, the lidar 13, and the radar 14.
  • the object tracking unit 123 tracks the object recognized by the object recognition unit 122 based on signals from the camera 12, the lidar 13, and the radar 14 and the like.
  • the object tracking unit 123 supplies the object recognition result and the tracking result to the situation recognition processing unit 23.
  • the details of the area where each object exists are not detected by the object recognition processing unit 22 but are detected by the structural motion recognition processing unit 21 as described above.
  • the situation recognition processing unit 23 performs recognition processing of the host vehicle and the surrounding situation.
  • the situation recognition processing unit 23 includes a map generation unit 131, a traffic situation recognition unit 132, an object position / speed estimation unit 133, a motion prediction unit 134, and a save space detection unit 135.
  • the map generation unit 131 generates an OGM based on the recognition processing results of the position recognition processing unit 20, the structural motion recognition processing unit 21, and the object recognition processing unit 22, and stores the generated OGM in the map storage unit 24. Control.
  • an area within a predetermined range based on the own vehicle (for example, a range of 100 m ⁇ 100 m centered on the own vehicle) is divided into a grid shape, and a stationary object exists for each square.
  • a value indicating whether or not to set is set. For example, 1 is set for a square where a stationary object exists, and 0 is set for a square where no stationary object exists.
  • a value within a range from 0 to 1 is set for a cell in which it is not certain whether or not a stationary object exists, according to the probability that a stationary object exists.
  • the map generation unit 131 updates the OGM as appropriate according to the movement of the host vehicle, stores the updated OGM in the map storage unit 24, and deletes the old OGM from the map storage unit 24.
  • the traffic situation recognition unit 132 is based on the recognition processing results of the position recognition processing unit 20, the structural motion recognition processing unit 21, and the object recognition processing unit 22, and a global map stored in advance in the map storage unit 24. , Recognize the traffic conditions around your vehicle.
  • the traffic situation recognition unit 132 supplies the recognition result to the action planning unit 27 and the motion planning unit 31.
  • the global map is, for example, a wide-area map with a degree of accuracy used in a car navigation system, and is mainly used for setting a route until the host vehicle reaches a destination.
  • the global map for example, information on roads, facilities around the roads, signals, traffic signs, addresses, and the like are registered.
  • the traffic situation is represented by, for example, the configuration and state of the road around the host vehicle, traffic rules indicated by signs and road surface display, traffic light status, and the like.
  • the object position / speed estimation unit 133 estimates the position and speed of objects around the host vehicle based on the recognition processing results of the structural motion recognition processing unit 21 and the object recognition processing unit 22, and the estimation result is used as the action planning unit 27. And the operation plan unit 31 is supplied.
  • the motion predicting unit 134 predicts the motion of an object around the vehicle based on the recognition processing results of the structural motion recognition processing unit 21 and the object recognition processing unit 22, and uses the prediction results as the behavior planning unit 27 and the motion planning unit. 31.
  • the evacuation space detection unit 135 detects the evacuation space based on the OGM and the size of the host vehicle.
  • the retreat space is a space where the own vehicle can retreat, for example, because it passes by an oncoming vehicle on a narrow road or the like.
  • the save space detection unit 135 indicates a detection result of the save space, generates save space information for setting a save path for different from the oncoming vehicle, and saves the save space information to the save space storage unit 25. Control memory.
  • the save space detection unit 135 updates or deletes the save space information independently of the timing at which the map generation unit 131 updates or deletes the OGM.
  • the route plan unit 26 is a global route (hereinafter referred to as a travel route) on which the vehicle travels based on a global map stored in the map storage unit 24 and an instruction such as a destination input by a driver or the like. Plan).
  • the route plan unit 26 supplies information indicating the planned travel route to the action plan unit 27.
  • the action plan unit 27 uses the travel route, the global map and OGM stored in the map storage unit 24, and the save space information stored in the save space storage unit 25. Based on this, plan the behavior of your vehicle.
  • the behavior of the own vehicle is determined by, for example, start, stop, traveling direction (for example, forward, backward, left turn, right turn, direction change, etc.), lane to travel, travel speed, and the like.
  • the action planning unit 27 supplies information indicating the planned action of the host vehicle to the action planning unit 31.
  • the behavior planning unit 27 communicates with other vehicles via the communication unit 28 to notify the behavior of the own vehicle, detect the behavior of the other vehicle, and mediate the behavior of the own vehicle and the other vehicle. .
  • the action planning unit 27 notifies the passengers including the driver or the vehicles around the own vehicle via the display unit 29 and the voice output unit 30 of the actions of the own vehicle.
  • the communication unit 28 includes, for example, a communication device that performs inter-vehicle communication by wireless communication, and communicates with vehicles around the host vehicle.
  • the display unit 29 includes one or more display devices such as a display. Further, the display is not limited to the one that displays an image or the like on the screen, but may be one that displays an image or the like within the driver's field of view, such as a head-up display or a transmissive display. Furthermore, the display unit 29 can display images and the like not only for passengers in the vehicle but also around the vehicle.
  • the audio output unit 30 includes one or more devices that output audio such as speakers and buzzers.
  • the action planning unit 31 is based on the OGM stored in the map storage unit 24 and the save space information stored in the save space storage unit 25 as a result of the recognition process of the situation recognition processing unit 23.
  • the operation of the own vehicle for realizing the action planned by 27 is planned.
  • the operation of the own vehicle is, for example, acceleration, deceleration, control of the traveling direction, and the like.
  • the operation planning unit 31 supplies information indicating the planned operation of the host vehicle to the operation control unit 32.
  • Acceleration control unit 33 performs acceleration control of the vehicle. For example, when the host vehicle is driven by an engine, the acceleration control unit 33 performs acceleration control by controlling the throttle. For example, when the host vehicle is driven by a motor, the acceleration control unit 33 performs acceleration control by controlling an inverter that supplies power to the motor.
  • the deceleration control unit 34 performs deceleration control of the host vehicle by controlling the brake.
  • the direction control unit 35 controls the traveling direction of the host vehicle by controlling the steering.
  • the gear control unit 36 controls the gear of the own vehicle.
  • the horn 38 is a car horn provided in the own vehicle.
  • step S1 the vehicle control system 10 starts a traveling process toward the destination.
  • each part of the vehicle control system 10 starts a predetermined process.
  • the route planning unit 26 plans the traveling route of the vehicle based on the global map stored in the map storage unit 24 and the instruction of the destination and the like input by the driver or the like.
  • the route planning unit 26 starts a process of appropriately changing the travel route according to conditions such as weather, traffic jams, and road construction.
  • the route planning unit 26 starts supplying information indicating the planned traveling route to the action planning unit 27.
  • the action plan unit 27 uses the travel route, the global map and OGM stored in the map storage unit 24, and the save space information stored in the save space storage unit 25. Based on this, the process of planning the behavior of the vehicle to go to the destination is started. In addition, the behavior planning unit 27 starts supplying information indicating the planned behavior of the own vehicle to the motion planning unit 31.
  • the operation control unit 32 controls the host vehicle to execute the operation planned by the operation planning unit 31 via the acceleration control unit 33, the deceleration control unit 34, the direction control unit 35, and the gear control unit 36. Start.
  • step S2 the map generation unit 131 starts generating OGM. Specifically, the map generation unit 131 generates an OGM based on the recognition processing results of the position recognition processing unit 20, the structural motion recognition processing unit 21, and the object recognition processing unit 22, and stores the generated OGM in a map storage. Store in the unit 24. Further, the map generation unit 131 updates the OGM as appropriate according to the movement of the host vehicle, stores the updated OGM in the map storage unit 24, and starts a process of deleting the old OGM from the map storage unit 24.
  • step S3 the avoidance space detection unit 135 determines whether or not the vehicle is traveling on a road that is difficult to pass with the oncoming vehicle. For example, the escape space detection unit 135 detects the width of the road on which the host vehicle is traveling based on the OGM.
  • a width excluding an area regarded as a save space described later is detected as a road width.
  • a road width For example, in the case of a road provided with a shelter, it is desirable to detect the width excluding the shelter. Further, for example, when there is an area that cannot be passed on the road due to construction or lane restrictions, the width excluding the area is detected as the road width. In addition, even in a region that is not maintained so that the vehicle can travel, if the vehicle can be regarded as a region where the vehicle can pass, the width of the region is detected as the road width.
  • the retreat space detection unit 135 determines that the road that is difficult to pass with the oncoming vehicle (hereinafter referred to as a “passing difficult road”) is running, and the process is step. Proceed to S4.
  • this threshold value is set to a value obtained by adding a predetermined margin to an addition value of the vehicle width of the own vehicle and the maximum value of the vehicle width of the vehicle assumed to pass, for example.
  • the save space detector 135 searches for a save space.
  • the save space detection unit 135 is a space where the own vehicle can be saved, and when the own vehicle is saved in the space, the width of the area where the oncoming vehicle can pass is equal to or greater than a predetermined threshold.
  • This threshold value is set, for example, to a value obtained by adding a predetermined margin to the minimum value of the vehicle width of a vehicle that is assumed to pass.
  • a space provided for the purpose of vehicle evacuation or parking such as a shelter, an emergency parking zone, and a parking lot, is detected as a evacuation space.
  • a road that branches off from the road on which the host vehicle is traveling is detected as a save space.
  • an empty space adjacent to the road on which the vehicle is traveling is detected as a save space.
  • FIG. 3 shows an example of a save space.
  • the own vehicle 201 is traveling on a road 211 sandwiched between the obstacle 212 and the obstacle 213. Then, a save space 214 adjacent to the left of the road 211 is detected as a save space.
  • step S5 the save space detector 135 determines whether a save space is found. If it is determined that a save space has been found, the process proceeds to step S6.
  • the save space information includes, for example, information on the position of the save space, the width of the vehicle that can pass each other, and the stop direction in the save space.
  • the width of vehicles that can pass each other indicates the maximum vehicle width that can pass when the vehicle evacuates to the save space.
  • the action plan unit 27 notifies the execution of evacuation. Specifically, the action plan unit 27 visually or audibly notifies the driver of the evacuation via the display unit 29 or the audio output unit 30 before the vehicle evacuates. . For example, it is notified that the own vehicle is withdrawn because it passes the oncoming vehicle. Further, the position of the save space, the retreat route, the distance to the save space, the required time to the save space, and the like are displayed together with the map. As a result, the driver can know the movement of the vehicle before evacuation and can feel secure.
  • step S160 the action planning unit 27 determines whether or not retraction is instructed.
  • the driver or another passenger inputs an instruction to evacuate the vehicle in response to the inquiry in the process of step S159.
  • the instruction input method is not particularly limited.
  • the instruction input method is input by a user operation via an operation unit (not shown) (for example, a touch panel, a switch, a button, or the like), a voice command, a gesture, or the like. .
  • an operation unit for example, a touch panel, a switch, a button, or the like
  • a voice command for example, a gesture, or the like.
  • the driver or the like may input an instruction when the vehicle is not evacuated, and if the instruction is not input, it may be automatically determined that the evacuation is instructed.
  • steps S161 to S163 the same processing as that in steps S9 to S11 in FIG. 2 is executed, and then the processing returns to step S153, and the processing after step S153 is executed.
  • FIG. 8 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • an input / output interface 405 is connected to the bus 404.
  • An input unit 406, an output unit 407, a recording unit 408, a communication unit 409, and a drive 410 are connected to the input / output interface 405.
  • the CPU 401 loads, for example, the program recorded in the recording unit 408 to the RAM 403 via the input / output interface 405 and the bus 404 and executes the program. Is performed.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • a map generation unit that generates map data around the vehicle and updates the map data according to movement of the vehicle; Based on the map data, a retreat space that is a retreatable space for the vehicle is detected, and information on the detected retreat space is set for a retreat route for retreating the vehicle to pass the oncoming vehicle.
  • An information processing apparatus comprising: a save space detection unit that generates save space information that is used information.
  • the save space detection unit detects the save space on a road that is difficult to pass with an oncoming vehicle.
  • the save space detection unit erases the save space information related to the save space on the road after passing the road.
  • the information processing apparatus according to any one of (1) to (3), further including an action planning unit that sets the retreat route based on the save space information.
  • the information processing apparatus further sets the evacuation route based on the map data.
  • the save space detection unit stores the save space information related to a plurality of the save spaces,
  • the information processing apparatus according to (4) or (5), wherein the action planning unit selects the save space that can pass by an oncoming vehicle from the plurality of save spaces.
  • the information processing apparatus according to any one of (4) to (6), further including an operation control unit configured to control the vehicle so that the vehicle is retracted to the save space through the retreat path.
  • the information processing apparatus according to any one of (1) to (11), wherein the map data includes a map within a predetermined range based on the vehicle. (13) The information processing apparatus according to (12), wherein the map data is an occupied grid map. (14) A map generation step of generating map data around the vehicle and updating the map data in accordance with movement of the vehicle; Based on the map data, a retreat space that is a retreatable space for the vehicle is detected, and information on the detected retreat space is set for a retreat route for retreating the vehicle to pass the oncoming vehicle.
  • An information processing method comprising: a save space detection step for generating save space information that is used information.

Abstract

本技術は、狭い道等において対向車と容易にすれ違うことができるようにする情報処理装置及び情報処理方法に関する。 情報処理装置は、車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成部と、前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出部とを備える。本技術は、例えば、自動運転の制御を行う車両制御システムに適用できる。

Description

情報処理装置及び情報処理方法
 本技術は、情報処理装置及び情報処理方法に関し、特に、狭い道等において対向車と容易にすれ違えるようにした情報処理装置及び情報処理方法に関する。
 従来、3次元の高精度地図を用いずに、占有格子地図(Occupancy Grid Map, 以下OGMと称する)をリアルタイムに更新し、更新したOGMを用いて自動運転を行う技術が提案されている(例えば、特許文献1参照)。
 また、従来、情報処理センターが、各車両からOGMを受信して合成することにより、広範なエリアをカバーする合成占有格子地図を生成し、各車両に提供することが提案されている(例えば、特許文献2参照)。
特開2006-205348号公報 特開2014-137743号公報
 しかしながら、特許文献1及び特許文献2に記載の発明では、狭い道等で対向車とすれ違えるようにする方法については検討されていない。
 本技術は、このような状況に鑑みてなされたものであり、狭い道等において対向車と容易にすれ違うことができるようにするものである。
 本技術の一側面の情報処理装置は、車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成部と、前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出部とを備える。
 前記待避スペース検出部には、対向車とのすれ違いが困難な道において前記待避スペースを検出させることができる。
 前記待避スペース検出部には、前記道を通過した後、前記道における前記待避スペースに関する前記待避スペース情報を消去させることができる。
 前記待避スペース情報に基づいて、前記退避経路を設定する行動計画部をさらに設けることができる。
 前記行動計画部には、さらに前記地図データに基づいて、前記退避経路を設定させることができる。
 前記待避スペース検出部には、複数の前記待避スペースに関する前記待避スペース情報を記憶させ、前記行動計画部には、複数の前記待避スペースの中から対向車とすれ違うことが可能な前記待避スペースを選択させることができる。
 前記退避経路を通って前記待避スペースに前記車両を退避させるように前記車両を制御する動作制御部をさらに設けることができる。
 前記行動計画部には、前記車両が退避することを事前に通知するように制御させることができる。
 対向車と通信を行う通信部をさらに設け、前記行動計画部には、前記対向車との間で前記車両及び前記対向車のどちらが退避するかを決定させることができる。
 前記行動計画部には、入力された指示に従って、退避するか否かを決定させることができる。
 前記マップ生成部と前記待避スペース検出部には、それぞれ独立したタイミングで前記地図データ又は前記待避スペース情報の更新又は消去を行わせることができる。
 前記地図データには、前記車両を基準とする所定の範囲内の地図を含ませることができる。
 前記地図データを、占有格子地図とすることができる。
 本技術の一側面の情報処理方法は、車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成ステップと、前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出ステップとを含む。
 本技術の一側面においては、車両の周囲の地図データが生成され、前記車両の移動に合わせて前記地図データが更新され、前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースが検出され、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報が生成される。
 本技術の一側面によれば、狭い道等において対向車と容易にすれ違うことが可能になる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
本技術を適用した車両制御システムの一実施の形態を示すブロック図である。 すれ違い制御処理の第1の実施の形態を説明するためのフローチャートである。 待避スペースの例を示す図である。 退避方法の例を示す図である。 すれ違い制御処理の第2の実施の形態を説明するためのフローチャートである。 すれ違い制御処理の第3の実施の形態を説明するためのフローチャートである。 すれ違い制御処理の第4の実施の形態を説明するためのフローチャートである。 コンピュータの構成例を示す図である。
 以下、発明を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。なお、説明は以下の順序で行う。
 1.実施形態
 2.変形例
 3.その他
 <<1.実施形態>>
 <車両制御システムの構成例>
 図1は、本技術を適用した車両制御システム10の構成例を示している。
 車両制御システム10は、車両に設けられ、車両の自動運転の制御を行う。なお、車両制御システム10の制御による自動運転は、車両の運転操作の一部のみを自動化したものであってもよい。
 なお、以下、車両制御システム10が設けられた車両を他の車両と区別する場合、自車と称する。
 車両制御システム10は、GNSS(Global Navigation Satellite System)受信機11、カメラ12、ライダ(LiDAR)13、レーダ14、オドメータ15、速度センサ16、IMU(Inertial Measurement Unit)17、マイクロフォン18、信号処理部19、位置認識処理部20、構造動き認識処理部21、物体認識処理部22、状況認識処理部23、マップ記憶部24、待避スペース記憶部25、ルート計画部26、行動計画部27、通信部28、表示部29、音声出力部30、動作計画部31、動作制御部32、加速制御部33、減速制御部34、方向制御部35、ギア制御部36、インジケータ37、及び、ホーン38を備える。
 GNSS受信機11は、GNSS衛星からのGNSS信号を受信し、受信したGNSS信号を信号処理部19に供給する。
 カメラ12は、自車の進行方向や進行方向以外の自車の周囲の撮影や、自車を運転する運転者の撮影等を行う。カメラ12は、撮影の結果得られた画像信号を信号処理部19に供給する。
 ライダ13は、レーザ光を出射し、その反射光を受信することにより、自車の周囲の物体等の検出、及び、物体等までの距離を検出する。ライダ13は、検出結果を示す信号を信号処理部19に供給する。
 レーダ14は、電波を出射し、その反射波を受信することにより、自車の周囲の物体等の検出、及び、物体等までの距離を検出する。レーダ14は、検出結果を示す信号を信号処理部19に供給する。
 オドメータ15は、自車の車軸の回転数を測定し、測定結果を示す信号を信号処理部19に供給する。
 速度センサ16は、自車の速度を測定し、測定結果を示す信号を信号処理部19に供給する。
 IMU17は、自車の3軸方向の角速度及び加速度等を測定し、測定結果を示す信号を信号処理部19に供給する。
 マイクロフォン18は、例えば、自車内の搭乗者の声等の音声を検出し、検出した音声を示す音声信号を信号処理部19に供給する。
 信号処理部19は、GNSS受信機11、カメラ12、ライダ13、レーダ14、オドメータ15、速度センサ16、IMU17、及び、マイクロフォン18からの各信号に対して、それぞれ必要な信号処理を行う。そして、信号処理部19は、信号処理後の各信号を位置認識処理部20、構造動き認識処理部21、及び、物体認識処理部22に供給する。
 位置認識処理部20は、信号処理部19から供給される信号等に基づいて、自車の位置の認識処理を行う。位置認識処理部20は、位置検出部101及び自己位置推定部102を備える。
 位置検出部101は、GNSS信号に基づいて、自車の現在位置を検出する。
 自己位置推定部102は、カメラ12、ライダ13、レーダ14、オドメータ15、速度センサ16、及び、IMU17からの信号等に基づいて、自車の運動及び姿勢の推定を行う。また、自己位置推定部102は、自車の運動及び姿勢の推定結果に基づいて、位置検出部101の検出結果の補正を行う。自己位置推定部102は、自車の現在位置、運動及び姿勢の推定結果を状況認識処理部23に供給する。
 構造動き認識処理部21は、信号処理部19から供給される信号等に基づいて、自車の周囲の構造及び動きの認識処理を行う。構造動き認識処理部21は、距離検出部111、動物体識別部112、及び、物体クラスタリング部113を備える。
 距離検出部111は、カメラ12、ライダ13及びレーダ14からの信号等に基づいて、デプスセンシングを行う。すなわち、距離検出部111は、自車の周囲の物体までの距離の検出を行う。距離検出部111は、検出結果を状況認識処理部23に供給する。
 動物体識別部112は、距離検出部111の検出結果に基づいて、自車の周囲において、動物体が存在する領域と存在しない領域との識別を行う。動物体識別部112は、識別結果を状況認識処理部23に供給する。
 物体クラスタリング部113は、距離検出部111及び動物体検出部112の検出結果に基づいて、自車の周囲において、物体が存在する領域のクラスタリングを行う。すなわち、物体クラスタリング部113は、自車の周囲において、物体が存在する領域を物体毎に個別に検出する。物体クラスタリング部113は、クラスタリングの結果を状況認識処理部23に供給する。
 物体認識処理部22は、自車の周囲の物体の認識処理を行う。なお、自車の周囲の物体には、道路、並びに、路面の区画線、文字、記号等を含む。物体認識処理部22は、物体検出部121、物体認識部122及び物体追跡部123を備える。
 物体検出部121は、カメラ12、ライダ13及びレーダ14からの信号等に基づいて、自車の周囲の物体の検出を行う。
 物体認識部122は、カメラ12、ライダ13及びレーダ14からの信号等に基づいて、物体検出部121により検出された物体の種類の認識を行う。
 物体追跡部123は、カメラ12、ライダ13及びレーダ14からの信号等に基づいて、物体認識部122により認識された物体の追跡を行う。物体追跡部123は、物体の認識結果及び追跡結果を状況認識処理部23に供給する。
 なお、各物体が存在する領域の詳細は、物体認識処理部22では検出されずに、上述したように、構造動き認識処理部21で検出される。
 状況認識処理部23は、自車及び周囲の状況の認識処理を行う。状況認識処理部23は、マップ生成部131、交通状況認識部132、物体位置速度推定部133、動き予測部134、及び、待避スペース検出部135を備える。
 マップ生成部131は、位置認識処理部20、構造動き認識処理部21、及び、物体認識処理部22の認識処理の結果に基づいて、OGM生成し、生成したOGMのマップ記憶部24への記憶の制御を行う。
 ここで、OGMは、例えば、自車を基準とする所定の範囲内(例えば、自車を中心とする100m×100mの範囲内)の領域がグリッド状に分割され、マス毎に静止物体が存在するか否かを示す値が設定されたものである。例えば、静止物体が存在するマスには1が設定され、静止物体が存在しないマスには0が設定される。また、静止物体が存在するか否かが定かでないマスには、静止物体が存在する確率に応じた0から1までの範囲内の値が設定される。
 また、マップ生成部131は、自車の移動に合わせてOGMを適宜更新し、更新したOGMをマップ記憶部24に記憶させ、古いOGMをマップ記憶部24から消去する。
 交通状況認識部132は、位置認識処理部20、構造動き認識処理部21、及び、物体認識処理部22の認識処理の結果、並びに、マップ記憶部24に予め記憶されているグローバルマップに基づいて、自車の周囲の交通状況を認識する。交通状況認識部132は、認識結果を行動計画部27及び動作計画部31に供給する。
 ここで、グローバルマップとは、例えば、カーナビゲーションシステムで用いられる程度の精度の広域の地図であり、主に自車が目的地に到達するまでの経路の設定に用いられる。グローバルマップには、例えば、道路、道路の周辺の施設、信号や交通標識、住所等に関する情報が登録されている。
 また、交通状況は、例えば、自車の周囲の道路の構成や状態、標識や路面の表示等により示される交通ルール、信号機の状態等により表される。
 物体位置速度推定部133は、構造動き認識処理部21及び物体認識処理部22の認識処理の結果に基づいて、自車の周囲の物体の位置及び速度を推定し、推定結果を行動計画部27及び動作計画部31に供給する。
 動き予測部134は、構造動き認識処理部21及び物体認識処理部22の認識処理の結果に基づいて、自車の周囲の物体の動きを予測し、予測結果を行動計画部27及び動作計画部31に供給する。
 待避スペース検出部135は、OGM及び自車のサイズに基づいて、待避スペースの検出を行う。ここで、待避スペースとは、例えば、狭い道等において対向車とすれ違うために、自車が待避可能なスペースのことである。また、待避スペース検出部135は、待避スペースの検出結果を示し、対向車と素レイ違うための退避経路を設定するための待避スペース情報を生成し、待避スペース情報の待避スペース記憶部25への記憶を制御する。なお、待避スペース検出部135は、マップ生成部131がOGMを更新又は消去するタイミングとは独立して、待避スペース情報の更新又は消去を行う。
 ルート計画部26は、マップ記憶部24に記憶されているグローバルマップ、及び、運転者等により入力される目的地等の指示に基づいて、自車が走行する大域的なルート(以下、走行ルートと称する)を計画する。ルート計画部26は、計画した走行ルートを示す情報を行動計画部27に供給する。
 行動計画部27は、状況認識処理部23の認識処理の結果、走行ルート、マップ記憶部24に記憶されているグローバルマップ及びOGM、並びに、待避スペース記憶部25に記憶されている待避スペース情報に基づいて、自車の行動を計画する。ここで、自車の行動は、例えば、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行する車線、走行速度等により定められる。行動計画部27は、計画した自車の行動を示す情報を動作計画部31に供給する。
 また、行動計画部27は、通信部28を介して、他車と通信を行い、自車の行動の通知、他車の行動の検出、及び、自車と他車の行動の調停等を行う。
 さらに、行動計画部27は、表示部29及び音声出力部30を介して、運転者を含む搭乗者、又は、自車の周囲の車両に対して、自車の行動の通知を行う。
 通信部28は、例えば、無線通信により車車間通信を行う通信装置からなり、自車の周囲の車両と通信を行う。
 表示部29は、例えば、ディスプレイ等の表示装置を1つ以上備える。また、ディスプレイは、画面に映像等を表示するものだけでなく、ヘッドアップディスプレイや透過型ディスプレイ等の運転者の視野内に映像等を表示するものであってもよい。さらに、表示部29には、車内の搭乗者だけでなく、自車の周囲に向けて映像等を表示させることも可能である。
 音声出力部30は、例えば、スピーカ、ブザー等の音声を出力する装置を1つ以上備える。
 動作計画部31は、状況認識処理部23の認識処理の結果、マップ記憶部24に記憶されているOGM、並びに、待避スペース記憶部25に記憶されている待避スペース情報に基づいて、行動計画部27により計画された行動を実現するための自車の動作を計画する。ここで、自車の動作とは、例えば、加速、減速、進行方向の制御等である。動作計画部31は、計画した自車の動作を示す情報を動作制御部32に供給する。
 動作制御部32は、加速制御部33、減速制御部34、方向制御部35、及び、ギア制御部36を介して、動作計画部31により計画された動作を実行するために自車の制御を行う。なお、制御方法には、任意の方法を採用することが可能であるが、例えば、PID(Proportional-Integral-Differential)制御が用いられる。また、動作制御部32は、必要に応じて、自車の動作や状態をインジケータ37により表示したり、ホーン38を鳴らしたりする。
 加速制御部33は、自車の加速制御を行う。例えば、自車がエンジンにより駆動される場合、加速制御部33は、スロットルを制御することにより、加速制御を行う。また、例えば、自車がモータにより駆動される場合、加速制御部33は、モータに電力を供給するインバータを制御することにより、加速制御を行う。
 減速制御部34は、ブレーキを制御することにより、自車の減速制御を行う。
 方向制御部35は、ステアリングを制御することにより、自車の進行方向を制御する。
 ギア制御部36は、自車のギアを制御する。
 インジケータ37は、例えば、自車に設けられているインストルメントパネル、ランプ等からなる。
 ホーン38は、自車に設けられているカーホーンからなる。
 <すれ違い制御処理の第1の実施形態>
 次に、図2のフローチャートを参照して、車両制御システム10により実行されるすれ違い制御処理の第1の実施の形態について説明する。なお、この処理は、例えば、車両のパワー(イグニッション)スイッチがオンされたとき開始される。また、この処理は、例えば、車両のパワー(イグニッション)スイッチがオフされたとき終了する。
 ステップS1において、車両制御システム10は、目的地へ向けた走行処理を開始する。
 具体的には、車両制御システム10の各部が、それぞれ所定の処理を開始する。
 そして、ルート計画部26は、マップ記憶部24に記憶されているグローバルマップ、及び、運転者等により入力される目的地等の指示に基づいて、自車の走行ルートを計画する。また、ルート計画部26は、天候、渋滞、道路工事等の状況に応じて、走行ルートを適宜変更する処理を開始する。さらに、ルート計画部26は、計画した走行ルートを示す情報の行動計画部27への供給を開始する。
 行動計画部27は、状況認識処理部23の認識処理の結果、走行ルート、マップ記憶部24に記憶されているグローバルマップ及びOGM、並びに、待避スペース記憶部25に記憶されている待避スペース情報に基づいて、目的地に向かうための自車の行動を計画する処理を開始する。また、行動計画部27は、計画した自車の行動を示す情報の動作計画部31への供給を開始する。
 動作計画部31は、状況認識処理部23の認識処理の結果、マップ記憶部24に記憶されているOGM、並びに、待避スペース記憶部25に記憶されている待避スペース情報に基づいて、行動計画部27により計画された行動を実現するための自車の動作を計画する処理を開始する。また、動作計画部31は、計画した自車の動作を示す情報を動作制御部32に供給する処理を開始する。
 動作制御部32は、加速制御部33、減速制御部34、方向制御部35、及び、ギア制御部36を介して、動作計画部31により計画された動作を実行するために自車の制御を開始する。
 これにより、自車が目的地へ向けて移動を開始する。
 ステップS2において、マップ生成部131は、OGMの生成を開始する。具体的には、マップ生成部131は、位置認識処理部20、構造動き認識処理部21、及び、物体認識処理部22の認識処理の結果に基づいて、OGM生成し、生成したOGMをマップ記憶部24に記憶させる。また、マップ生成部131は、自車の移動に合わせてOGMを適宜更新し、更新したOGMをマップ記憶部24に記憶させ、古いOGMをマップ記憶部24から消去する処理を開始する。
 ステップS3において、待避スペース検出部135は、対向車とのすれ違いが困難な道を走行中であるか否かを判定する。例えば、待避スペース検出部135は、OGMに基づいて、自車が走行中の道の幅を検出する。
 なお、このとき、例えば、後述する待避スペースと見なされる領域を除いた幅が道幅として検出されることが望ましい。例えば、待避所が設けられている道の場合、待避所を除いた幅が検出されることが望ましい。また、例えば、工事中や車線規制等により、道路内に通行できない領域がある場合、その領域を除いた幅が道幅として検出される。また、車両が走行できるように整備されていない領域であっても、車両が通行可能な領域と見なせる場合、その領域の幅が道幅として検出される。
 そして、待避スペース検出部135は、検出した道幅が所定の閾値未満である場合、対向車とのすれ違いが困難な道(以下、すれ違い難道と称する)を走行中であると判定し、処理はステップS4に進む。
 なお、この閾値は、例えば、自車の車幅と、すれ違いが想定される車両の車幅の最大値との加算値に、所定のマージンを加えた値に設定される。
 ステップS4において、待避スペース検出部135は、待避スペースを探索する。例えば、待避スペース検出部135は、自車を待避させることが可能なスペースであって、そのスペースに自車を待避させた場合、対向車が通行可能な領域の幅が所定の閾値以上となるスペースを探索する。この閾値は、例えば、すれ違いが想定される車両の車幅の最小値に、所定のマージンを加えた値に設定される。
 これにより、例えば、待避所、緊急駐車帯、駐車場のように、車両の待避又は駐車を目的として設けられているスペースが、待避スペースとして検出される。また、例えば、自車が走行中の道から枝分かれしている道路が、待避スペースとして検出される。さらに、例えば、自車が走行中の道に隣接する空きスペースが、待避スペースとして検出される。
 図3は、待避スペースの例を示している。この例では、自車201は、障害物212と障害物213に挟まれた道路211を走行中である。そして、道路211の左に隣接する待避スペース214が、待避スペースとして検出される。
 なお、対向車とすれ違えることが可能であればよいので、待避スペースの道路の端からの幅は、必ずしも自車の幅以上である必要はない。例えば、図3の待避スペース214の道路221の左端からの幅W1は、必ずしも自車201の幅以上である必要はない。
 また、待避スペース214における自車の停車方向は、特に限定されない。例えば、走行中の道路に対してほぼ平行に停車するスペースだけでなく、走行中の道路に対してほぼ垂直に停車するスペースも、待避スペースとして検出され得る。
 さらに、待避スペースは、自車が通行する側だけでなく、その反対側においても検出され得る。例えば、左側通行の国の場合、道路の左側だけでなく、右側にも待避スペースが検出され得る。
 なお、すれ違い難道の区間内に待避スペースが存在しない場合、対向車とすれ違うために、自車がすれ違い難道の入口から外に出るまで後退する場合が想定される。従って、すれ違い難道の入口の手前の幅員の広い道路が待避スペースとして検出されることが望ましい。
 ステップS5において、待避スペース検出部135は、待避スペースが見つかったか否かを判定する。待避スペースが見つかったと判定された場合、処理はステップS6に進む。
 ステップS6において、待避スペース検出部135は、待避スペースを登録する。具体的には、待避スペース検出部135は、検出した待避スペースに関する待避スペース情報を生成し、待避スペース記憶部25に記憶させる。
 ここで、待避スペース情報は、例えば、待避スペースの位置、すれ違うことが可能な車両の幅、及び、待避スペースにおける停車方向に関する情報を含む。
 待避スペースの位置は、緯度及び経度のように絶対位置により表されてもよいし、自車からの相対位置により表されてもよい。なお、待避スペースの位置が自車からの相対位置により表される場合、自車の移動に合わせて、待避スペースの位置が随時更新される。
 すれ違うことが可能な車両の幅は、待避スペースに自車が退避した場合にすれ違うことが可能な車両の車幅の最大値を示す。
 待避スペースにおける停車方向は、待避スペースに自車を停車させる場合、道路に対して推奨される停車方向を示す。
 なお、待避スペースの登録数に制限を設けてもよいし、設けなくてもよい。前者の場合、例えば、現在の自車の位置に近い方から所定の数の待避スペースに関する待避スペース情報のみが待避スペース記憶部25に記憶され、それより遠い待避スペースに関する待避スペース情報が待避スペース記憶部25から消去される。後者の場合、例えば、走行中のすれ違い難道における待避スペースに関する待避スペース情報が全て待避スペース記憶部25に記憶される。
 なお、対向車の車幅が広い等により待避スペースの幅が十分でなかったり、待避スペースが他の車両等により埋まっていたりする場合を想定して、少なくとも2つ以上の待避スペースが登録されるようにすることが望ましい。
 このようにして、自車がすれ違い難道を通っている場合に、自車が通過した経路において待避スペースが検出され、その情報が記憶される。
 その後、処理はステップS7に進む。
 一方、ステップS5において、待避スペースが見つからなかったと判定された場合、ステップS6の処理はスキップされ、処理はステップS7に進む。
 ステップS7において、行動計画部27は、物体位置速度推定部133の推定結果、及び、動き予測部134の予測結果に基づいて、対向車が来たか否かを判定する。対向車が来たと判定された場合、処理はステップS8に進む。
 ステップS8において、行動計画部27は、対向車とすれ違えるか否かを判定する。行動計画部27は、OGMに基づいて、現在の位置において自車が通行可能な幅(以下、通行可能幅と称する)を検出する。また、行動計画部27は、物体位置速度推定部133の推定結果に基づいて、対向車の幅を検出する。そして、行動計画部27は、通行可能幅から自車の幅と対向車の幅の合計値を引いた値が所定の閾値未満である場合、対向車とすれ違えないと判定し、処理はステップS9に進む。
 ステップS9において、車両制御システム10は、待避スペースまで移動する。例えば、まず、行動計画部27は、OGM内において対向車とすれ違うことが可能な待避スペースを検索する。行動計画部27は、検出された待避スペースのうち自車から最も近い待避スペースを退避先に設定する。
 一方、行動計画部27は、OGM内において対向車とすれ違うことが可能な待避スペースが見つからなかった場合、対向車の幅に基づいて、待避スペース記憶部25に登録されている待避スペースのうち、対向車とすれ違うことが可能な待避スペースを検索する。そして、行動計画部27は、検出された待避スペースのうち自車から最も近い待避スペースを退避先に設定する。
 なお、行動計画部27は、OGMを用いずに、最初から待避スペース情報を用いて、退避先を検索するようにしてもよい。
 行動計画部27は、設定した退避先までの退避経路を設定し、設定した退避経路に従って退避先に移動するまでの行動を計画する。行動計画部27は、計画した行動を示す情報を動作計画部31に供給する。
 動作計画部31は、状況認識処理部23の認識処理の結果、マップ記憶部24に記憶されているOGM、並びに、待避スペース記憶部25に記憶されている待避スペース情報に基づいて、退避先に移動するまでの自車の動作を計画する。動作計画部31は、計画した自車の動作を示す情報を動作制御部32に供給する。
 動作制御部32は、加速制御部33、減速制御部34、方向制御部35、及び、ギア制御部36を介して、自車を退避先まで移動させるように制御する。
 これにより、例えば、図4に示されるように、道路211において自車201と対向車202がすれ違えなくなった場合、自車201が自動的に待避スペース214まで退避する。その結果、対向車202が、自車201とすれ違い、通過することが可能になる。
 なお、例えば、先に他の車両が駐車されている等により退避先に停車できない場合、対向車とすれ違うことが可能な待避スペースのうち次に近い待避スペースが退避先に設定され、その退避先まで自車が移動される。
 ステップS10において、行動計画部27は、物体位置速度推定部133の推定結果に基づいて、対向車が通過したか否かを判定する。この処理は、対向車が通過したと判定されるまで繰り返し実行され、対向車が通過したと判定された場合、処理はステップS11に進む。
 ステップS11において、車両制御システム10は、ステップS1と同様の処理を再開することにより、目的地へ向けた走行処理を再開する。
 その後、処理はステップS3に戻り、ステップS3以降の処理が実行される。
 一方、ステップS8において、行動計画部27は、通行可能幅から自車の幅と対向車の幅の合計値を引いた値が所定の閾値以上である場合、対向車とすれ違えると判定し、処理はステップS3に戻る。その後、ステップS3以降の処理が実行される。
 また、ステップS7において、対向車が来ていないと判定された場合、処理はステップS3に戻り、ステップS3以降の処理が実行される。
 さらに、ステップS3において、待避スペース検出部135は、検出した道幅が所定の閾値以上である場合、対向車とのすれ違いが困難な道を走行中でないと判定し、処理はステップS12に進む。
 ステップS12において、待避スペース検出部135は、対向車とのすれ違いが困難な道(すれ違い難道)を通過したか否かを判定する。待避スペース検出部135は、前回のステップS3の処理で、すれ違い難道を走行中であると判定され、今回のステップS3の処理で、すれ違い難道を走行中でないと判定された場合、すれ違い難道を通過したと判定し、処理はステップS13に進む。
 ステップS13において、待避スペース検出部135は、待避スペースの登録をリセットする。例えば、待避スペース検出部135は、待避スペース記憶部25に記憶されている待避スペース情報を全て消去する。ここで、待避スペース情報の消去は、物理的なデータの消去だけでなく、例えば、データを無効化する場合も含む。これにより、通過したすれ違い難道における待避スペースに関する情報がリセットされる。
 その後、処理はステップS3に戻り、ステップS3以降の処理が実行される。
 一方、ステップS12において、対向車とのすれ違いが困難な道を通過していないと判定された場合、処理はステップS3に戻り、ステップS3以降の処理が実行される。
 これにより、例えば、外部から提供される高精度な地図(以下、高精度マップと称する)を用いずに、自動運転により対向車とすれ違うことが可能になる。従って、例えば、高精度マップが作成されていない場所を走行中の場合、高精度マップが長期間更新されていない場所を走行中の場合、又は、通信障害等により高精度マップを取得できない場合等においても、自動運転により対向車とすれ違うことが可能になる。
 また、対向車とすれ違うために、OGMの領域を広げたり、OGMの保持期間を長くしたりする必要がなくなり、例えば、OGMの生成処理の負荷を軽減したり、処理時間を短縮したり、使用するメモリ量を削減したりすることができる。
 <すれ違い制御処理の第2の実施形態>
 次に、図5のフローチャートを参照して、車両制御システム10により実行されるすれ違い制御処理の第2の実施形態について説明する。
 図5のフローチャートを図2のフローチャートと比較すると、ステップS59の処理が追加されている点が異なり、その他は同様である。
 具体的には、ステップS59において、行動計画部27は、退避の実施を通知する。具体的には、行動計画部27は、表示部29及び音声出力部30のうち少なくとも一方を介して、自車が退避する前に、視覚的又は聴覚的に運転者に退避の実施を通知する。例えば、対向車とすれ違うために自車が退避する旨が通知される。また、待避スペースの位置、退避経路、待避スペースまでの距離、待避スペースまでの所要時間等が地図とともに表示される。これにより、運転者は、退避前に自車の動きを知ることができ、安心感を覚えることができる。
 なお、例えば、対向車に視覚的又は聴覚的に退避の実施を通知するようにしてもよい。例えば、自車のランプをパッシングしたり、外向けのディスプレイや電光掲示板等にメッセージを表示したりして、退避する旨を通知するようにしてもよい。これにより、対向車の運転者が、対向している自車の動きを察知し、安心して自車とすれ違うために前進することができる。
 <すれ違い制御処理の第3の実施形態>
 次に、図6のフローチャートを参照して、車両制御システム10により実行されるすれ違い制御処理の第3の実施形態について説明する。
 図6のフローチャートを図2のフローチャートと比較すると、ステップS109及びステップS110の処理が追加されている点が異なり、その他は同じである。
 具体的には、ステップS109において、行動計画部27は、対向車との間でどちらが退避するかを決定する。例えば、行動計画部27は、通信部28を介して、対向車と無線通信を行い、対向車から得た情報に基づいて、自車と対向車のうちどちらが退避するかを決定する。例えば、待避スペースまでの距離が短い方の車両、燃料の残量が多い方の車両、運転者の過去の交通違反の回数が少ない方の車両、車体が小さい方の車両等が、退避する車両に決定される。
 なお、対向車との通信方法は、無線通信に限定されるものではなく、例えば、光や音を使って通信を行うようにしてもよい。
 ステップS108において、行動計画部27は、自車が退避するか否かを判定する。自車が退避すると判定された場合、処理はステップS109に進む。
 その後、ステップS111乃至ステップS113において、図2のステップS9乃至ステップS11と同様の処理が実行された後、処理はステップS103に戻り、ステップS103以降の処理が実行される。
 一方、ステップS110において、自車が退避しないと判定された場合、処理はステップS103に戻り、ステップS103以降の処理が実行される。
 これにより、例えば、対向車が自車と同様に自動的に対向車とのすれ違いを制御する機能を備えている場合、自車又は対向車のうち退避しやすい方を退避させることが可能になる。その結果、安全性が向上したり、すれ違うまでの所要時間が短縮されたりする。また、両者がともに退避してしまうことが防止される。
 <すれ違い制御処理の第4の実施形態>
 次に、図7のフローチャートを参照して、車両制御システム10により実行されるすれ違い制御処理の第4の実施形態について説明する。
 図7のフローチャートを図2のフローチャートと比較すると、ステップS159及びステップS160の処理が追加されている点が異なり、その他は同じである。
 具体的には、ステップS159において、行動計画部27は、運転者に退避するか否かを問い合わせる。具体的には、行動計画部27は、表示部29及び音声出力部30のうち少なくとも一方を介して、視覚的又は聴覚的に運転者に退避するか否かを問い合わせる。
 ステップS160において、行動計画部27は、退避が指示されたか否かを判定する。例えば、運転者(又は、他の搭乗者)は、ステップS159の処理における問い合わせに対して、自車を退避させる場合、その指示を入力する。なお、指示の入力方法は、特に限定されるものではなく、例えば、図示せぬ操作部(例えば、タッチパネル、スイッチ、ボタン等)を介したユーザ操作、音声コマンド、ジェスチャ等の方法により入力される。そして、退避が指示されたと判定された場合、処理はステップS161に進む。
 なお、例えば、自車を退避させない場合に運転者等が指示を入力するようにし、指示が入力されない場合、自動的に退避が指示されたと判定されるようにしてもよい。
 その後、ステップS161乃至ステップS163において、図2のステップS9乃至ステップS11と同様の処理が実行された後、処理はステップS153に戻り、ステップS153以降の処理が実行される。
 一方、ステップS160において、退避が指示されていないと判定された場合、処理はステップS153に戻り、ステップS153以降の処理が実行される。
 これにより、運転者の判断により退避するか否かを決定することが可能になる。
 <<2.変形例>>
 以下、上述した本開示に係る技術の実施の形態の変形例について説明する。
 例えば、自動運転中だけでなく、マニュアル運転中にも待避スペース情報の生成及び更新が行われてもよい。そして、例えば、対向車とすれ違うことが困難な状況が生じた場合、運転者が待避スペース情報を確認して、適切な待避スペースを見つけて、マニュアル運転により自車を退避させるようにしてもよい。或いは、対向車とすれ違うことが困難な状況が生じた場合、運転者が自動運転モードに切り替えて、自車が自動運転により対向車とすれ違うようにしてもよい。
 また、例えば、すれ違い難道を通過後もその道に対する待避スペース情報を保持しておき、次にその道を通る機会に使用するようにしてもよい。
 さらに、例えば、検出した待避スペースが崖に接している等の危険な場所に存在する場合、その待避スペースを登録しないようにしてもよい。
 <<3.その他>>
 <コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
 図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 コンピュータにおいて、CPU(Central Processing Unit)401,ROM(Read Only Memory)402,RAM(Random Access Memory)403は、バス404により相互に接続されている。
 バス404には、さらに、入出力インターフェース405が接続されている。入出力インターフェース405には、入力部406、出力部407、記録部408、通信部409、及びドライブ410が接続されている。
 入力部406は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部407は、ディスプレイ、スピーカなどよりなる。記録部408は、ハードディスクや不揮発性のメモリなどよりなる。通信部409は、ネットワークインターフェースなどよりなる。ドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体411を駆動する。
 以上のように構成されるコンピュータでは、CPU401が、例えば、記録部408に記録されているプログラムを、入出力インターフェース405及びバス404を介して、RAM403にロードして実行することにより、上述した一連の処理が行われる。
 コンピュータ(CPU401)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体411に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
 コンピュータでは、プログラムは、リムーバブル記録媒体411をドライブ410に装着することにより、入出力インターフェース405を介して、記録部408にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部409で受信し、記録部408にインストールすることができる。その他、プログラムは、ROM402や記録部408に、あらかじめインストールしておくことができる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 <構成の組み合わせ例>
 本技術は、以下のような構成をとることもできる。
(1)
 車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成部と、
 前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出部と
 を備える情報処理装置。
(2)
 前記待避スペース検出部は、対向車とのすれ違いが困難な道において前記待避スペースを検出する
 前記(1)に記載の情報処理装置。
(3)
 前記待避スペース検出部は、前記道を通過した後、前記道における前記待避スペースに関する前記待避スペース情報を消去する
 前記(2)に記載の情報処理装置。
(4)
 前記待避スペース情報に基づいて、前記退避経路を設定する行動計画部を
 さらに備える前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
 前記行動計画部は、さらに前記地図データに基づいて、前記退避経路を設定する
 前記(4)に記載の情報処理装置。
(6)
 前記待避スペース検出部は、複数の前記待避スペースに関する前記待避スペース情報を記憶し、
 前記行動計画部は、複数の前記待避スペースの中から対向車とすれ違うことが可能な前記待避スペースを選択する
 前記(4)又は(5)に記載の情報処理装置。
(7)
 前記退避経路を通って前記待避スペースに前記車両を退避させるように前記車両を制御する動作制御部を
 さらに備える前記(4)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記行動計画部は、前記車両が退避することを事前に通知するように制御する
 前記(7)に記載の情報処理装置。
(9)
 対向車と通信を行う通信部を
 さらに備え、
 前記行動計画部は、前記対向車との間で前記車両及び前記対向車のどちらが退避するかを決定する
 前記(4)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記行動計画部は、入力された指示に従って、退避するか否かを決定する
 前記(4)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記マップ生成部と前記待避スペース検出部は、それぞれ独立したタイミングで前記地図データ又は前記待避スペース情報の更新又は消去を行う
 前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
 前記地図データは、前記車両を基準とする所定の範囲内の地図を含む
 前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
 前記地図データは、占有格子地図である
 前記(12)に記載の情報処理装置。
(14)
 車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成ステップと、
 前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出ステップと
 を含む情報処理方法。
 10 車両制御システム, 20 位置認識処理部, 21 構造動き認識処理部, 22 物体認識処理部, 23 状況認識処理部, 24 マップ記憶部, 25 待避スペース記憶部, 26 ルート計画部, 27 行動計画部, 28 通信部, 29 表示部, 30 音声出力部, 31 動作計画部, 32 動作制御部, 33 加速制御部, 34 減速制御部, 35 方向制御部, 36 ギア制御部, 101 位置検出部, 102 自己位置推定部, 111 距離検出部, 112 動物体識別部, 113 物体クラスタリング部, 121 物体検出部, 122 物体認識部, 123 物体追跡部, 131 マップ生成部, 132 交通状況認識部, 133 物体位置速度推定部, 134 動き予測部, 135 待避スペース検出部, 201 自車, 202 対向車, 211 道路, 214 待避スペース

Claims (14)

  1.  車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成部と、
     前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出部と
     を備える情報処理装置。
  2.  前記待避スペース検出部は、対向車とのすれ違いが困難な道において前記待避スペースを検出する
     請求項1に記載の情報処理装置。
  3.  前記待避スペース検出部は、前記道を通過した後、前記道における前記待避スペースに関する前記待避スペース情報を消去する
     請求項2に記載の情報処理装置。
  4.  前記待避スペース情報に基づいて、前記退避経路を設定する行動計画部を
     さらに備える請求項1に記載の情報処理装置。
  5.  前記行動計画部は、さらに前記地図データに基づいて、前記退避経路を設定する
     請求項4に記載の情報処理装置。
  6.  前記待避スペース検出部は、複数の前記待避スペースに関する前記待避スペース情報を記憶し、
     前記行動計画部は、複数の前記待避スペースの中から対向車とすれ違うことが可能な前記待避スペースを選択する
     請求項4に記載の情報処理装置。
  7.  前記退避経路を通って前記待避スペースに前記車両を退避させるように前記車両を制御する動作制御部を
     さらに備える請求項4に記載の情報処理装置。
  8.  前記行動計画部は、前記車両が退避することを事前に通知するように制御する
     請求項7に記載の情報処理装置。
  9.  対向車と通信を行う通信部を
     さらに備え、
     前記行動計画部は、前記対向車との間で前記車両及び前記対向車のどちらが退避するかを決定する
     請求項4に記載の情報処理装置。
  10.  前記行動計画部は、入力された指示に従って、退避するか否かを決定する
     請求項4に記載の情報処理装置。
  11.  前記マップ生成部と前記待避スペース検出部は、それぞれ独立したタイミングで前記地図データ又は前記待避スペース情報の更新又は消去を行う
     請求項1に記載の情報処理装置。
  12.  前記地図データは、前記車両を基準とする所定の範囲内の地図を含む
     請求項1に記載の情報処理装置。
  13.  前記地図データは、占有格子地図である
     請求項12に記載の情報処理装置。
  14.  車両の周囲の地図データを生成し、前記車両の移動に合わせて前記地図データを更新するマップ生成ステップと、
     前記地図データに基づいて、前記車両が待避可能なスペースである待避スペースを検出し、検出された前記待避スペースに関する情報であって、対向車とすれ違うために前記車両を退避させる退避経路の設定に用いられる情報である待避スペース情報を生成する待避スペース検出ステップと
     を含む情報処理方法。
PCT/JP2018/006634 2017-03-10 2018-02-23 情報処理装置及び情報処理方法 WO2018163856A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/490,709 US11302196B2 (en) 2017-03-10 2018-02-23 Information processing apparatus and information processing method
DE112018001277.8T DE112018001277T5 (de) 2017-03-10 2018-02-23 Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
CN201880015527.8A CN110383363A (zh) 2017-03-10 2018-02-23 信息处理装置和信息处理方法
US17/687,523 US11688283B2 (en) 2017-03-10 2022-03-04 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-045768 2017-03-10
JP2017045768A JP7471045B2 (ja) 2017-03-10 2017-03-10 情報処理装置及び情報処理方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/490,709 A-371-Of-International US11302196B2 (en) 2017-03-10 2018-02-23 Information processing apparatus and information processing method
US17/687,523 Continuation US11688283B2 (en) 2017-03-10 2022-03-04 Information processing apparatus and information processing method

Publications (1)

Publication Number Publication Date
WO2018163856A1 true WO2018163856A1 (ja) 2018-09-13

Family

ID=63447810

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/006634 WO2018163856A1 (ja) 2017-03-10 2018-02-23 情報処理装置及び情報処理方法

Country Status (5)

Country Link
US (2) US11302196B2 (ja)
JP (1) JP7471045B2 (ja)
CN (1) CN110383363A (ja)
DE (1) DE112018001277T5 (ja)
WO (1) WO2018163856A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154624A (ja) * 2019-03-19 2020-09-24 株式会社Subaru 自動運転車両の交通制御システム
US10834552B1 (en) 2019-06-25 2020-11-10 International Business Machines Corporation Intelligent vehicle pass-by information sharing
WO2021036241A1 (en) * 2019-08-30 2021-03-04 Huawei Technologies Co., Ltd. System and method for predictive path planning in autonomous vehicles
WO2021199579A1 (ja) * 2020-03-30 2021-10-07 日立Astemo株式会社 車両制御装置及び車両制御方法
US11338810B2 (en) 2020-02-25 2022-05-24 Ford Global Technologies, Llc Vehicle yield decision
US11587434B2 (en) 2019-06-25 2023-02-21 International Business Machines Corporation Intelligent vehicle pass-by information sharing

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7471045B2 (ja) * 2017-03-10 2024-04-19 ソニーグループ株式会社 情報処理装置及び情報処理方法
JP6673293B2 (ja) * 2017-05-24 2020-03-25 トヨタ自動車株式会社 車両システム
JP7018242B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP7018247B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP7018244B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP7018245B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP7018246B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP7018243B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP7018248B2 (ja) * 2018-08-10 2022-02-10 株式会社大一商会 遊技機
JP6935507B2 (ja) * 2018-12-26 2021-09-15 バイドゥ ドットコム タイムス テクノロジー (ベイジン) カンパニー リミテッド 自動運転のための自己反転線の相互回避アルゴリズム
JP6973566B2 (ja) * 2019-03-15 2021-12-01 スズキ株式会社 運転支援装置
CN111210627A (zh) * 2020-01-13 2020-05-29 深圳大学 狭窄道路多车协同行驶方法及相关装置
CN112634632B (zh) * 2020-12-15 2022-05-13 阿波罗智联(北京)科技有限公司 车辆调度的方法、装置、电子设备及存储介质
DE102021101847A1 (de) 2021-01-27 2022-07-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum automatisierten Durchführen eines Ausweichmanövers
JP2023069374A (ja) * 2021-11-05 2023-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
CN114104006A (zh) * 2022-01-28 2022-03-01 阿里巴巴达摩院(杭州)科技有限公司 一种自动驾驶车辆实现错会车的方法及装置
JP2023176490A (ja) * 2022-05-31 2023-12-13 日立Astemo株式会社 車両制御装置
DE102022115463A1 (de) 2022-06-21 2023-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zum betreiben eines kraftfahrzeugs

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004245610A (ja) * 2003-02-10 2004-09-02 Alpine Electronics Inc 対抗車両すれ違い解析システムおよび方法、ナビゲーション装置
JP2006267005A (ja) * 2005-03-25 2006-10-05 Xanavi Informatics Corp 現在位置算出装置及び位置情報算出方法
JP2016143137A (ja) * 2015-01-30 2016-08-08 富士重工業株式会社 車両の運転支援装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6161071A (en) * 1999-03-12 2000-12-12 Navigation Technologies Corporation Method and system for an in-vehicle computing architecture
JP2006205348A (ja) 2005-01-31 2006-08-10 Sony Corp 障害物回避装置、障害物回避方法及び障害物回避プログラム並びに移動型ロボット装置
JP5206752B2 (ja) * 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
JP2012108047A (ja) * 2010-11-18 2012-06-07 Denso Corp 車両用ナビゲーション装置
JP5494845B1 (ja) 2013-01-17 2014-05-21 株式会社デンソーアイティーラボラトリ 情報提供システム
CN203346749U (zh) 2013-03-01 2013-12-18 玉溪大红山矿业有限公司 一种可实现双向通行的单道式斜坡矿道
WO2016002276A1 (ja) * 2014-06-30 2016-01-07 エイディシーテクノロジー株式会社 車両制御装置
CN105946867A (zh) 2016-05-06 2016-09-21 深圳市元征科技股份有限公司 一种车辆报警方法及装置
JP6597898B2 (ja) * 2016-06-27 2019-10-30 日産自動車株式会社 車両制御方法及び車両制御装置
JP7471045B2 (ja) * 2017-03-10 2024-04-19 ソニーグループ株式会社 情報処理装置及び情報処理方法
JP6676025B2 (ja) * 2017-10-23 2020-04-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP6600878B2 (ja) * 2017-12-21 2019-11-06 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7238443B2 (ja) * 2019-02-05 2023-03-14 株式会社デンソー 基地局及び車載装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004245610A (ja) * 2003-02-10 2004-09-02 Alpine Electronics Inc 対抗車両すれ違い解析システムおよび方法、ナビゲーション装置
JP2006267005A (ja) * 2005-03-25 2006-10-05 Xanavi Informatics Corp 現在位置算出装置及び位置情報算出方法
JP2016143137A (ja) * 2015-01-30 2016-08-08 富士重工業株式会社 車両の運転支援装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154624A (ja) * 2019-03-19 2020-09-24 株式会社Subaru 自動運転車両の交通制御システム
JP7252801B2 (ja) 2019-03-19 2023-04-05 株式会社Subaru 自動運転車両の交通制御システム
US10834552B1 (en) 2019-06-25 2020-11-10 International Business Machines Corporation Intelligent vehicle pass-by information sharing
US11587434B2 (en) 2019-06-25 2023-02-21 International Business Machines Corporation Intelligent vehicle pass-by information sharing
GB2600278B (en) * 2019-06-25 2023-11-01 Ibm Intelligent vehicle pass-by information sharing
WO2021036241A1 (en) * 2019-08-30 2021-03-04 Huawei Technologies Co., Ltd. System and method for predictive path planning in autonomous vehicles
US11300959B2 (en) 2019-08-30 2022-04-12 Huawei Technologies Co., Ltd. System and method for predictive path planning in autonomous vehicles
US11698638B2 (en) 2019-08-30 2023-07-11 Huawei Technologies Co., Ltd. System and method for predictive path planning in autonomous vehicles
US11338810B2 (en) 2020-02-25 2022-05-24 Ford Global Technologies, Llc Vehicle yield decision
WO2021199579A1 (ja) * 2020-03-30 2021-10-07 日立Astemo株式会社 車両制御装置及び車両制御方法

Also Published As

Publication number Publication date
US11688283B2 (en) 2023-06-27
CN110383363A (zh) 2019-10-25
US20200005647A1 (en) 2020-01-02
JP7471045B2 (ja) 2024-04-19
JP2018151177A (ja) 2018-09-27
US11302196B2 (en) 2022-04-12
DE112018001277T5 (de) 2019-11-21
US20220189309A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
WO2018163856A1 (ja) 情報処理装置及び情報処理方法
EP3324332B1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US11367354B2 (en) Traffic prediction based on map images for autonomous driving
US10816984B2 (en) Automatic data labelling for autonomous driving vehicles
US10262234B2 (en) Automatically collecting training data for object recognition with 3D lidar and localization
EP3299921B1 (en) Location specific assistance for an autonomous vehicle control system
US10268200B2 (en) Method and system to predict one or more trajectories of a vehicle based on context surrounding the vehicle
US11010624B2 (en) Traffic signal recognition device and autonomous driving system
JP6411956B2 (ja) 車両制御装置、および車両制御方法
US10606273B2 (en) System and method for trajectory re-planning of autonomous driving vehicles
US20180120844A1 (en) Autonomous driving assistance system, autonomous driving assistance method, and computer program
US11360482B2 (en) Method and system for generating reference lines for autonomous driving vehicles using multiple threads
US10310511B2 (en) Automatic driving control system of mobile object
US11180160B2 (en) Spiral curve based vertical parking planner system for autonomous driving vehicles
CN111724627B (zh) 检测前方车辆向后滑动的自动告警系统
US10909377B2 (en) Tracking objects with multiple cues
US10438074B2 (en) Method and system for controlling door locks of autonomous driving vehicles based on lane information
US20240054793A1 (en) Information processing device, information processing method, and program
JP2020157831A (ja) 走行制御装置、走行制御方法、およびプログラム
JP2020157829A (ja) 走行制御装置、走行制御方法、およびプログラム
CN113470422A (zh) 收容区域管理装置
US11959756B2 (en) Controller and vehicle control method for setting pick-up and drop-off zones of ride-sharing vehicle
CN115050203B (zh) 地图生成装置以及车辆位置识别装置
CN111857118B (zh) 对停车轨迹分段以控制自动驾驶车辆停车
WO2020261703A1 (ja) 情報処理装置と情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18764464

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18764464

Country of ref document: EP

Kind code of ref document: A1