WO2020261703A1 - 情報処理装置と情報処理方法およびプログラム - Google Patents

情報処理装置と情報処理方法およびプログラム Download PDF

Info

Publication number
WO2020261703A1
WO2020261703A1 PCT/JP2020/015627 JP2020015627W WO2020261703A1 WO 2020261703 A1 WO2020261703 A1 WO 2020261703A1 JP 2020015627 W JP2020015627 W JP 2020015627W WO 2020261703 A1 WO2020261703 A1 WO 2020261703A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
vehicle
unit
information
lane
Prior art date
Application number
PCT/JP2020/015627
Other languages
English (en)
French (fr)
Inventor
伊藤 智行
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2020261703A1 publication Critical patent/WO2020261703A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • This technology makes it possible to improve the convenience of driving during merging operations with respect to information processing devices, information processing methods and programs.
  • the purpose of this technology is to provide an information processing device, an information processing method, and a program that can improve the convenience of driving at the time of merging operation.
  • the first aspect of this technology is A detection unit that detects the movement of a first moving body traveling adjacently in an adjacent traveling lane and the movement of a second moving body located in front of or behind the first moving body and generates movement information.
  • a situation analysis unit that determines an approach space in the adjacent traveling lane based on the movement information of the first moving body and the moving information of the second moving body. With The detection unit generates movement information of the first moving body based on the captured image showing the first moving body, and reaches the captured image showing the second moving body or the second moving body. It is in an information processing device that generates movement information of the second moving body based on the distance of.
  • the situation analysis unit determines whether there will be an approach space in the adjacent driving lane.
  • the situation analysis unit determines that the approach space is the first moving body when the traveling speed of the second moving body is faster than that of the first moving body.
  • the approach space is the second when the traveling speed of the second moving body is slower than that of the first moving body. It is determined that it occurs behind the moving body of 1.
  • the detection unit further includes a detection unit that detects the movements of the first moving body and the second moving body and generates movement information, and the detecting unit is an captured image acquired at a predetermined time interval indicating the first moving body. For example, the traveling speed of the first moving body is calculated based on, and the second moving body is based on the captured image acquired at a predetermined time interval indicating the second moving body or the distance to the second moving body. Calculate the running speed of.
  • the detection unit determines, for example, the size of the tire of the moving body based on the captured image, and detects the traveling speed based on the amount of rotation of the tire at a predetermined time interval and the size of the determined tire.
  • the situation analysis unit obtains the movement information of the first moving body and the moving information of the second moving body located behind the first moving body.
  • the approach space is determined based on.
  • the situation analysis unit is based on the movement information of each moving body between a predetermined number of subsequent moving bodies. Determine the approach space.
  • the planning department plans the lane change using the judgment result of the approach space of the situation analysis department. For example, when there are a plurality of adjacent traveling lanes, the planning unit calculates the lane change cost for each traveling lane. The lane change cost is calculated based on the congestion status of the adjacent driving lane, or the congestion status and the destination status of the driving lane. The planning department selects the change route based on the lane change cost, plans the lane change to the approach space determined by the situation analysis department in the selected change route, and the operation control unit changes the planned lane. Control the operation.
  • an output unit may be provided to display information on the movement to the approach space determined by the situation analysis unit so that it can be recognized by a moving body located behind the approach space.
  • the output unit projects information indicating that the lane is changed to the approach space to the rear part of the moving body located in front of the approach space or the approach space as information regarding the movement to the approach space.
  • the output unit outputs information to be notified after the completion of the lane change to the approach space as information regarding the movement to the approach space.
  • the second aspect of this technology is The movement information of the first moving body is generated by detecting the movement of the first moving body based on the captured image showing the first moving body traveling adjacently in the adjacent traveling lane, and the first moving body is generated.
  • the movement of the second moving body is detected based on the captured image showing the second moving body located in front of or behind the moving body or the distance to the second moving body of the second moving body.
  • Generating movement information in the detector and An information processing method including determining an approach space in the adjacent traveling lane by the situation analysis unit based on the movement information of the first moving body and the movement information of the second moving body generated by the detection unit. It is in.
  • the third aspect of this technology is A program that allows a computer to execute lane change control.
  • a program that allows a computer to execute lane change control. A procedure for detecting the movement of the first moving body based on an image showing a first moving body traveling adjacently in an adjacent traveling lane and generating movement information of the first moving body.
  • the movement of the second moving body is detected based on an image showing a second moving body located in front of or behind the first moving body or a distance to the second moving body, and the second moving body is detected.
  • the procedure for generating the movement information of the moving body of is a program in which the computer executes a procedure for determining an approach space in the adjacent traveling lane based on the movement information of the first moving body and the moving information of the second moving body.
  • the program of the present technology provides, for example, a storage medium, a communication medium, for example, a storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, which is provided in a computer-readable format to a general-purpose computer capable of executing various program codes. It is a program that can be provided by a medium or a communication medium such as a network. By providing such a program in a computer-readable format, processing according to the program can be realized on the computer.
  • FIG. 1 shows a configuration example of a schematic function of a vehicle control system 100, which is an example of a mobile control system to which the present technology can be applied, as a configuration of an embodiment.
  • a vehicle provided with the vehicle control system 100 is distinguished from other vehicles, it is referred to as a own vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, and a body. It includes a system system 110, a storage unit 111, and an automatic operation control unit 112.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 are connected via the communication network 121. They are interconnected.
  • the communication network 121 is, for example, from an in-vehicle communication network or bus that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become.
  • each part of the vehicle control system 100 may be directly connected without going through the communication network 121. Further, in the following description, when each part of the vehicle control system 100 communicates via the communication network 121, the description of the communication network 121 is omitted.
  • the input unit 101 includes a device used by the passenger to input various data, instructions, and the like.
  • the input unit 101 is provided with an operation device such as a touch panel, a button, a lever, etc., which is manually operated, an operation device capable of inputting by voice, gesture, or the like.
  • the input unit may be configured so that data, instructions and the like can be input using an externally connected device such as a remote control device, a mobile device or a wearable device.
  • the input unit 101 generates an input signal based on the input data, instructions, and the like, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors and the like that acquire data used for processing of the vehicle control system 100, and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 is for detecting a sensor for detecting the external situation of the own vehicle, a sensor for detecting the state of the own vehicle, a sensor for detecting the current position of the own vehicle, and information inside the vehicle. It has the sensor etc.
  • the data acquisition unit 102 includes, for example, an image pickup device such as a ToF (TimeOfFlight) camera, a stereo camera, a monocular camera, an infrared camera, an ultrasonic sensor, a radar, and a LiDAR ( It is equipped with a distance measuring device such as Light Detection and Ranging, Laser Imaging Detection and Ranging, and an environmental sensor for detecting the weather or weather.
  • an image pickup device such as a ToF (TimeOfFlight) camera, a stereo camera, a monocular camera, an infrared camera, an ultrasonic sensor, a radar, and a LiDAR ( It is equipped with a distance measuring device such as Light Detection and Ranging, Laser Imaging Detection and Ranging, and an environmental sensor for detecting the weather or weather.
  • the data acquisition unit 102 includes various sensors for detecting the state of the own vehicle, such as a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU), an accelerator or brake operation amount, a steering angle, an engine or a motor. It is equipped with a sensor or the like for detecting the number of rotations of the wheel or the rotation speed of the wheels.
  • sensors for detecting the state of the own vehicle, such as a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU), an accelerator or brake operation amount, a steering angle, an engine or a motor. It is equipped with a sensor or the like for detecting the number of rotations of the wheel or the rotation speed of the wheels.
  • the data acquisition unit 102 includes, for example, a GNSS receiver that receives a GNSS signal from a GNSS (Global Navigation Satellite System) satellite as a sensor for detecting the current position of the own vehicle.
  • GNSS Global Navigation Satellite System
  • the data acquisition unit 102 includes, as sensors for detecting the situation inside the vehicle, for example, an imaging device for imaging the passenger, a biosensor for detecting the biometric information of the passenger, a microphone for collecting sound in the vehicle, and the like. ..
  • the communication unit 103 communicates with the in-vehicle device 104 and various devices, servers, base stations, etc. outside the vehicle, transmits data supplied from each unit of the vehicle control system 100, and transmits the received data to the vehicle control system. It is supplied to each part of 100.
  • the communication unit 103 performs wireless communication or wired communication with the in-vehicle device 104. Further, the communication unit 103 communicates with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network or a network peculiar to a business operator) via a base station or an access point.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network or a network peculiar to a business operator
  • Vehicle-to-vehicle Vehicle to Vehicle
  • road-to-vehicle Vehicle to Infrastructure
  • communication between the own vehicle and the house Vehicle to Home
  • pedestrian Vehicle to
  • the communication unit 103 receives a beacon signal from a radio station or the like installed on the road.
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device owned by a passenger, an information device carried in or attached to the own vehicle, a navigation device for searching a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of information from the output unit 106 to the outside of the vehicle or to the passengers of the own vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information and auditory information and supplies it to the output unit 106.
  • the output control unit 105 makes it possible for a vehicle located behind the approach space to determine that the own vehicle will move to the approach space when a lane change is planned by the planning unit 134, which will be described later. Is output.
  • the planning unit 134 outputs visual information indicating a notification according to the completion of the planned lane change.
  • the output control unit 105 includes visual information and auditory information for showing the information acquired by the data acquisition unit 102 to the passengers of the own vehicle, for example, visual information indicating the surrounding situation, collision, contact, and entry into a danger zone. Auditory information including a warning sound or a warning message for danger such as is output to the output unit 106.
  • the output unit 106 is provided with a device capable of outputting visual information or auditory information to the passengers outside the vehicle or in the own vehicle.
  • the output unit 106 is worn by a display device (for example, a projector that projects visual information to the outside of the vehicle, a display that can be seen from the outside of the vehicle, an instrument panel or a head-up display that is provided in the field of view of the passenger, or a passenger. It is equipped with a spectacle-type display, etc.) and an audio output device (speaker, headphones, etc.).
  • the output unit 106 outputs the visual information and the auditory information supplied from the output control unit 105.
  • the output unit 106 displays information regarding movement to the approach space so that it can be recognized by a vehicle located behind the approach space.
  • the drive system control unit 107 controls the drive system system 108 by generating various control signals and supplying them to the drive system system 108. Further, the drive system control unit 107 supplies a control signal to each unit other than the drive system system 108 as needed, and notifies the control state of the drive system system 108.
  • the drive system system 108 includes various devices related to the drive system of the own vehicle.
  • the drive system system 108 includes a driving force generating device for generating a driving force for driving the own vehicle, a driving force transmitting mechanism for transmitting the driving force to the wheels, a steering mechanism for adjusting the steering angle, and a braking device for generating the braking force.
  • a driving force generating device for generating a driving force for driving the own vehicle
  • a driving force transmitting mechanism for transmitting the driving force to the wheels
  • a steering mechanism for adjusting the steering angle
  • a braking device for generating the braking force.
  • ABS Antilock Brake System
  • ESC Electronic Stability Control
  • electric power steering device etc.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body system control unit 109 supplies control signals to each unit other than the body system 110 as necessary, and notifies the control state of the body system 110.
  • the body system 110 includes various body devices equipped on the vehicle body.
  • the body system 110 includes a key system, a power window device, a power seat, a steering wheel, an air conditioner, various lamps, and the like.
  • the storage unit 111 includes, for example, a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), or an HDD (Hard Disc Drive).
  • the storage unit 111 stores various programs, data, and the like used by each unit of the vehicle control system 100.
  • the storage unit 111 stores map data such as a high-precision map, a global map that is less accurate than the high-precision map and covers a wide area, and a local map that includes information around the own vehicle.
  • the automatic driving control unit 112 controls automatic driving such as autonomous driving or driving support.
  • the automatic driving control unit 112 includes ADAS (Advanced Driver) including collision avoidance or impact mitigation of the own vehicle, follow-up running based on the inter-vehicle distance, vehicle speed maintenance running, collision warning of the own vehicle, lane deviation warning of the own vehicle, and the like. Coordinated control is performed for the purpose of realizing the functions of the Assistance System) and for automatic driving that autonomously travels without depending on the driving operation of the passenger.
  • ADAS Advanced Driver
  • Coordinated control is performed for the purpose of realizing the functions of the Assistance System) and for automatic driving that autonomously travels without depending on the driving operation of the passenger.
  • the automatic operation control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various types of information necessary for controlling automatic operation.
  • the detection unit 131 includes a parallel traveling vehicle (first moving body) traveling in the traveling lane adjacent to the traveling lane of the own vehicle and a vehicle located in front of or behind the parallel traveling vehicle (second moving body). The movement of the moving body) is detected and movement information is generated.
  • the detection unit 131 includes a vehicle exterior information detection unit 141, a vehicle interior information detection unit 142, and a vehicle condition detection unit 143.
  • the vehicle outside information detection unit 141 performs detection processing of the external situation of the own vehicle based on the data or signals from each unit of the vehicle control system 100. For example, the outside information detection unit 141 detects and recognizes objects around the own vehicle based on information acquired by a sensor provided in the data acquisition unit 102 for detecting the external situation of the own vehicle. , And tracking processing, and detection processing of the distance and speed to the object. Examples of the object to be detected include a parallel running vehicle traveling in a lane adjacent to the traveling lane of the own vehicle, a vehicle located in front of the parallel running vehicle (referred to as "front adjacent vehicle"), or a vehicle located behind the parallel running vehicle.
  • vehicle outside information detection unit 141 detects the environment around the own vehicle, such as weather, temperature, humidity, brightness, and road surface condition.
  • the vehicle exterior information detection unit 141 supplies data indicating the result of the detection process to the self-position estimation unit 132, the situation analysis unit 133, the motion control unit 135, and the like.
  • the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100. For example, the in-vehicle information detection unit 142 performs passenger authentication processing and recognition processing, and passenger state detection based on information acquired by a sensor provided in the data acquisition unit 102 for detecting the in-vehicle condition. Performs processing, detection processing of the vehicle interior environment, etc.
  • the vehicle interior information detection unit 142 supplies data indicating the result of the detection process to the situation analysis unit 133, the operation control unit 135, and the like.
  • the vehicle state detection unit 143 performs the state detection process of the own vehicle based on the data or signals from each part of the vehicle control system 100.
  • the vehicle state detection unit 143 has the speed, acceleration, steering angle, presence / absence and content of the own vehicle based on the information acquired by the sensor for detecting the state of the own vehicle provided in the data acquisition unit 102. , The state of driving operation, the state of in-vehicle equipment, etc. are detected.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation analysis unit 133, the operation control unit 135, and the like.
  • the self-position estimation unit 132 performs estimation processing such as the position and posture of the own vehicle based on the detection result of the vehicle outside information detection unit 141 and the situation recognition result of the situation analysis unit 133.
  • the self-position estimation unit 132 generates a local map (referred to as a self-position estimation map) used for estimating the self-position, if necessary.
  • the map for self-position estimation is a highly accurate map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimation unit 132 supplies data indicating the result of the estimation process to the situation analysis unit 133. Further, the self-position estimation unit 132 stores the self-position estimation map in the storage unit 111.
  • the situation analysis unit 133 analyzes the own vehicle and the surrounding situation. For example, the situation analysis unit 133 is based on the movement information of the parallel traveling vehicle traveling in the adjacent traveling lane based on the movement information generated by the detection unit 131, and the movement information of the front adjacent vehicle or the rear adjacent vehicle. Determine the approach space in the adjacent driving lane. For example, the situation analysis unit 133 determines the approach space based on the speed of each vehicle detected by the detection unit 131.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132 and the vehicle exterior information detection unit 141 as necessary, and the map analysis unit 151 of various maps stored in the storage unit 111. Perform analysis processing and build a map containing information necessary for automatic driving processing.
  • the map analysis unit 151 applies the constructed map to the traffic rule recognition unit 152, the situation recognition unit 153, the situation prediction unit 154, the route planning unit 161 of the planning unit 134, the action planning unit 162, the operation planning unit 163, and the like. Supply to.
  • the traffic rule recognition unit 152 determines the traffic rules around the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle outside information detection unit 141, and the map analysis unit 151.
  • the recognition process is performed to recognize, for example, the position and state of signals around the own vehicle, the contents of traffic regulations around the own vehicle, the lane in which the vehicle can travel, and the like.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 can be used for data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the vehicle exterior information detection unit 141, the vehicle interior information detection unit 142, the vehicle condition detection unit 143, and the map analysis unit 151. Based on this, the situation recognition process related to the own vehicle is performed. In the recognition process, the situation of the own vehicle, the situation around the own vehicle, for example, the situation of the approach space in the adjacent traveling lane, the situation of the passengers of the own vehicle, and the like are recognized. In addition, the situational awareness unit 153 generates a local map (hereinafter, referred to as a situational awareness map) used for recognizing the situation around the own vehicle, if necessary.
  • a situational awareness map a local map
  • the situational awareness unit 153 supplies data indicating the result of the recognition process (including a situational awareness map, if necessary) to the self-position estimation unit 132, the situation prediction unit 154, and the like. Further, the situational awareness unit 153 stores the situational awareness map in the storage unit 111.
  • the situation prediction unit 154 performs a situation prediction process related to the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153.
  • the situation prediction unit 154 performs prediction processing such as the situation of the own vehicle and the situation around the own vehicle.
  • the situation of the own vehicle to be predicted includes, for example, the behavior of the own vehicle, the occurrence of an abnormality, the mileage, the lane change of the traveling lane, and the like.
  • the situation around the own vehicle to be predicted includes, for example, the behavior of a vehicle traveling in a lane adjacent to the traveling lane in which the own vehicle is traveling.
  • the surrounding conditions of the own vehicle may include changes in signal conditions, changes in the environment such as weather, and the like.
  • the situation prediction unit 154 together with the data from the traffic rule recognition unit 152 and the situation recognition unit 153, provides the data indicating the result of the prediction processing to the route planning unit 161, the action planning unit 162, and the operation planning unit 163 of the planning unit 134. And so on.
  • the planning unit 134 uses the analysis result of the situation analysis unit 133 to make a plan regarding the running of the own vehicle, for example, a lane change plan according to the determination result of the approach space of the situation analysis unit 133.
  • the planning unit 134 includes a route planning unit 161, an action planning unit 162, and an operation planning unit 163.
  • the route planning unit 161 plans a route to the destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the specified destination based on the global map. In addition, the route planning unit 161 plans a lane change route based on the conditions of traffic congestion, accidents, traffic restrictions, construction, and the like. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely sets the route planned by the route planning unit 161 within the planned time based on the data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your vehicle's actions to drive. For example, the action planning unit 162 plans starting, stopping, traveling direction (for example, forward, backward, left turn, right turn, change of direction, etc.), traveling lane, traveling speed, lane change, overtaking, and the like. The action planning unit 162 supplies data indicating the planned behavior of the own vehicle to the motion planning unit 163 and the like.
  • the motion planning unit 163 operates the own vehicle to realize the action planned by the action planning unit 162 based on the data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan. For example, the motion planning unit 163 plans acceleration, deceleration, traveling track, and the like. The motion planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172 and the direction control unit 173 of the motion control unit 135.
  • the motion control unit 135 controls the motion of the own vehicle, for example, lane change control to the approach space determined by the situation analysis unit 133.
  • the operation control unit 135 includes an emergency situation avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency situation avoidance unit 171 may collide, contact, enter a danger zone, or have an abnormality of a passenger or a vehicle.
  • the operation of the own vehicle is planned to avoid the emergency situation.
  • the emergency situation avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the own vehicle planned by the motion planning unit 163 or the emergency situation avoidance unit 171 and supplies the acceleration / deceleration control command to the drive system control unit 107.
  • the direction control unit 173 performs directional control for realizing the operation of the own vehicle planned by the motion planning unit 163 or the emergency situation avoidance unit 171 and supplies the direction control command to the drive system control unit 107.
  • FIG. 2 is a flowchart illustrating a lane change operation, in which, for example, automatic driving is performed in the own vehicle.
  • step ST1 the vehicle control system 100 determines whether a lane change is necessary.
  • the automatic driving control unit 112 of the vehicle control system 100 determines whether or not a lane change is necessary based on the planned travel route and traffic regulation information due to traffic jams, accidents, construction, and the like.
  • the vehicle control system 100 determines that the lane change is necessary and proceeds to step ST2, and when it determines that the lane change is not necessary, proceeds to step ST6.
  • step ST2 the vehicle control system 100 plans a route for changing lanes.
  • FIG. 3 is a flowchart illustrating a route plan for changing lanes.
  • the vehicle control system 100 detects a candidate route.
  • the automatic driving control unit 112 of the vehicle control system 100 detects a candidate route that can be traveled by changing lanes based on the map analysis result obtained by the situation analysis unit 133 and the prediction result of the situation of the own vehicle. For example, when the planning unit 134 is traveling in the end lane on a road having a plurality of lanes and the passage of the traveling lane adjacent to the right or left is not restricted, the planning unit 134 uses the adjacent lane as a candidate route. ..
  • the traveling adjacent to the right and left Use the lane as a candidate route.
  • the automatic operation control unit 112 detects the candidate route and proceeds to step ST12.
  • step ST12 the vehicle control system 100 determines whether there is a candidate route that has not failed.
  • the automatic driving control unit 112 of the vehicle control system 100 determines whether there is a candidate route different from the candidate route in which the lane change is performed and the lane change fails, which will be described later.
  • the planning unit 134 determines that there is no candidate route different from the failed candidate route when the vehicle is traveling in the end lane of a road having a plurality of lanes and the lane change to the adjacent lane has failed. Also, if you are driving in a lane that is not the end lane on a road with three or more lanes, the lane change to the driving lane adjacent to one of the right or left has failed, and the driving lane to the other is adjacent.
  • step ST13 determines that there is a candidate route that has not failed, and proceeds to step ST19 if it determines that there is no candidate route that has not failed. Further, when traveling on a road having a plurality of lanes, it is determined that there is a candidate route that has not failed before the lane is changed, and the process proceeds to step ST13.
  • step ST13 the vehicle control system 100 determines whether or not there are a plurality of candidate routes. If the traveling lanes adjacent to the right and left are candidate routes that have not failed as described above, the automatic driving control unit 112 of the vehicle control system 100 proceeds to step ST14 and travels in the end lane on the road having a plurality of lanes. If only the traveling lane adjacent to the right or left is a candidate route, the process proceeds to step ST15.
  • the vehicle control system 100 selects a change route from the candidate routes.
  • the automatic driving control unit 112 of the vehicle control system 100 calculates a lane change cost for each candidate route, and the planning unit 134 selects one of a plurality of candidate routes as a change route based on the calculated lane change cost.
  • the cost is determined based on traffic congestion information, information based on the data acquired by data acquisition, route information to the destination, and the like. For example, the cost of a candidate route that is shown to be congested by congestion information is high.
  • the cost of the candidate route increases as the speed of the vehicle traveling on the candidate route determined based on the data acquired by the data acquisition (for example, the distance measurement result of the driver or the captured image) becomes slower. Further, the cost of the candidate route may be set based on the route information.
  • FIG. 4 illustrates a case where the cost of the candidate route is set based on the route information.
  • the route information the travel of the arrow FA is planned.
  • the right lane is selected as the candidate route.
  • the vehicle will move in the direction of the arrow FB, and it will be necessary to change the lane in the direction of the arrow FA immediately before the branch point. Therefore, the cost of the right lane that deviates from the planned route is increased, and the cost of the right lane that is the planned route is decreased.
  • the automatic driving control unit 112 calculates the lane change cost by adding the cost based on the traffic congestion information, the information based on the data acquired by the data acquisition, the route information to the destination, etc. for each candidate route, and changes the lane.
  • the candidate route with the lowest cost is selected and the process proceeds to step ST16.
  • step ST15 the vehicle control system 100 sets the candidate route as the change route. Since there is only one route candidate, the automatic driving control unit 112 of the vehicle control system 100 sets the candidate route as the change route and proceeds to step ST16.
  • step ST16 the vehicle control system 100 determines whether the change route is in the right lane.
  • the automatic driving control unit 112 of the vehicle control system 100 proceeds to step ST17 when the change route is in the right lane of the own vehicle, and proceeds to step ST18 when the change route is in the left lane.
  • step ST17 the vehicle control system 100 plans a route to the right lane.
  • the automatic driving control unit 112 of the vehicle control system 100 plans a route for moving the own vehicle to the right lane, which is a change route, and proceeds to step ST3 of FIG.
  • step ST18 the vehicle control system 100 plans a route to the left lane.
  • the automatic driving control unit 112 of the vehicle control system 100 plans a route for moving the own vehicle to the left lane, which is a change route, and proceeds to step ST3 of FIG.
  • step ST12 the vehicle control system 100 fails in route planning.
  • the automatic driving control unit 112 of the vehicle control system 100 proceeds to step ST3 of FIG. 2 on the assumption that the route planning has failed because there is no candidate route.
  • step ST3 the vehicle control system 100 determines whether the route plan was successful. If the planning unit 134 plans a route for moving the own vehicle to the right lane or the left lane in step ST2, the automatic driving control unit 112 of the vehicle control system 100 determines that the route planning is successful and proceeds to step ST4. If it is determined in step ST2 that the route planning has failed, the process proceeds to step ST7.
  • step ST4 the vehicle control system 100 changes lanes.
  • the automatic driving control unit 112 of the vehicle control system 100 changes the lane of the own vehicle to the approach space in the right lane or left lane change route set in step ST2.
  • FIG. 5 is a flowchart illustrating a lane change.
  • step ST21 the vehicle control system 100 determines whether the lane change area can be observed.
  • the automatic driving control unit 112 of the vehicle control system 100 determines that it is possible to observe the front region where the lane is changed based on the outside information detected by the detection unit 131 using the data acquired by the data acquisition unit 102. If this is the case, for example, if an captured image of the front area for changing lanes or a distance measurement result is obtained, the process proceeds to step ST22. Further, if the captured image or the distance measurement result of the front area where the lane is changed is not obtained, it is determined that the observation is not possible and the process proceeds to step ST24.
  • step ST22 the vehicle control system 100 controls the lane change to the front of the parallel running vehicle.
  • FIG. 6 is a flowchart illustrating the lane change control operation.
  • step ST31 the vehicle control system 100 performs observation processing.
  • the detection unit 131 of the vehicle control system includes a front vehicle located in front of the own vehicle, a rear vehicle located behind the vehicle, a parallel vehicle running in parallel in an adjacent changing lane, and a front vehicle. Observe adjacent vehicles and rear adjacent vehicles. For example, the detection unit 131 observes the speed of each vehicle to be observed and proceeds to step ST32.
  • the speed of the parallel running vehicle is measured based on the amount of displacement of the vehicle image included in the captured image.
  • the detection unit 131 measures the speed by observing the rotation angle of the tire as an image displacement amount.
  • the vehicle exterior information detection unit 141 of the detection unit 131 recognizes the subject using the captured image acquired by the data acquisition unit 102, and detects, for example, the tires of a parallel running vehicle. If the road surface is detected by subject recognition, the tires can be easily detected. Further, the vehicle outside information detection unit 141 calculates the tire diameter by using the distance measurement result to the parallel running vehicle measured by the lidar or the like of the data acquisition unit 102.
  • FIG. 7 is a diagram for explaining the calculation of the tire diameter.
  • the angle of view of the imaging unit of the data acquisition unit 102 is the angle ⁇ , and the horizontal direction is the number of pixels Iw. Further, the distance between the imaging unit 20 and the tire OB is a distance d. In this case, at the position of the tire, the size Xp in the horizontal direction corresponding to the interval of one pixel in the horizontal direction can be calculated based on the equation (1).
  • the diameter LM of the tire OB can be calculated by detecting the number of pixels corresponding to the diameter of the tire from the captured image.
  • FIG. 8 is a diagram for explaining speed measurement when the wheel of the tire is fixed by four bolts.
  • the vehicle outside information detection unit 141 detects the speed of the parallel running vehicle by using four bolts as feature points.
  • FIG. 8A shows an image of the tire at time point t1
  • FIGS. 8B and 8C exemplify an image of the tire when one frame period has elapsed from time point t1. In this case, as shown in FIG.
  • the speed of the parallel running vehicle is slower than 64.8 km / h, the speed can be measured, and the speed at the rotation angle ⁇ ( ⁇ 90 degrees) is (( ⁇ / 90) ⁇ 64.8). ) Km / h. In this way, the speed of the parallel running vehicle can be measured based on the captured image of the parallel running vehicle.
  • the speed may be measured not only based on the rotation angle of the tire but also based on the amount of movement in the traveling direction of the characteristic point of the vehicle. For example, if the distance to the feature point of the parallel running vehicle is calculated, it is clear how much the distance of one pixel in the horizontal direction in the captured image corresponds to the position of the distance d based on the above equation (1). It becomes. Therefore, if the number of pixels in which the feature points of the parallel running vehicle move in the horizontal direction is detected in the predetermined number of frames period, the relative speed of the parallel running vehicle with respect to the own vehicle can be detected. Further, the speed of the parallel running vehicle can be detected by using the speed of the own vehicle.
  • the sensor signal from the depth sensor may be used for observing the speed of the observation target.
  • the depth sensor it is possible to clarify the change in the distance to the front adjacent vehicle and the rear adjacent vehicle, and to measure the relative speed of the front adjacent vehicle and the rear adjacent vehicle with respect to the own vehicle.
  • the speed of the vehicle adjacent to the front or the vehicle adjacent to the rear can be detected by using the speed of the own vehicle.
  • the measurement of the speed of the observation target is performed by the communication unit 103 on a device (for example, an application server or control) existing on an external network (for example, the Internet, a cloud network or a network peculiar to a business operator) via a base station or an access point.
  • a device for example, an application server or control
  • an external network for example, the Internet, a cloud network or a network peculiar to a business operator
  • Communication with (server) communication with terminals existing in the vicinity of the own vehicle
  • vehicle-to-vehicle (Vehicle to Vehicle) communication road-to-vehicle (Vehicle to Infrastructure) communication
  • beacon signals from radio stations installed on the road, etc. You may use reception or the like.
  • step ST32 the vehicle control system 100 performs an approach space determination process.
  • the situation analysis unit 133 of the vehicle control system determines whether an approach space is generated based on the observation result of the observation process in step ST31.
  • the situation analysis unit 133 determines that an approach space is generated when the speed of the preceding adjacent vehicle is faster than the speed of the parallel running vehicle, and when the speed of the front adjacent vehicle is equal to or less than the speed of the parallel running vehicle, the approach space is created. It is determined that no problem has occurred, and the process proceeds to step ST33.
  • step ST33 the vehicle control system 100 operates according to the discrimination result.
  • the planning unit 134 of the vehicle control system plans a lane change when it is determined in step ST32 that an approach space is generated, and the operation control unit 135 controls the operation of changing the lane to the approach space.
  • FIG. 9 illustrates a lane change operation to the approach space generated in front of the parallel running vehicle.
  • the black arrow indicates the speed of the vehicle. When the length of the arrow is short, the speed is low, and when the length of the arrow is long, the speed is high.
  • the automatic driving control unit 112 displays information on movement to the approach space by the output unit 106 so that the vehicle located behind the approach space can recognize it.
  • the information regarding the movement to the approach space is, for example, a lane change notification indicating that the lane is changed to the approach space.
  • FIG. 10 shows a display example of the lane change notification.
  • the lane change notification may be displayed at any position as long as it is visible to the vehicle located behind the approach space.
  • the lane change notification is projected on the rear part of the vehicle located in front of the approach space traveling in front of the approach space.
  • a lane change notification may be projected on the road surface of the approach space.
  • a lane change notification may be displayed on the side surface of the own vehicle on the approach space side.
  • the lane change notification may be a character display as shown in FIG. 10 (a), or may be an identification mark or the like as shown in FIG. 10 (b).
  • a predetermined lighting pattern may be displayed on the display unit provided in the own vehicle.
  • the own vehicle may transmit a radio signal indicating a lane change notification to the parallel running vehicle and display the lane change notification of the own vehicle on the parallel running vehicle. Good.
  • step ST32 When it is determined in step ST32 that no approach space has been created, the planning unit 134 does not perform a lane change operation to the approach space. Further, when the lane change operation is in progress, the operation control unit 135 stops the lane change operation based on the instruction from the planning unit 134, performs operation control to return to the traveling lane before the lane change, and proceeds to step ST34.
  • step ST34 the vehicle control system 100 determines whether the operation is completed. If the situation analysis unit 133 of the vehicle control system determines that the lane change operation using the approach space has not been completed, the process returns to step ST31, and if it determines that the lane change operation has been completed, the process proceeds to step ST35. That is, when the operations of steps ST31 to ST34 are repeated and the operation is completed, when the approach space is generated in front of the parallel running vehicle, the vehicles are sequentially moved to the approach space and the lane change is completed. In addition, after an approach space is created in front of the parallel running vehicle and the lane change is started, when the approach space is exhausted, the vehicle returns to the original lane from the position in the middle of the change. Further, when there is no approach space in front of the parallel running vehicle, the lane change is not started and the current lane is maintained.
  • step ST35 the vehicle control system 100 determines whether the lane change has been completed.
  • the situation analysis unit 133 of the vehicle control system determines that the lane change operation using the approach space has not been completed, it proceeds to step ST36, and when it determines that it has completed, it proceeds to step ST23 of FIG.
  • step ST36 the vehicle control system 100 determines whether the lane change has been repeated.
  • the automatic driving control unit 112 of the vehicle control system 100 returns to step ST31 when the lane change, that is, the processes from step ST31 to step ST35 are not repeated a predetermined number of times or a predetermined period, and is repeated a predetermined number of times or a predetermined period. Proceeds to step ST23 of FIG.
  • step ST23 the vehicle control system 100 determines whether the lane change is successful.
  • the automatic driving control unit 112 of the vehicle control system 100 determines whether the lane change is successful.
  • the automatic driving control unit 112 determines that the lane change is successful in front of the parallel running vehicle, and proceeds to step ST26.
  • the automatic driving control unit 112 eliminates the approach space in front of the parallel running vehicle during the lane change and changes the lane. If the lane change cannot be completed because there is no approach space in front of the parallel running vehicle, it is determined that the lane change has not been successful, and the process proceeds to step ST24.
  • step ST24 the vehicle control system 100 controls the lane change to the rear of the parallel running vehicle.
  • the lane change control performs the same operation as the flowchart shown in FIG. 6, and performs a change operation of moving the own vehicle to the approach space behind the parallel runner.
  • step ST31 of FIG. 6 the vehicle control system 100 performs observation processing.
  • the detection unit 131 measures the speeds of the parallel running vehicle and the rear adjacent vehicle based on the data acquired by the data acquisition unit 102, and proceeds to step ST32.
  • step ST32 the vehicle control system 100 performs an approach space determination process.
  • the automatic driving control unit 112 of the vehicle control system 100 determines whether an approach space is generated based on the processing result of the observation process in step ST31.
  • the automatic driving control unit 112 determines that an approach space is generated when the speed of the adjacent vehicle behind is slower than the speed of the parallel running vehicle, and when the speed of the candidate adjacent vehicle is equal to or higher than the speed of the parallel running vehicle, the approach space is created. It is determined that no problem has occurred, and the process proceeds to step ST33.
  • step ST33 the vehicle control system 100 operates according to the discrimination result.
  • the planning unit 134 of the vehicle control system plans a lane change when it is determined in step ST32 that an approach space is generated, and the operation control unit 135 controls the operation of changing the lane to the approach space.
  • FIG. 11 illustrates a lane change operation to the approach space generated behind the parallel running vehicle. For example, if the speed Vb adjacent to the rear is faster than the speed Vp of the parallel running vehicle at the time point t11, an approach space is created between the parallel running vehicle and the adjacent vehicle behind at the subsequent time point t12, so this approach space is used. Change lanes.
  • the automatic driving control unit 112 recognizes the information regarding the movement to the approach space in the vehicle located behind the approach space when the lane is changed to the approach space in the same manner as the above-mentioned lane change to the front of the parallel running vehicle. Displayed by the output unit 106 as possible.
  • step ST32 When it is determined in step ST32 that the approach space has not been created, the motion control unit 135 does not perform the lane change operation to the approach space. If the lane change operation is in progress, the lane change operation is stopped, the operation is controlled to return to the traveling lane before the lane change, and the process proceeds to step ST34.
  • step ST34 the vehicle control system 100 determines whether the operation is completed. If the situation analysis unit 133 of the vehicle control system determines that the lane change operation using the approach space has not been completed, the process returns to step ST31, and if it determines that the lane change operation has been completed, the process proceeds to step ST35.
  • step ST35 the vehicle control system 100 determines whether the lane change has been completed.
  • the situation analysis unit 133 of the vehicle control system determines that the lane change operation using the approach space has not been completed, it proceeds to step ST36, and when it determines that it has completed, it proceeds to step ST25 of FIG.
  • step ST36 the vehicle control system 100 determines whether the lane change has been repeated.
  • the automatic driving control unit 112 of the vehicle control system 100 returns to step ST31 when the lane change, that is, the processes from step ST31 to step ST35 have not been repeated a predetermined number of times or a predetermined period of time, and has been repeated a predetermined number of times or a predetermined period of time. Proceeds to step ST25 of FIG.
  • step ST25 the vehicle control system 100 determines whether the lane change is successful.
  • the automatic driving control unit 112 of the vehicle control system 100 determines whether the lane change is successful.
  • the automatic driving control unit 112 determines that the lane change is successful behind the parallel running vehicle, and proceeds to step ST26.
  • step ST24 when the lane change is not completed in step ST24, that is, even if the lane change is repeated a predetermined number of times or for a predetermined period, the approach space generated behind the parallel running vehicle during the lane change is created. If the lane change cannot be completed because the lane change is lost, or if the lane change cannot be performed because there is no approach space behind the parallel running vehicle, it is determined that the lane change has not been successful and the process proceeds to step ST27.
  • step ST26 the vehicle control system 100 notifies the lane change success.
  • the automatic driving control unit 112 of the vehicle control system 100 displays a notification of the success of the lane change recognizable by the vehicle located behind the approach space as information regarding the movement to the approach space.
  • FIG. 12 illustrates a lane change success notification.
  • the automatic driving control unit 112 displays, for example, a character indicating appreciation for the lane change, an identification mark, or the like on the rear vehicle after the lane change at a position visible to the rear vehicle.
  • the automatic driving control unit 112 outputs a lane change success notification from the output unit 106, and proceeds to step ST5 of FIG.
  • step ST27 the vehicle control system 100 determines whether the rear adjacent vehicle is farther than the predetermined number of parallel running vehicles.
  • the automatic driving control unit 112 of the vehicle control system 100 proceeds to step ST28 when the rear adjacent vehicle is within the predetermined number range from the parallel running vehicle at the start of lane change, and the rear adjacent vehicle is the predetermined number from the parallel running vehicle. If the vehicle is farther away, it is assumed that the lane change has failed, and the process proceeds to step ST5 in FIG.
  • step ST28 the vehicle control system 100 moves the approach space determination position to the rear.
  • the automatic driving control unit 112 of the vehicle control system 100 sets the determination position of the approach space to be behind the position determined in step ST24. For example, in step ST24, when the vehicle in front of the approach space is a parallel vehicle and the vehicle behind the approach space is a rear adjacent vehicle, by setting this rear adjacent vehicle as the vehicle in front of the approach space, the approach space can be changed.
  • the determination position is moved backward and the process returns to step ST24.
  • step ST5 the vehicle control system 100 determines whether the track plan has been completed.
  • the automatic driving control unit 112 of the vehicle control system 100 determines that the track plan is completed and proceeds to step ST6. Further, when the lane change is not successful in step ST4, that is, immediately before the parallel running vehicle at the start of the lane change and between each vehicle from the parallel running vehicle to the vehicle within the predetermined number range. If the lane change is not successful even if you try to change lanes according to the result of determining the approach space, it is determined that the lane plan has not been completed, and the process returns to step ST2 to plan the route for changing lanes to a new lane. ..
  • step ST6 the vehicle control system 100 continues automatic driving. Since the lane change has been successful, the automatic driving control unit 112 of the vehicle control system 100 continues the automatic driving.
  • step ST7 the vehicle control system 100 switches to manual operation. Since the automatic driving control unit 112 of the vehicle control system 100 cannot automatically change lanes, the automatic driving is switched to manual driving.
  • the automatic driving control unit 112 can detect the approach space based on the speed of the vehicle traveling in the adjacent lane, it is possible to improve the convenience of driving at the time of merging operation. In addition, if the lane change is automatically performed according to the detection result of the approach space, a smooth merging operation becomes possible.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program that records the processing sequence is installed in the memory in the computer embedded in the dedicated hardware and executed.
  • the program can be pre-recorded on a hard disk as a recording medium, SSD (Solid State Drive), or ROM (Read Only Memory).
  • the program is a flexible disk, CD-ROM (Compact Disc Read Only Memory), MO (Magneto optical) disk, DVD (Digital Versatile Disc), BD (Blu-Ray Disc (registered trademark)), magnetic disk, semiconductor memory card. It can be temporarily or permanently stored (recorded) on a removable recording medium such as.
  • a removable recording medium can be provided as so-called package software.
  • the program may be transferred from the download site to the computer wirelessly or by wire via a network such as LAN (Local Area Network) or the Internet.
  • the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • the information processing device of the present technology can have the following configurations.
  • Movement information is generated by detecting the movement of a first moving body traveling adjacently in an adjacent traveling lane and the movement of a second moving body located in front of or behind the first moving body.
  • a situation analysis unit that determines an approach space in the adjacent traveling lane based on the movement information of the first moving body and the moving information of the second moving body.
  • the detection unit generates movement information of the first moving body based on the captured image showing the first moving body, and reaches the captured image showing the second moving body or the second moving body.
  • An information processing device that generates movement information of the second moving body based on the distance of.
  • the information processing device (2) The information processing device according to (1), wherein the movement information of the first moving body and the second moving body indicates a traveling speed.
  • the situation analysis unit determines that when the second moving body is located in front of the first moving body, the traveling speed of the second moving body is faster than that of the first moving body. When it is determined that the approach space is generated in front of the first moving body and the second moving body is located behind the first moving body, the second moving body is more than the first moving body.
  • the information processing apparatus according to (2), wherein it is determined that the approach space is generated behind the first moving body when the traveling speed of the moving body is slow.
  • each moving body is further between a predetermined number of subsequent moving bodies.
  • the information processing apparatus according to (6) which determines the approach space based on the movement information of the above.
  • the information processing apparatus according to (1) to (7) further including a planning unit that plans a lane change according to a determination result of an approach space of the situation analysis unit.
  • the planning unit calculates a lane change cost for each traveling lane and determines an approach space in the selected traveling lane based on the lane change cost (8).
  • the information processing device according to any one of (11) to (13), wherein the information regarding the movement to the approach space is information to be notified after the completion of the lane change to the approach space.
  • the information processing apparatus according to any one of (1) to (14), further comprising an operation control unit that controls the operation of the lane change planned by the planning unit.
  • Vehicle control system 101 Input unit 102: Data acquisition unit 103: Communication unit 104: In-vehicle equipment 105: Output control unit 106: Output unit 107: Drive System control unit 108 ⁇ ⁇ ⁇ Drive system system 109 ⁇ ⁇ ⁇ Body system control unit 110 ⁇ ⁇ ⁇ Body system system 111 ⁇ ⁇ ⁇ Storage unit 112 ⁇ ⁇ ⁇ Automatic operation control unit 121 ⁇ ⁇ ⁇ Communication network 131 ⁇ ⁇ ⁇ Detection Unit 132: Self-position estimation unit 133: Situation analysis unit 134: Planning unit 135: Motion control unit 141: External information detection unit 142: In-vehicle information detection unit 143: Vehicle State detection unit 151 ... Map analysis unit 152 ...
  • Traffic rule recognition unit 153 ... Situation recognition unit 154 ... Situation prediction unit 161 ... Route planning unit 162 ; Action planning unit 163 ... Operation planning unit 171 ... Emergency avoidance unit 172 ... Acceleration / deceleration control unit 173 ... Direction control unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

状況分析部133は、隣接する走行車線を隣接して走行する第1の移動体の移動情報と、第1の移動体の前方または後方に位置する第2の移動体の移動情報に基づき、隣接する走行車線に進入スペースが生じるか判別する。検出部131は、第1の移動体を示す所定時間間隔で取得された撮像画像に基づいて検出した例えばタイヤのサイズと回転量に基づき第1の移動体の走行速度を示す移動情報を生成して、第2の移動体を示す所定時間間隔で取得された撮像画像または第2の移動体までの距離に基づいて第2の移動体の走行速度を示す移動情報を生成する。計画部134は、進入スペースの判別結果等に基づき車線変更を計画して、動作制御部135は、計画された車線変更の動作制御を行う。合流動作時における運転の利便性を向上できるようになる。

Description

情報処理装置と情報処理方法およびプログラム
 この技術は、情報処理装置と情報処理方法およびプログラムに関し、合流動作時における運転の利便性を向上可能とする。
 近年、車載システムが周囲の状況等を判別して、車両の加速、操舵、制動の全てを自動的に行う自動運転の開発が進めされている。また、自動運転では、車載システムから要請があった場合に手動運転に切り替えることが行われている。例えば特許文献1では、渋滞中の合流地点を走行する場合、進入空間が存在しない場合には手動運転に切り替えることが行われている。
特開2018-077565号公報
 ところで、走行車両が少ないときは、合流動作時に進入空間が存在しない場合が少ない。しかし、走行車両が多くなると、車両間隔が狭くなり進入空間が存在しない場合が多くなる。したがって、特許文献1のように、進入空間が存在しない場合に手動運転への切り替えが行われると、混雑時に手動運転を行う頻度が高くなり、運転の利便性が低下するおそれがある。
 そこで、この技術では合流動作時における運転の利便性を向上可能とする情報処理装置と情報処理方法およびプログラムを提供することを目的とする。
 この技術の第1の側面は、
 隣接する走行車線を隣接して走行する第1の移動体の動きと前記第1の移動体の前方または後方に位置する第2の移動体の動きを検出して移動情報を生成する検出部と、
 前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、前記隣接する走行車線における進入スペースを判別する状況分析部と、
を備え、
 前記検出部は、前記第1の移動体を示す撮像画像に基づいて前記第1の移動体の移動情報を生成して、前記第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の移動情報を生成する
情報処理装置にある。
 この技術においては、隣接する走行車線を隣接して走行する第1の移動体の例えば走行速度と、第1の移動体の前方または後方に位置する第2の移動体の例えば走行速度に基づき、隣接する走行車線に進入スペースが生じるか状況分析部で判別する。
 状況分析部は、第2の移動体が第1の移動体の前方に位置する場合、第1の移動体よりも第2の移動体の走行速度が速いときに進入スペースが第1の移動体の前方に生じると判別して、第2の移動体が第1の移動体の後方に位置する場合、第1の移動体よりも第2の移動体の走行速度が遅いときに進入スペースが第1の移動体の後方に生じると判別する。
 また、第1の移動体と第2の移動体の動きを検出して移動情報を生成する検出部をさらに備え、検出部は、第1の移動体を示す所定時間間隔で取得された撮像画像に基づいて第1の移動体の例えば走行速度を算出して、第2の移動体を示す所定時間間隔で取得された撮像画像または第2の移動体までの距離に基づいて第2の移動体の走行速度を算出する。検出部は、例えば撮像画像に基づき移動体のタイヤのサイズを判別して、所定時間間隔におけるタイヤの回転量と判別したタイヤのサイズに基づき走行速度を検出する。
 また、状況分析部は、検出部で車線変更を行う前方領域の観測ができない場合、第1の移動体の移動情報と、第1の移動体の後方に位置する第2の移動体の移動情報に基づき、進入スペースを判別する。さらに、状況分析部は、第1の移動体と第2の移動体の移動情報に基づいて進入スペースを判別できない場合、さらに後続する所定数の移動体間で、各移動体の移動情報に基づき進入スペースを判別する。
 計画部は、状況分析部の進入スペースの判別結果を用いて車線変更を計画する。例えば計画部は、隣接する走行車線が複数である場合、各走行車線について車線変更コストを算出する。車線変更コストは、隣接する走行車線の混雑状況、または混雑状況と走行車線の先方状況に基づいて算出する。計画部は、車線変更コストに基づいて変更経路を選択して、選択した変更経路において状況分析部で判別した進入スペースへの車線変更を計画して、動作制御部は、計画された車線変更の動作制御を行う。
 さらに、状況分析部で判別された進入スペースへの移動に関する情報を、進入スペースの後方に位置する移動体で認識可能に表示する出力部を設けてもよい。出力部は、進入スペースへの移動に関する情報として、進入スペースへ車線変更を行うことを示す情報を進入スペースの前方に位置する移動体の後部、または進入スペースに投影する。また、出力部は、進入スペースへの移動に関する情報として、進入スペースへの車線変更完了後に通知する情報を出力する。
 この技術の第2の側面は、
 隣接する走行車線を隣接して走行する第1の移動体を示す撮像画像に基づき前記第1の移動体の動きを検出して前記第1の移動体の移動情報を生成し、前記第1の移動体の前方または後方に位置する第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の動きを検出して前記第2の移動体の移動情報を検出部で生成することと、
 前記検出部で生成された前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、状況分析部で前記隣接する走行車線における進入スペースを判別すること
を含む情報処理方法にある。
 この技術の第3の側面は、
 車線変更制御をコンピュータで実行させるプログラムであって、
 車線変更制御をコンピュータで実行させるプログラムであって、
 隣接する走行車線を隣接して走行する第1の移動体を示す撮像画像に基づき前記第1の移動体の動きを検出して前記第1の移動体の移動情報を生成する手順と、
 前記第1の移動体の前方または後方に位置する第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の動きを検出して前記第2の移動体の移動情報を生成する手順と、
 前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、前記隣接する走行車線における進入スペースを判別する手順と
を前記コンピュータで実行させるプログラムにある。
 なお、本技術のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ上でプログラムに応じた処理が実現される。
車両制御システムの概略的な機能の構成例を示す図である。 車線変更動作を例示したフローチャートである。 車線変更の経路計画を例示したフローチャートである。 ルート情報に基づいて候補経路のコストを設定する場合を例示した図である。 車線変更を例示したフローチャートである。 車線変更制御動作を例示したフローチャートである。 タイヤ径の算出を説明するための図である。 タイヤのホイールが4つのボルトで固定されている場合の速度計測を説明するための図である。 並走車両の前方に生じた進入スペースへの車線変更動作を例示した図である。 車線変更通知の表示例を示した図である。 並走車両の後方に生じた進入スペースへの車線変更動作を例示した図である。 車線変更成功通知を例示した図である。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.実施の形態の構成
 2.実施の形態の動作
 <1.実施の形態の構成>
 図1は、実施の形態の構成として、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示している。なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。
 入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。また、以下の説明では、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略している。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル,ボタン,レバー等のように手動操作が行われる操作デバイスや、音声やジェスチャ等で入力可能な操作デバイス等が設けられている。また、入力部は、リモートコントロール装置やモバイル機器若しくはウェアラブル機器等の外部接続機器等を用いてデータや指示等を入力できる構成であってもよい。入力部101は、入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを車両制御システム100の各部に供給する。データ取得部102は、自車両の外部の状況を検出するためのセンサ、自車両の状態等を検出するためのセンサ、自車両の現在位置を検出するためのセンサ、車内の情報を検出するためのセンサ等を有している。
 データ取得部102は、自車両の外部の状況を検出するためのセンサとして、例えばToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ等の撮像装置、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)等の測距装置、天候又は気象等を検出するための環境センサ等を備える。
 また、データ取得部102は、自車両の状態等を検出するための各種のセンサとして、例えばジャイロセンサ、加速度センサ、慣性計測装置(IMU)、アクセルやブレーキの操作量、操舵角、エンジンやモータの回転数若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、データ取得部102は、自車両の現在位置を検出するためのセンサとして、例えばGNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 さらに、データ取得部102は、車内の状況を検出するためのセンサとして、例えば搭乗者を撮像する撮像装置、搭乗者の生体情報を検出する生体センサ、車内の音声を集音するマイクロフォン等を備える。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。通信部103は、車内機器104と無線通信または有線通信を行う。また、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信、自車両の近傍に存在する端末との通信、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車両と家との間(Vehicle to Home)の通信、歩車間(Vehicle to Pedestrian)通信等を行う。また、通信部103は、道路上に設置された無線局等からのビーコン信号を受信する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車両に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、出力部106から車外または自車両の搭乗者に対する情報の出力を制御する。出力制御部105は、視覚情報及び聴覚情報の少なくとも1つを含む出力信号を生成して、出力部106に供給する。例えば、出力制御部105は、後述する計画部134で車線変更が計画されたとき、進入スペースへの自車両の移動が行われることを進入スペースの後方に位置する車両で判別可能とする視覚情報を出力する。また、計画部134で計画された車線変更の完了に応じた通知を示す視覚情報を出力する。
 また、出力制御部105は、データ取得部102で取得した情報を自車両の搭乗者に示すための視覚情報や聴覚情報、例えば周囲の状況を示す視覚情報や衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む聴覚情報を出力部106へ出力する。
 出力部106は、車外または自車両の搭乗者に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置(例えば車外に視覚情報と投射するプロジェクタや車外から視認可能なディスプレイ、搭乗者の視野内に設けられているインストルメントパネルやヘッドアップディスプレイ、搭乗者が装着する眼鏡型ディスプレイ等)や音声出力装置(スピーカ、ヘッドホン等)を備えている。出力部106は、出力制御部105から供給された視覚情報や聴覚情報の出力を行う。例えば、出力部106は、後述するように、進入スペースへの移動に関する情報を、進入スペースの後方に位置する車両で認識可能に表示する。
 駆動系制御部107は、各種の制御信号を生成して、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車両の駆動系に関わる各種の装置を備える。駆動系システム108は、自車両を駆動するための駆動力を発生させる駆動力発生装置、駆動力を車輪に伝達する駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、高精度地図、高精度地図より精度が低く広いエリアをカバーするグローバルマップ、自車両の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。例えば、自動運転制御部112は、自車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車両の衝突警告、又は、自車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御や、搭乗者の運転操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。
 自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。例えば、検出部131は、自車両の走行車線に隣接する走行車線を隣接して走行する並走車両(第1の移動体)と、並走車両の前方または後方に位置する車両(第2の移動体)の動きを検出して移動情報を生成する。検出部131は、31は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車両の外部の状況の検出処理を行う。例えば、車外情報検出部141は、データ取得部102に設けられた自車両の外部の状況を検出するためのセンサで取得された情報等に基づき、自車両の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離や速度の検出処理を行う。検出対象の物体としては、例えば自車両の走行車線に隣接する車線を走行する並走車両、並走車両の前方に位置する車両(「前方隣接車両」という)または並走車両の後方に位置する車両(「後方隣接車両」という)、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、車外情報検出部141は、自車両の周囲の環境、例えば天候、気温、湿度、明るさ、及び、路面の状態等を検出する。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133、動作制御部135等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、データ取得部102に設けられた車内の状況を検出するためのセンサで取得された情報等に基づき、搭乗者の認証処理及び認識処理、搭乗者の状態の検出処理、車内環境の検出処理等を行う。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133、動作制御部135等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車両の状態の検出処理を行う。例えば、車両状態検出部143は、データ取得部102に設けられた自車両の状態を検出するためのセンサで取得された情報に基づき、自車両の速度、加速度、舵角、異常の有無及び内容、運転操作の状態、車載機器の状態等を検出する。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133や動作制御部135等に供給する。
 自己位置推定部132は、車外情報検出部141の検出結果や状況分析部133の状況認識結果に基づいて、自車両の位置及び姿勢等の推定処理を行う。自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えばSLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車両及び周囲の状況の分析処理を行う。例えば状況分析部133は、検出部131で生成された移動情報に基づき、隣接する走行車線を隣接して走行する並走車両の移動情報と、前方隣接車両または後方隣接車両の移動情報に基づき、隣接する走行車線における進入スペースを判別する。例えば、状況分析部133は検出部131で検出した各車両の速度に基づき進入スペースを判別する。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車両の周囲の交通ルールの認識処理を行い、例えば自車両の周囲の信号の位置及び状態、自車両の周囲の交通規制の内容、走行可能な車線等を認識する。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車両に関する状況の認識処理を行う。認識処理では、自車両の状況、自車両の周囲の状況、例えば隣接する走行車線における進入スペースの状況、及び自車両の搭乗者の状況等の認識を行う。また、状況認識部153は、必要に応じて、自車両の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車両に関する状況の予測処理を行う。例えば、状況予測部154は、自車両の状況、自車両の周囲の状況等の予測処理を行う。予測対象となる自車両の状況には、例えば、自車両の挙動、異常の発生、及び、走行可能距離、走行車線の車線変更等が含まれる。予測対象となる自車両の周囲の状況には、例えば自車両が走行する走行車線に隣接する車線を走行する車両の挙動が含まれる。また、自車両の周囲の状況には、信号の状態の変化、天候等の環境の変化等が含まれてもよい。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 計画部134は、状況分析部133の分析結果を用いて自車両の走行に関する計画、例えば状況分析部133の進入スペースの判別結果に応じた車線変更の計画を行う。計画部134はルート計画部161と行動計画部162と動作計画部163を備えている。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、ルート計画部161は、渋滞、事故、通行規制、工事等の状況等に基づいて、車線変更のルートを計画する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車両の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、車線変更、追い越し等の計画を行う。行動計画部162は、計画した自車両の行動を示すデータを動作計画部163等に供給する。
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車両の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車両の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車両の動作の制御、例えば状況分析部133で判別された進入スペースへの車線変更制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、搭乗者や車両の異常等の緊急事態の検出処理を行い、緊急事態の発生を検出した場合、緊急事態を回避するための自車両の動作を計画する。緊急事態回避部171は、計画した自車両の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車両の動作を実現するための加減速制御を行い、加減速制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車両の動作を実現するための方向制御を行い、方向制御指令を駆動系制御部107に供給する。
 <2.実施の形態の動作>
 本技術を適用した車両制御システムでは、自車両の走行する走行車線に隣接する走行車線を隣接して走行する並走車両(第1の移動体)の移動情報と、並走車両の前方または後方に位置する車両(第2の移動体)の移動情報に基づき、隣接する走行車線における進入スペースを判別する。さらに、進入スペースの判別結果に応じて計画された行動を自車両で行うようにする。
 図2は、車線変更動作を例示したフローチャートであり、自車両では例えば自動運転が行われている。
 ステップST1で車両制御システム100は車線変更が必要か判別する。車両制御システム100の自動運転制御部112は、計画された走行ルートおよび渋滞や事故,工事等による通行規制情報等に基づき、車線変更が必要であるか判別する。車両制御システム100は、自車両の走行車線の通行が規制される場合、車線変更が必要と判別してステップST2に進み、車線変更が必要ないと判別した場合にステップST6に進む。
 ステップST2で車両制御システム100は車線変更の経路計画を行う。図3は、車線変更の経路計画を例示したフローチャートである。ステップST11で車両制御システム100は候補経路を検出する。車両制御システム100の自動運転制御部112は、状況分析部133で得られたマップ解析結果と自車両の状況等の予測結果に基づき、車線変更を行うことで走行可能な候補経路を検出する。例えば、計画部134は、複数車線の道路における端の車線を走行している場合において、右または左に隣接している走行車線の通行が規制されていない場合は、隣接車線を候補経路とする。また、3車線以上の道路における端の車線でない車線を走行している場合において、右および左に隣接している走行車線の通行が規制されていない場合は、右および左に隣接している走行車線を候補経路とする。自動運転制御部112は、候補経路を検出してステップST12に進む。
 ステップST12で車両制御システム100は失敗していない候補経路があるか判別する。車両制御システム100の自動運転制御部112は、後述する車線変更が行われて車線変更が失敗した候補経路と異なる候補経路があるか判別する。例えば、計画部134は、複数車線の道路における端の車線を走行している場合、隣接する車線への車線変更が失敗している場合は、失敗した候補経路と異なる候補経路がない判別する。また、3車線以上の道路における端の車線でない車線を走行している場合、右または左の一方に隣接している走行車線への車線変更が失敗しており、他方に隣接する走行車線への車線変更が行われていない場合は、失敗した候補経路と異なる候補経路があると判別する。さらに、右および左に隣接する車線への車線変更が失敗している場合は、失敗した候補経路と異なる候補経路がないと判別する。車両制御システム100の自動運転制御部112は、失敗していない候補経路があると判別した場合はステップST13に進み、失敗していない候補経路がないと判別した場合はステップST19に進む。また、複数車線の道路を走行している場合、車線変更を行う前では、失敗していない候補経路があると判別してステップST13に進む。
 ステップST13で車両制御システム100は候補経路が複数であるか判別する。車両制御システム100の自動運転制御部112は、上述のように右および左に隣接する走行車線が失敗していない候補経路である場合はステップST14に進み、複数車線の道路における端の車線を走行して右または左に隣接している走行車線のみが候補経路である場合はステップST15に進む。
 ステップST14で車両制御システム100は候補経路から変更経路を選択する。車両制御システム100の自動運転制御部112は、候補経路毎に車線変更コストを算出して、算出した車線変更コストに基づき複数の候補経路からいずれかを変更経路として計画部134で選択する。コストは、渋滞情報、データ取得で取得されたデータに基づく情報、目的地までのルート情報等に基づいて判別する。例えば渋滞情報で混雑していることが示された候補経路のコストは高くする。また、データ取得で取得されたデータ(例えばLiderの測距結果や撮像画像)に基づき判別した候補経路を走行する車両の速度が遅くなるに伴い候補経路のコストは高くする。また、ルート情報に基づき候補経路のコストを設定してもよい。
 図4は、ルート情報に基づいて候補経路のコストを設定する場合を例示している。ルート情報では、矢印FAの走行が計画されている。ここで、混雑状況に応じて候補経路を選択すると、右車線が候補経路として選択される。しかし、左車線への車線変更を行うと、矢印FBの方向に進んでしまい、分岐点の直前で矢印FAの方向に車線変更が必要となってしまう。したがって、計画されているルートから外れる右車線のコストを高くして、計画されているルートである右車線のコストを低くする。自動運転制御部112は、渋滞情報、データ取得で取得されたデータに基づく情報、目的地までのルート情報等に基づいたコストを候補経路毎に加算して車線変更コストを算出して、車線変更コストが最も小さい候補経路を選択してステップST16に進む。
 ステップST15で車両制御システム100は候補経路を変更経路に設定する。車両制御システム100の自動運転制御部112は、経路候補が1つであることから候補経路を変更経路に設定してステップST16に進む。
 ステップST16で車両制御システム100は変更経路が右車線であるか判別する。車両制御システム100の自動運転制御部112は、変更経路が自車両の右車線である場合はステップST17に進み、左車線である場合はステップST18に進む。
 ステップST17で車両制御システム100は右車線への経路を計画する。車両制御システム100の自動運転制御部112は、変更経路である右車線へ自車両を移動する経路計画を行い、図2のステップST3へ進む。
 ステップST18で車両制御システム100は左車線への経路を計画する。車両制御システム100の自動運転制御部112は、変更経路である左車線へ自車両を移動する経路計画を行い、図2のステップST3へ進む。
 ステップST12からステップST19に進むと、車両制御システム100は経路計画の失敗とする。車両制御システム100の自動運転制御部112は、候補経路がないことから経路計画は失敗したとして図2のステップST3へ進む。
 図2に戻り、ステップST3で車両制御システム100は経路計画が成功したか判別する。車両制御システム100の自動運転制御部112は、ステップST2で右車線または左車線へ自車両を移動する経路が計画部134で計画された場合は経路計画の成功と判別してステップST4に進み、ステップST2で経路計画の失敗と判別されている場合はステップST7に進む。
 ステップST4で車両制御システム100は車線変更を行う。車両制御システム100の自動運転制御部112は、自車両をステップST2で設定された右車線または左車線の変更経路における進入スペースへの車線変更を行う。図5は車線変更を例示したフローチャートである。
 ステップST21で車両制御システム100は車線変更の領域が観測可能であるか判別する。車両制御システム100の自動運転制御部112は、データ取得部102で取得されたデータを用いて検出部131で検出された車外情報に基づき、車線変更を行う前方領域の観測が可能であると判別した場合、例えば車線変更を行う前方領域の撮像画像や測距結果が得られている場合はステップST22に進む。また、車線変更を行う前方領域の撮像画像や測距結果が得られていない場合は、観測が可能でないと判別してステップST24に進む。
 ステップST22で車両制御システム100は並走車両前方への車線変更制御を行う。図6は車線変更制御動作を例示したフローチャートである。
 ステップST31で車両制御システム100は観測処理を行う。車両制御システムの検出部131は、データ取得部102で取得したデータに基づき、自車両の前方に位置する前方車両と後方に位置する後方車両、隣接する変更車線を並走する並走車両および前方隣接車両と後方隣接車両を観測する。検出部131は、例えば、観測対象である各車両の速度を観測してステップST32に進む。
 並走車両の速度は、撮像画像に含まれる車両の画像変位量に基づいて計測する。例えば、検出部131は、画像変位量としてタイヤの回転角度を観測することにより速度を計測する。
 検出部131の車外情報検出部141は、データ取得部102で取得された撮像画像を用いて被写体認識を行い、例えば並走車両のタイヤを検出する。なお、被写体認識で路面を検出すれば、タイヤの検出が容易となる。また、車外情報検出部141は、データ取得部102のLider等によって計測された並走車両までの測距結果を用いて、タイヤの径を算出する。
 図7はタイヤ径の算出を説明するための図である。データ取得部102の撮像部の画角が角度θであり、水平方向を画素数Iwとする。また、撮像部20とタイヤOBの間隔は距離dである。この場合、タイヤの位置において、水平方向の1画素間隔に対応する水平方向のサイズXpは式(1)に基づいて算出できる。
Figure JPOXMLDOC01-appb-M000001
 したがって、タイヤの直径に相当する画素数を撮像画像から検出すれば、タイヤOBの径LMを算出できる。
 また、所定時間後に取得された撮像画像を用いて被写体認識を行いタイヤを検出して、所定時間に生じたタイヤの回転角度を算出する。タイヤの回転角度の検出は、タイヤ画像における特徴点を利用して行う。例えばタイヤのホイールは、4つまたは5つのボルトで固定されていることが多い。図8は、タイヤのホイールが4つのボルトで固定されている場合の速度計測を説明するための図である。車外情報検出部141は、特徴点として4つのボルトを利用して並走車両の速度を検出する。図8の(a)は、時点t1におけるタイヤの画像を示しており、図8の(b)と(c)は時点t1から1フレーム期間が経過したときのタイヤの画像を例示している。この場合、図8の(b)に示すように回転角度αが90度以上となると、回転角度α(≧90度)と回転角度(α-90)でボルトの位置が等しくなり、回転角度が「α」であるか「α-90」であるか区別できない。すなわち、図8の(c)に示すように、所定時間に生じたタイヤの回転角度が90度よりも小さければ、回転角度αを利用して速度を正しく計測できる。例えば、撮像画像のフレームレートが60フレーム/秒であり、タイヤが15インチ(外周が約120cm)である場合、回転角度α=90度のときは並走車両の速度が64.8Km/hとなる。したがって、並走車両の速度が64.8Km/hよりも遅ければ速度を計測することが可能であり、回転角度α(<90度)の時の速度は((α/90)×64.8)Km/hとなる。このように、並走車両の撮像画像に基づき並走車両の速度を計測できる。
 また、速度の計測は、タイヤの回転角度に限らず車両の特徴点の走行方向の動き量に基づいて行ってもよい。例えば並走車両の特徴点までの距離を算出すれば、上述の式(1)に基づき、撮像画像における水平方向の1画素の間隔が、距離dの位置においてどの程度の距離に相当するか明らかとなる。したがって、所定フレーム数期間において、並走車両の特徴点が水平方向に移動した画素数を検出すれば、自車両に対する並走車両の相対速度を検出できる。また、自車両の速度を用いることで並走車両の速度を検出できる。
 さらに、観測対象の速度の観測は、デプスセンサからのセンサ信号を利用してもよい。デプスセンサを用いれば、前方隣接車両や後方隣接車両までの距離の変化が明らかとなり、自車両に対する前方隣接車両や後方隣接車両の相対速度を計測できる。また、自車両の速度を用いることで前方隣接車両や後方隣接車両の速度を検出できる。
 また、観測対象の速度の計測は、通信部103による基地局又はアクセスポイントを介した外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信、自車両の近傍に存在する端末との通信、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、道路上に設置された無線局等からのビーコン信号の受信等を利用してもよい。観測対象と通信をすることにより、観測対象自身から観測対象の速度や経路計画を受信することが可能になる。
 ステップST32で車両制御システム100は進入スペース判別処理を行う。車両制御システムの状況分析部133は、ステップST31の観測処理の観測結果に基づき進入スペースが生じるか判別する。状況分析部133は、前方隣接車両の速度が並走車両の速度よりも速い場合は進入スペースが生じると判別して、前方隣接車両の速度が並走車両の速度以下である場合は、進入スペースが生じていないと判別してステップST33に進む。
 ステップST33で車両制御システム100は判別結果に応じた動作を行う。車両制御システムの計画部134は、ステップST32で進入スペースが生じると判別された場合に車線変更を計画して、動作制御部135は、進入スペースへの車線変更の動作制御を行う。図9は、並走車両の前方に生じた進入スペースへの車線変更動作を例示している。なお、図9および後述する図11において、黒色の矢印は車両の速度を示しており、矢印の長さが短いと低速で長いと高速である。
 例えば時点t1で並走車両の速度Vpよりも前方隣接車両の速度Vfが速いと、その後の時点t2で並走車両と前方隣接車両との間に進入スペースが生じることから、この進入スペースを利用して車線変更を行う。
 また、自動運転制御部112は、進入スペースへの車線変更において、進入スペースへの移動に関する情報を、進入スペースの後方に位置する車両で認識可能に出力部106によって表示する。進入スペースへの移動に関する情報は、例えば進入スペースへ車線変更を行うことを示す車線変更通知である。図10は、車線変更通知の表示例を示している。車線変更通知は、進入スペースの後方に位置する車両から視認可能な位置であれば、何れの位置に表示してもよい。例えば、図10の(a)に示すように、進入スペースの前を走行している進入スペースの前方に位置する車両の後部に車線変更通知を投影する。また、図10の(b)に示すように、進入スペースの路面に車線変更通知を投影してもよい。さらに、図10の(c)に示すように、自車両の進入スペース側の側面に、車線変更通知を表示してもよい。車線変更通知は、図10の(a)に示すような文字表示であってもよく、図10の(b)に示すような識別マーク等であってもよい。また、自車に設けた表示部で所定の点灯パターン表示を行ってもよい。また、並走車両との車車間通信が可能であれば、自車両から車線変更通知を示す無線信号を並走車両に送信して、自車両の車線変更通知を並走車両で表示してもよい。
 計画部134は、ステップST32で進入スペースが生じていないと判定された場合、進入スペースへの車線変更動作を行わないようにする。また、車線変更の動作中である場合、動作制御部135は、計画部134からの指示に基づき車線変更動作を中止して車線変更前の走行車線に戻る動作制御を行いステップST34に進む。
 ステップST34で車両制御システム100は動作が完了したか判別する。車両制御システムの状況分析部133は、進入スペースを利用した車線変更動作が完了していないと判別した場合はステップST31に戻り、完了したと判別した場合ステップST35に進む。すなわち、ステップST31からステップST34の処理を繰り返して動作が完了した場合、並走車両前方に進入スペースが生じているときは進入スペースに車両が順次移動されて車線変更が完了する。また、並走車両前方に進入スペースが生じて車線変更が開始されたのち、進入スペースが無くなるときは、変更途中の位置から元の車線へ復帰する。また、並走車両前方に進入スペースが生じないときは、車線変更が開始されることなく現在の車線に維持される。
 ステップST35で車両制御システム100は車線変更が完了したか判別する。車両制御システムの状況分析部133は、進入スペースを利用した車線変更動作が完了していないと判別した場合はステップST36に進み、完了したと判別した場合には図5のステップST23に進む。
 ステップST36で車両制御システム100は車線変更を繰り返したか判別する。車両制御システム100の自動運転制御部112は、車線変更すなわちステップST31からステップST35までの処理が所定回数あるいは所定期間繰り返されていない場合はステップST31に戻り、所定回数あるいは所定期間繰り返されている場合は図5のステップST23に進む。
 図5に戻り、ステップST23で車両制御システム100は車線変更が成功しているか判別する。車両制御システム100の自動運転制御部112は、車線変更が成功しているか判別する。自動運転制御部112は、ステップST22で車線変更が完了した場合、並走車両前方に車線変更が成功していると判別してステップST26に進む。また、自動運転制御部112は、ステップST22で車線変更が完了していない場合、すなわち車線変更を所定回数あるいは所定期間繰り返しても、車線変更の途中で並走車両前方の進入スペースが無くなり車線変更を完了できない場合、あるいは並走車両前方に進入スペースが生じないため車線変更を行うことができない場合、車線変更が成功していないと判別してステップST24に進む。
 ステップST24で車両制御システム100は並走車両後方への車線変更制御を行う。車線変更制御は、図6に示すフローチャートと同様な動作を行い、並走者の後方の進入スペースに自車両を移動させる変更動作を行う。
 すなわち、図6のステップST31で車両制御システム100は観測処理を行う。検出部131は、データ取得部102で取得したデータに基づき、並走車両および後方隣接車両の速度を計測してステップST32に進む。
 ステップST32で車両制御システム100は進入スペースの判断処理を行う。車両制御システム100の自動運転制御部112は、ステップST31の観測処理の処理結果に基づき進入スペースが生じるか判別する。自動運転制御部112は後方隣接車両の速度が並走車両の速度よりも遅い場合は進入スペースが生じると判別して、候補隣接車両の速度が並走車両の速度以上である場合は、進入スペースが生じていないと判別してステップST33に進む。
 ステップST33で車両制御システム100は判別結果に応じた動作を行う。車両制御システムの計画部134は、ステップST32で進入スペースが生じると判別された場合に車線変更を計画して、動作制御部135は、進入スペースへの車線変更の動作制御を行う。図11は、並走車両の後方に生じた進入スペースへの車線変更動作を例示している。例えば時点t11で並走車両の速度Vpよりも後方隣接の速度Vbが速いと、その後の時点t12で並走車両と後方隣接車両との間に進入スペースが生じることから、この進入スペースを利用して車線変更を行う。
 また、自動運転制御部112は、上述した並走車両前方への車線変更と同様に、進入スペースへの車線変更において、進入スペースへの移動に関する情報を、進入スペースの後方に位置する車両で認識可能に出力部106によって表示する。
 動作制御部135は、ステップST32で進入スペースが生じていないと判定された場合、進入スペースへの車線変更動作を行わないようにする。また、車線変更の動作中である場合、車線変更動作を中止して車線変更前の走行車線に戻る動作制御を行いステップST34に進む。
 ステップST34で車両制御システム100は動作が完了したか判別する。車両制御システムの状況分析部133は、進入スペースを利用した車線変更動作が完了していないと判別した場合はステップST31に戻り、完了したと判別した場合ステップST35に進む。
 ステップST35で車両制御システム100は車線変更が完了したか判別する。車両制御システムの状況分析部133は、進入スペースを利用した車線変更動作が完了していないと判別した場合はステップST36に進み、完了したと判別した場合には図5のステップST25に進む。
 ステップST36で車両制御システム100は車線変更を繰り返したか判別する。車両制御システム100の自動運転制御部112は、車線変更すなわちステップST31からステップST35までの処理が所定回数あるいは所定期間繰り返されていない場合はステップST31に戻り、所定回数あるいは所定期間繰り返されている場合は図5のステップST25に進む。
 図5に戻り、ステップST25で車両制御システム100は車線変更が成功しているか判別する。車両制御システム100の自動運転制御部112は、車線変更が成功しているか判別する。自動運転制御部112は、ステップST24で車線変更が完了した場合、並走車両の後方に車線変更が成功していると判別してステップST26に進む。また、自動運転制御部112は、ステップST24で車線変更が完了していない場合、すなわち車線変更を所定回数あるいは所定期間繰り返しても、車線変更の途中で並走車両の後方に生じた進入スペースが無くなり車線変更を完了できない場合、あるいは並走車両の後方に進入スペースが生じないため車線変更を行うことができない場合、車線変更が成功していないと判別してステップST27に進む。
 ステップST26で車両制御システム100は車線変更成功通知を行う。車両制御システム100の自動運転制御部112は、進入スペースへの移動に関する情報として、車線変更の成功に対する通知を、進入スペースの後方に位置する車両で認識可能に表示する。
図12は、車線変更成功通知を例示している。自動運転制御部112は、例えば車線変更後の後方車両に対して、図12に示すように、車線変更に対する感謝を示す文字や識別マーク等を後方車両から視認可能な位置に表示する。自動運転制御部112は、車線変更成功通知を出力部106から出力させて図2のステップST5に進む。
 ステップST27で車両制御システム100は後方隣接車両が並走車両から所定台数よりも離れているか判別する。車両制御システム100の自動運転制御部112は、後方隣接車両が車線変更開始時の並走車両から所定台数範囲内の車両である場合はステップST28に進み、後方隣接車両が並走車両から所定台数よりも離れた車両である場合は車線変更が失敗したとして図2のステップST5に進む。
 ステップST28で車両制御システム100は進入スペース判別位置を後方へ移動する。車両制御システム100の自動運転制御部112は、進入スペースの判別位置をステップST24で判別した位置よりも後方とする。例えばステップST24で進入スペースの前方の車両が並走車両で、進入スペースの後方の車両が後方隣接車両である場合、この後方隣接車両を進入スペースの前方の車両に設定することで、進入スペースの判別位置を後方へ移動してステップST24に戻る。
 図2に戻り、ステップST5で車両制御システム100は線路計画が完了したか判別する。車両制御システム100の自動運転制御部112は、ステップST4で車線変更が成功した場合に線路計画の完了と判別してステップST6に進む。また、自動運転制御部112は、ステップST4で車線変更が成功していない場合、すなわち、車線変更開始時の並走車両の直前および並走車両から所定台数範囲内の車両までの各車両間で進入スペースの判別結果に応じて車線変更を試みても、車線変更が成功しない場合、線路計画が完了していないと判別してステップST2に戻り、新たな車線への車線変更の経路計画を行う。
 ステップST6で車両制御システム100は自動運転を継続する。車両制御システム100の自動運転制御部112は、車線変更が成功していることから、自動運転を継続する。
 ステップST3からステップST7に進むと車両制御システム100は手動運転に切り替える。車両制御システム100の自動運転制御部112は、車線変更を自動的に行えていないことから、自動運転を手動運転に切り替える。
 このように、自動運転制御部112は、隣接する車線を走行している車両の速度に基づき進入スペースを検出できることから、合流動作時における運転の利便性を向上させることが可能となる。また、進入スペースの検出結果に応じて車線変更を自動的に行うようにすれば、ズムーズな合流動作が可能となる。
 明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
 例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 また、本技術の情報処理装置は、以下のような構成も取ることができる。
 (1) 隣接する走行車線を隣接して走行する第1の移動体の動きと前記第1の移動体の前方または後方に位置する第2の移動体の動きを検出して移動情報を生成する検出部と、
 前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、前記隣接する走行車線における進入スペースを判別する状況分析部と、
を備え、
 前記検出部は、前記第1の移動体を示す撮像画像に基づいて前記第1の移動体の移動情報を生成して、前記第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の移動情報を生成する情報処理装置。
 (2) 前記第1の移動体と前記第2の移動体の移動情報は走行速度を示す(1)に記載の情報処理装置。
 (3) 前記状況分析部は、前記第2の移動体が前記第1の移動体の前方に位置する場合、前記第1の移動体よりも前記第2の移動体の走行速度が速いときに前記進入スペースが前記第1の移動体の前方に生じると判別して、前記第2の移動体が前記第1の移動体の後方に位置する場合、前記第1の移動体よりも前記第2の移動体の走行速度が遅いときに前記進入スペースが前記第1の移動体の後方に生じると判別する(2)に記載の情報処理装置。
 (4) 前記検出部は、所定時間間隔で取得された前記撮像画像における前記移動体の変位量に基づいて移動情報を生成する(1)乃至(3)の何れかに記載の情報処理装置。
 (5) 前記検出部は、前記撮像画像に基づき前記移動体のタイヤのサイズを判別して、前記所定時間間隔における前記タイヤの回転量と前記判別したタイヤのサイズに基づき走行速度を検出する(4)に記載の情報処理装置。
 (6) 前記状況分析部は、前記検出部で前記進入スペースを判別する前方領域の観測ができない場合、前記第1の移動体の移動情報と、前記第1の移動体の後方に位置する前記第2の移動体の移動情報に基づき、前記進入スペースを判別する(1)乃至(5)の何れかに記載の情報処理装置。
 (7) 前記状況分析部は、前記第1の移動体と前記第2の移動体の移動情報に基づいて前記進入スペースを判別できない場合、さらに後続する所定数の移動体間で、各移動体の移動情報に基づき前記進入スペースを判別する(6)に記載の情報処理装置。
 (8) 前記状況分析部の進入スペースの判別結果に応じて車線変更を計画する計画部をさらに備える(1)乃至(7)に記載の情報処理装置。
 (9) 前記計画部は、前記隣接する走行車線が複数である場合、各走行車線について車線変更コストを算出して、車線変更コストに基づいて選択した走行車線における進入スペースを判別する(8)に記載の情報処理装置。
 (10) 前記計画部は、少なくとも前記隣接する走行車線の混雑状況または走行車線の先方状況に基づいて前記車線変更コストを算出する(9)に記載の情報処理装置。
 (11) 前記状況分析部で判別された進入スペースへの移動に関する情報を、前記進入スペースの後方に位置する移動体で認識可能に表示する出力部をさらに備える(1)乃至(10)の何れかに記載の情報処理装置。
 (12) 前記進入スペースへの移動に関する情報は、前記進入スペースへ車線変更を行うことを示す情報である(11)に記載の情報処理装置。
 (13) 前記出力部は、前記進入スペースへ車線変更を行うことを示す情報を前記進入スペースの前方に位置する移動体の後部、または前記進入スペースに投影する(12)に記載の情報処理装置。
 (14) 前記進入スペースへの移動に関する情報は、前記進入スペースへの車線変更完了後に通知する情報である(11)乃至(13)の何れかに記載の情報処理装置。
 (15) 前記計画部で計画された車線変更の動作制御を行う動作制御部をさらに備える(1)乃至(14)の何れかに記載の情報処理装置。
 100・・・車両制御システム
 101・・・入力部
 102・・・データ取得部
 103・・・通信部
 104・・・車内機器
 105・・・出力制御部
 106・・・出力部
 107・・・駆動系制御部
 108・・・駆動系システム
 109・・・ボディ系制御部
 110・・・ボディ系システム
 111・・・記憶部
 112・・・自動運転制御部
 121・・・通信ネットワーク
 131・・・検出部
 132・・・自己位置推定部
 133・・・状況分析部
 134・・・計画部
 135・・・動作制御部
 141・・・車外情報検出部
 142・・・車内情報検出部
 143・・・車両状態検出部
 151・・・マップ解析部
 152・・・交通ルール認識部
 153・・・状況認識部
 154・・・状況予測部
 161・・・ルート計画部
 162・・・行動計画部
 163・・・動作計画部
 171・・・緊急事態回避部
 172・・・加減速制御部
 173・・・方向制御部

Claims (17)

  1.  隣接する走行車線を隣接して走行する第1の移動体の動きと前記第1の移動体の前方または後方に位置する第2の移動体の動きを検出して移動情報を生成する検出部と、
     前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、前記隣接する走行車線における進入スペースを判別する状況分析部と、
    を備え、
     前記検出部は、前記第1の移動体を示す撮像画像に基づいて前記第1の移動体の移動情報を生成して、前記第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の移動情報を生成する
    情報処理装置。
  2.  前記第1の移動体と前記第2の移動体の移動情報は走行速度を示す
    請求項1に記載の情報処理装置。
  3.  前記状況分析部は、前記第2の移動体が前記第1の移動体の前方に位置する場合、前記第1の移動体よりも前記第2の移動体の走行速度が速いときに前記進入スペースが前記第1の移動体の前方に生じると判別して、前記第2の移動体が前記第1の移動体の後方に位置する場合、前記第1の移動体よりも前記第2の移動体の走行速度が遅いときに前記進入スペースが前記第1の移動体の後方に生じると判別する
    請求項2に記載の情報処理装置。
  4.  前記検出部は、所定時間間隔で取得された前記撮像画像における前記移動体の変位量に基づいて移動情報を生成する
    請求項1に記載の情報処理装置。
  5.  前記検出部は、前記撮像画像に基づき前記移動体のタイヤのサイズを判別して、前記所定時間間隔における前記タイヤの回転量と前記判別したタイヤのサイズに基づき走行速度を検出する
    請求項4に記載の情報処理装置。
  6.  前記状況分析部は、前記検出部で前記進入スペースを判別する前方領域の観測ができない場合、前記第1の移動体の移動情報と、前記第1の移動体の後方に位置する前記第2の移動体の移動情報に基づき、前記進入スペースを判別する
    請求項1に記載の情報処理装置。
  7.  前記状況分析部は、前記第1の移動体と前記第2の移動体の移動情報に基づいて前記進入スペースを判別できない場合、さらに後続する所定数の移動体間で、各移動体の移動情報に基づき前記進入スペースを判別する
    請求項6に記載の情報処理装置。
  8.  前記状況分析部の進入スペースの判別結果に応じて車線変更を計画する計画部をさらに備える
    請求項1に記載の情報処理装置。
  9.  前記計画部は、前記隣接する走行車線が複数である場合、各走行車線について車線変更コストを算出して、車線変更コストに基づいて選択した走行車線における進入スペースへの車線変更を計画する
    請求項8に記載の情報処理装置。
  10.  前記計画部は、少なくとも前記隣接する走行車線の混雑状況または走行車線の先方状況に基づいて前記車線変更コストを算出する
    請求項9に記載の情報処理装置。
  11.  前記状況分析部で判別された進入スペースへの移動に関する情報を、前記進入スペースの後方に位置する移動体で認識可能に表示する出力部をさらに備える
    請求項1に記載の情報処理装置。
  12.  前記進入スペースへの移動に関する情報は、前記進入スペースへ車線変更を行うことを示す情報である
    請求項11に記載の情報処理装置。
  13.  前記出力部は、前記進入スペースへ車線変更を行うことを示す情報を前記進入スペースの前方に位置する移動体の後部、または前記進入スペースに投影する
    請求項12に記載の情報処理装置。
  14.  前記進入スペースへの移動に関する情報は、前記進入スペースへの車線変更完了後に通知する情報である
    請求項11に記載の情報処理装置。
  15.  前記計画部で計画された車線変更の動作制御を行う動作制御部をさらに備える
     請求項1に記載の情報処理装置。
  16.  隣接する走行車線を隣接して走行する第1の移動体を示す撮像画像に基づき前記第1の移動体の動きを検出して前記第1の移動体の移動情報を生成し、前記第1の移動体の前方または後方に位置する第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の動きを検出して前記第2の移動体の移動情報を検出部で生成することと、
     前記検出部で生成された前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、状況分析部で前記隣接する走行車線における進入スペースを判別すること
    を含む情報処理方法。
  17.  車線変更制御をコンピュータで実行させるプログラムであって、
     隣接する走行車線を隣接して走行する第1の移動体を示す撮像画像に基づき前記第1の移動体の動きを検出して前記第1の移動体の移動情報を生成する手順と、
     前記第1の移動体の前方または後方に位置する第2の移動体を示す撮像画像または前記第2の移動体までの距離に基づいて前記第2の移動体の動きを検出して前記第2の移動体の移動情報を生成する手順と、
     前記第1の移動体の移動情報と前記第2の移動体の移動情報に基づき、前記隣接する走行車線における進入スペースを判別する手順と
    を前記コンピュータで実行させるプログラム。
PCT/JP2020/015627 2019-06-25 2020-04-07 情報処理装置と情報処理方法およびプログラム WO2020261703A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-117126 2019-06-25
JP2019117126 2019-06-25

Publications (1)

Publication Number Publication Date
WO2020261703A1 true WO2020261703A1 (ja) 2020-12-30

Family

ID=74060567

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/015627 WO2020261703A1 (ja) 2019-06-25 2020-04-07 情報処理装置と情報処理方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2020261703A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151507A (ja) * 2006-11-21 2008-07-03 Aisin Aw Co Ltd 合流案内装置および合流案内方法
JP2009029203A (ja) * 2007-07-25 2009-02-12 Honda Motor Co Ltd 運転支援装置
JP2018206214A (ja) * 2017-06-07 2018-12-27 アルパイン株式会社 他車監視システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008151507A (ja) * 2006-11-21 2008-07-03 Aisin Aw Co Ltd 合流案内装置および合流案内方法
JP2009029203A (ja) * 2007-07-25 2009-02-12 Honda Motor Co Ltd 運転支援装置
JP2018206214A (ja) * 2017-06-07 2018-12-27 アルパイン株式会社 他車監視システム

Similar Documents

Publication Publication Date Title
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
US20200241549A1 (en) Information processing apparatus, moving apparatus, and method, and program
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
CN112309157B (zh) 图像显示装置
US20210027486A1 (en) Controller, control method, and program
US11377101B2 (en) Information processing apparatus, information processing method, and vehicle
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
WO2020241303A1 (ja) 自動走行制御装置、および自動走行制御システム、並びに自動走行制御方法
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
EP3836119A1 (en) Information processing device, mobile body, information processing method, and program
WO2022024803A1 (ja) 学習モデルの生成方法、情報処理装置、情報処理システム
WO2021153176A1 (ja) 自律移動装置、自律移動制御方法、並びにプログラム
US20240054793A1 (en) Information processing device, information processing method, and program
US20220343757A1 (en) Information processing apparatus, information processing system, and information processing method
CN115963785A (zh) 用于运载工具的方法、系统和设备以及存储介质
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
JP2022098397A (ja) 情報処理装置、および情報処理方法、並びにプログラム
KR102597917B1 (ko) 자율 주행 차량을 위한 음원 검출 및 위치 측정
EP4024365B1 (en) Audio logging for model training and onboard validation utilizing autonomous driving vehicle
WO2022158185A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
KR20180126224A (ko) 차량 주행 중 장애물 정보 제공 장치 및 방법
CN114763159A (zh) 利用自主驾驶车辆的自动音频数据标记
JP2020101960A (ja) 情報処理装置、情報処理方法及びプログラム
CN114026436B (zh) 图像处理装置、图像处理方法和程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20832155

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20832155

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP