WO2007102367A1 - 物体進路予測方法、装置、プログラム、および自動運転システム - Google Patents

物体進路予測方法、装置、プログラム、および自動運転システム Download PDF

Info

Publication number
WO2007102367A1
WO2007102367A1 PCT/JP2007/053760 JP2007053760W WO2007102367A1 WO 2007102367 A1 WO2007102367 A1 WO 2007102367A1 JP 2007053760 W JP2007053760 W JP 2007053760W WO 2007102367 A1 WO2007102367 A1 WO 2007102367A1
Authority
WO
WIPO (PCT)
Prior art keywords
interference
course
objects
trajectory
time
Prior art date
Application number
PCT/JP2007/053760
Other languages
English (en)
French (fr)
Inventor
Kazuaki Aso
Toshiki Kindo
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2006053878A external-priority patent/JP4211794B2/ja
Priority claimed from JP2006053879A external-priority patent/JP4396653B2/ja
Priority claimed from JP2006056874A external-priority patent/JP4353192B2/ja
Application filed by Toyota Jidosha Kabushiki Kaisha filed Critical Toyota Jidosha Kabushiki Kaisha
Priority to EP07715050.6A priority Critical patent/EP1990786B1/en
Priority to US12/224,176 priority patent/US8805601B2/en
Priority to CN2007800070159A priority patent/CN101395647B/zh
Publication of WO2007102367A1 publication Critical patent/WO2007102367A1/ja
Priority to US14/312,028 priority patent/US10102750B2/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle

Definitions

  • the present invention relates to a physical course prediction method, apparatus, program, and automatic driving system that predict the course of an object based on the position and internal state of the object.
  • the automatic driving technology of a moving body is a technology that automatically moves a moving body from a departure point to a destination when a destination is input.
  • this technology can reduce the route search technology by creating a map of the movement range in advance and predicting the effects of dynamic obstacles in advance.
  • automatic driving technology cannot be reduced to route search technology when the moving range of the moving body is wide, such as when the moving body is an automobile.
  • the wide range here refers to a range where the time t required to avoid dynamic obstacles and the time required to travel through the entire process are significantly different. For example, t is about several seconds. Whereas ⁇ is about several hours.
  • Non-Patent Document 1 A. Broadhurst, S. Baker, and T. Kanade, "Monte Carlo Road
  • Non-Patent Document 1 mainly focuses on predicting a course in which all objects constituting the system are safe, such prediction is performed. It is not clear whether the safety of a certain object (for example, own vehicle) is sufficiently secured.
  • Non-Patent Document 1 it is implicitly assumed that all objects behave in a manner that gives priority to safety.Therefore, as in the case where a certain object exhibits undesirable behavior for surrounding objects, It was unclear whether sufficient safety could be ensured even under circumstances that could occur.
  • the present invention has been made in view of the above, and provides an object course prediction method, apparatus, program, and automatic driving system capable of ensuring safety even in a situation that can actually occur.
  • the purpose is to provide.
  • an object course prediction method includes a computer having storage means for storing at least the position of an object and an internal state including the speed of the object.
  • a trajectory generation step that generates a change in position that can be taken with the passage of time as a trajectory in time and space that is composed of time and space; And a prediction step for performing accurate prediction.
  • the trajectory generation step is selected by an operation selection step of selecting an operation for the object from a plurality of operations and the operation selection step.
  • An object operation step for operating the selected operation for a predetermined time, and a position and an internal state of the object after operating the selected operation in the object operation step are control conditions relating to the control of the object and a movable area of the object
  • a determination step of determining whether or not a movement condition related to the condition is satisfied, and a series of processing from the operation selection step to the determination step is repeated until a locus generation time for generating a locus is reached.
  • the operation selection step selects an operation according to an operation selection probability assigned to each of the plurality of operations, and the determination As a result of the determination in the step, if the position and internal state of the object satisfy the control condition and the movement condition, the operation selection is advanced with time. It is characterized by returning to the step.
  • the operation selection probability is defined using a random number.
  • the object course prediction method according to the present invention is characterized in that, in the above invention, the number of trajectories to be generated in the trajectory generation step is predetermined.
  • the time is advanced and the recursive call is performed. It is characterized by operating all selectable operations.
  • the storage means stores the positions and internal states of a plurality of objects
  • the trajectory generation step includes the space-time of the plurality of objects. Each trajectory is generated.
  • the prediction step specifies one object from the plurality of objects, and objects other than the specified object in the space-time.
  • the existence probability is calculated.
  • the object course prediction method according to the present invention is characterized in that, in the above-described invention, the object course prediction method further includes an output step of outputting information including a prediction result in the prediction step.
  • a computer having storage means for storing at least the positions of a plurality of objects and an internal state including the speed of each object predicts the courses of the plurality of objects.
  • a method for predicting an object course wherein the positions and internal states of the plurality of objects are read from the storage unit, and each of the plurality of objects is over time based on the read positions and internal states of the objects.
  • the course that the specific object can take and the other object Have a, and interference level calculation step of calculating the degree of interference showing quantitatively the degree of interference with Riuru course It is characterized by doing.
  • the interference degree calculating step is a spatial distance at which the specific object and each of the other objects interfere with each other.
  • the degree of interference between the specific object and each of the other objects is increased or decreased by a predetermined amount in accordance with the number of times of approaching the interference distance.
  • the interference degree calculating step may be performed by the interference distance between the specific object and any one of the other objects.
  • the value of the degree of interference between the approaching objects is increased in proportion to the collision probability of the objects in the space-time.
  • the interference degree calculating step may be configured such that the specific object and any one of the other objects are the interference distance.
  • the value of the interference between the approaching objects is increased in proportion to the magnitude of the relative velocity at the time when the approaching objects are approached.
  • the storage means evaluates the magnitude of relative velocity at the time of collision between different objects and the scale of damage caused by the collision.
  • the damage loss amount caused by the collision is stored in association with each other, and the interference degree calculation step is performed when the specific object and any one of the other objects are closer than the interference distance.
  • the damage scale evaluation value or the damage loss amount corresponding to the magnitude of the relative speed at the time when both objects approach each other is read from the storage means, and the degree of interference between the two objects is calculated as the damage scale evaluation value. Alternatively, it is increased in proportion to the damage loss amount.
  • the interference degree calculating step may be configured such that the specific object and any one of the other objects are the interference distance. If the time required from the initial position of each object to be closer than the time is smaller than the value of the interference between the two objects, the time required from the initial position is set as the value of the interference.
  • the object course prediction method according to the present invention is the above-described invention, wherein the interference degree calculation step is performed.
  • the step is characterized in that each interference value between the specific object and the other object is weighted and summed.
  • the trajectory generation step is selected by an operation selection step of selecting an operation for the object from a plurality of operations, and the operation selection step.
  • An object operation step for operating the selected operation for a predetermined time, and a position and an internal state of the object after operating the selected operation in the object operation step are control conditions relating to the control of the object and a movable area of the object
  • a determination step for determining whether or not a movement condition related to the condition is satisfied, and a series of processing from the operation selection step to the determination step is repeatedly performed until a trajectory generation time for generating a trajectory is reached.
  • the object course prediction method according to the present invention is based on the above invention, and the operation selection step selects an operation according to an operation selection probability assigned to each of the plurality of operations. If the position and the internal state of the object satisfy the control condition and the movement condition as a result of the determination in the determination step, the time is advanced and the process returns to the operation selection step.
  • the object course prediction method according to the present invention is characterized in that, in the above invention, the operation selection probability is defined using a random number.
  • the object course prediction method according to the present invention is characterized in that, in the above invention, the number of trajectories to be generated in the trajectory generation step is predetermined.
  • the object course prediction method according to the present invention is characterized in that, in the above-described invention, the object course prediction method further includes an output step of outputting information according to the interference degree calculated in the interference degree calculation step.
  • a course taken by a specific object included in the plurality of objects is determined according to the interference degree calculated in the interference degree calculation step. It further has a course selection step of selecting.
  • the degree of interference is such that the degree of interference between the course that can be taken by the specific object and the course that can be taken by the other object is smaller.
  • a path having a small value, and the path selection step selects a path having the minimum degree of interference. It is characterized by selecting.
  • the course selection step includes a predetermined additional selection from the plurality of courses when there are a plurality of courses with the minimum degree of interference. The course that best meets the criteria is selected.
  • the degree of interference is such that the degree of interference between the course that can be taken by the specific object and the course that can be taken by the other object is smaller.
  • the route selection step has a large value, and selects a route having the maximum degree of interference.
  • the course selection step includes a predetermined additional selection from the plurality of courses when there are a plurality of courses having the maximum degree of interference. The course that best meets the criteria is selected.
  • an operation signal corresponding to a history of the position of the course selected in the course selection step and an operation sequence for realizing the course is generated.
  • the operation signal transmitting step of transmitting the generated operation signal to the outside is further provided.
  • the interference degree calculating step is a spatial distance at which the specific object and each of the other objects interfere with each other.
  • the degree of interference between the specific object and each of the other objects is increased or decreased by a predetermined amount in accordance with the number of times of approaching the interference distance.
  • the interference degree calculation step takes a sum by weighting each interference degree value between the specific object and the other object. It is characterized by that.
  • the object course prediction method is based on the above invention, wherein the trajectory generation step includes an operation selection step of selecting an operation for the object from a plurality of operations, and the operation described above.
  • An object operation step for operating the operation selected in the selection step for a predetermined time; and a position and an internal state of the object after operating the selected operation in the object operation step are control conditions relating to the control of the object and the object In the movable area of A determination step of determining whether or not a movement condition related to the relationship is satisfied, and a series of processing from the operation selection step to the determination step is repeated until a locus generation time for generating a locus is reached. To do.
  • the object course prediction method according to the present invention is characterized in that, in the above-described invention, the object course prediction method further includes an output step of outputting information on the course selected in the course selection step.
  • the object course prediction apparatus stores at least a storage unit that stores an object position and an internal state including the speed of the object, reads out the position and internal state of the object from the storage unit, Based on the read position and internal state of the object, a trajectory generating means for generating a change in the position that the object can take with time as a trajectory in time and space force, and the trajectory Prediction means for performing probabilistic prediction of the course of the object by using the trajectory generated by the generation means.
  • the trajectory generating means includes an operation selecting means for selecting an operation for the object from a plurality of operations, and an operation selected by the operation selecting means.
  • Object operating means that operates for a predetermined time, and the position and internal state of the object after operating the selected operation by the object operating means are control conditions related to control of the object and movement related to the movable area of the object
  • a determination means for determining whether or not a condition is satisfied, and a series of processes from the operation selection process by the operation selection means to the determination process by the determination means are repeated until a locus generation time for generating a locus is reached. It is characterized by performing.
  • the operation selection means selects an operation according to an operation selection probability given to each of the plurality of operations, and the determination means determines As a result, when the position and the internal state of the object satisfy the control condition and the movement condition, the operation selection process by the operation selection means is returned by advancing time.
  • the object course prediction apparatus is characterized in that the operation selection probability is defined using a random number.
  • the object course prediction apparatus is characterized in that, in the above invention, the number of trajectories to be generated by the trajectory generating means is predetermined.
  • the time is advanced and the recursive call is performed. It is characterized by operating all selectable operations by performing
  • the storage unit stores the positions and internal states of a plurality of objects
  • the trajectory generation unit includes the time of the plurality of objects. A trajectory in space is generated, respectively.
  • the prediction means specifies one object from the plurality of objects, and the space-time of objects other than the specified object The existence probability is calculated.
  • the object course prediction apparatus is characterized in that in the above-mentioned invention, an output means for outputting information including a prediction result by the prediction means is further provided.
  • the object course prediction apparatus includes at least storage means for storing the positions of a plurality of objects and an internal state including the speed of each object, and the storage means for the positions and internal states of the plurality of objects. Based on the read position and internal state of the object, a change in position that each of the plurality of objects can take as time passes is generated as a trajectory in time and space composed of time and space.
  • a trajectory generating unit that performs probabilistic prediction of the paths of the plurality of objects by using the trajectory generated by the trajectory generating unit, and the identification based on a result predicted by the predicting unit.
  • Interference degree calculating means for calculating an interference degree that quantitatively indicates the degree of interference between the path that can be taken by the object and the path that can be taken by the other object. You.
  • the means for calculating the interference degree is a spatial distance at which the specific object and each of the other objects interfere with each other.
  • the degree of interference between the specific object and each of the other objects is increased or decreased by a predetermined amount in accordance with the number of times of approaching a certain interference distance.
  • the interference degree calculation means may be configured such that the specific object and any one of the other objects are based on the interference distance.
  • the value of the degree of interference between the approaching objects is increased in proportion to the collision probability of the objects in the space-time.
  • the interference degree calculating means may be configured such that the specific object and any one of the other objects are based on the interference distance.
  • the value of the degree of interference between the approaching objects is increased in proportion to the magnitude of the relative velocity at the time when the objects approached.
  • the storage unit is a damage scale evaluation value for evaluating the magnitude of the relative speed at the time of collision between different objects and the scale of damage caused by the collision.
  • the damage loss amount caused by the collision is stored in association with each other, and the interference degree calculation means causes the specific object and any one of the other objects to be closer than the interference distance.
  • the damage scale evaluation value or the damage loss amount corresponding to the magnitude of the relative speed at the time when both objects approach each other is read from the storage means, and the degree of interference between the two objects is calculated as the damage scale evaluation. The value is increased in proportion to the damage loss amount.
  • the interference degree calculation means is configured such that the specific object and any one of the other objects are based on the interference distance. If the time required for the initial position force of each object to approach is smaller than the value of the interference degree between the two objects, the time required from the initial position is set as the value of the interference degree.
  • the interference degree calculation means weights each interference degree value between the specific object and the other object to obtain a sum. It is characterized by that.
  • the trajectory generation unit includes an operation selection unit that selects an operation for the object from a plurality of operations, and the operation selection unit.
  • Object operating means for operating the selected operation for a predetermined time; and the object operating hand Determining means for determining whether a position and an internal state of the object after operating the selected operation in a stage satisfy a control condition relating to the control of the object and a movement condition relating to a movable region of the object; , And a series of processes from the operation selection process by the operation selection unit to the determination process by the determination unit are repeatedly performed until a trajectory generation time for generating a trajectory is reached.
  • the operation selection means selects an operation according to an operation selection probability given to each of the plurality of operations, and As a result of the determination by the determination means, when the position and internal state of the object satisfy the control condition and the movement condition, the time is advanced and the process returns to the operation selection process by the operation selection means. .
  • the operation selection probability is defined using a random number.
  • the object course prediction apparatus is characterized in that, in the above invention, the number of trajectories to be generated by the trajectory generating means is predetermined.
  • the object course prediction apparatus is characterized in that, in the above-mentioned invention, output means for outputting information according to the interference degree calculated by the interference degree calculation means is further provided.
  • the object course prediction apparatus further comprises course selection means for selecting a course to be taken by the specific object according to the interference degree calculated by the interference degree calculation means. It is characterized by that.
  • the degree of interference is such that the degree of interference between the course that can be taken by the specific object and the course that can be taken by the other object is smaller.
  • the route selection means has a small value, and selects the route having the minimum degree of interference.
  • the path selection means when there are a plurality of paths with the minimum interference degree, a predetermined additional selection criterion from the plurality of paths. It is characterized by selecting a course that best fits the above.
  • the object course prediction apparatus is the above invention, wherein the interference degree The smaller the degree of interference between the path that can be taken by the specific object and the path that can be taken by the other object, the larger the value is, and the path selection means selects the path that has the maximum degree of interference. And
  • the course selection means when there are a plurality of paths with the maximum degree of interference, a predetermined additional selection criterion from the plurality of paths. It is characterized by selecting a course that best fits the above.
  • the object course prediction apparatus generates an operation signal according to the history of the position of the course selected by the course selection means and the operation sequence realizing the course in the above invention, An operation signal transmitting means for transmitting the generated operation signal to the outside is further provided.
  • the means for calculating the degree of interference is a spatial distance at which the specific object and each of the other objects interfere with each other.
  • the degree of interference between the specific object and each of the other objects is increased or decreased by a predetermined amount in accordance with the number of times of approaching a certain interference distance.
  • the interference degree calculating means weights each interference degree value between the specific object and the other object to obtain a sum. It is characterized by that.
  • the trajectory generation means includes an operation selection means for selecting an operation for the object from a plurality of operations, and an operation selected by the operation selection means.
  • Object operating means that operates for a predetermined time, and the position and internal state of the object after operating the selected operation by the object operating means are control conditions related to control of the object and movement related to the movable area of the object
  • a determination means for determining whether or not a condition is satisfied, and a series of processes from the operation selection process by the operation selection means to the determination process by the determination means are repeated until a locus generation time for generating a locus is reached. It is characterized by performing.
  • the object course prediction apparatus is characterized in that, in the above-mentioned invention, the object course prediction apparatus further comprises output means for outputting information relating to the course selected by the course selection means.
  • An object course prediction program causes the computer to execute the object course prediction method according to any one of the above inventions.
  • An automatic driving system is an automatic driving system that is mounted on a vehicle and automatically drives the vehicle, and the object course prediction device according to any one of the above inventions and the object course. And an actuator device that operates the vehicle in accordance with an operation signal that realizes the route selected by the route selection means included in the prediction device.
  • FIG. 1 is a block diagram showing a functional configuration of an object course prediction apparatus according to Embodiment 1 of the present invention.
  • FIG. 2 is a flowchart showing an outline of an object course prediction method according to Embodiment 1 of the present invention.
  • FIG. 3 is a flowchart showing an outline of trajectory generation processing in the object course prediction method according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram schematically showing a trajectory generated in a three-dimensional space-time.
  • FIG. 5 is a diagram schematically showing a trajectory set generated in three-dimensional space-time for one object.
  • FIG. 6 is an explanatory view schematically showing a configuration of a spatiotemporal environment formed by the object course prediction method according to Embodiment 1 of the present invention.
  • FIG. 7 is a diagram showing a display output example of a prediction result in the object course prediction apparatus according to Embodiment 1 of the present invention.
  • FIG. 8 is a diagram showing a display output example (second example) of a prediction result in the object course prediction apparatus according to Embodiment 1 of the present invention.
  • FIG. 9 is a diagram schematically showing a configuration of a spatio-temporal environment formed when a model that maintains the operation of the host vehicle is adopted.
  • FIG. 10 is a diagram illustrating locus generation in the object course prediction method according to the second embodiment of the present invention. It is a flowchart which shows the outline
  • FIG. 11 is a flowchart showing details of trajectory generation processing in the object course prediction method according to Embodiment 2 of the present invention.
  • FIG. 12 is a block diagram showing a functional configuration of an object course prediction apparatus according to Embodiment 3 of the present invention.
  • FIG. 13 is a flowchart showing an outline of an object course prediction method according to Embodiment 3 of the present invention.
  • FIG. 14 is a diagram schematically showing the problems of the conventional course prediction calculation.
  • FIG. 15 is a diagram schematically showing the advantage of the course prediction calculation in the object course prediction method according to the third embodiment of the present invention.
  • FIG. 16 is a flowchart showing details of interference degree calculation processing in the object course prediction method according to Embodiment 3 of the present invention.
  • FIG. 17 is a diagram schematically showing a temporal and spatial relationship between one trajectory of the own vehicle and one trajectory of another vehicle.
  • FIG. 18 is a diagram illustrating an example of a function that gives time dependency of interference between objects.
  • FIG. 19 is a flowchart showing details of the interference degree calculation process in the object course prediction method according to the fourth embodiment of the present invention.
  • FIG. 20 is a flowchart showing details of interference degree calculation processing in the object course prediction method according to Embodiment 5 of the present invention.
  • FIG. 21 is an explanatory diagram schematically showing another configuration of the spatiotemporal environment.
  • FIG. 22 is a block diagram showing a functional configuration of an automatic driving system including an object course prediction apparatus according to Embodiment 6 of the present invention.
  • FIG. 23 is a flowchart showing an outline of an object course prediction method according to Embodiment 6 of the present invention.
  • FIG. 24 is a flowchart showing details of a course selection process in the object course prediction method according to Embodiment 6 of the present invention.
  • FIG. 25 is a diagram showing a display output example of a course setting result in the object course prediction apparatus according to Embodiment 6 of the present invention.
  • FIG. 26 is a diagram showing a display output example (second example) of a course setting result in the object course prediction device according to the sixth embodiment of the present invention.
  • FIG. 27 is a flowchart showing details of interference degree calculation processing in the object course prediction method according to Embodiment 7 of the present invention.
  • FIG. 28 is a flowchart showing details of a course selection process in the object course prediction method according to Embodiment 7 of the present invention.
  • Operation signal transmitter (Operation signal transmitter)
  • FIG. 1 is a block diagram showing a functional configuration of the object course prediction apparatus according to Embodiment 1 of the present invention.
  • the object course prediction device 1 shown in the figure is mounted on a moving body such as a four-wheeled vehicle.
  • the object course prediction apparatus 1 includes an input unit 2 from which various information is input from the outside, a sensor unit 3 that detects the position and internal state of an object existing in a predetermined range, and a result detected by the sensor unit 3.
  • the trajectory generator 4 generates a change in the position that an object can take over time as a trajectory in time and space, and the trajectory generated by the trajectory generator 4 is used.
  • Prediction unit 5 that probabilistically predicts the course of an object
  • output unit 6 that outputs at least various information including the prediction results performed by prediction unit 5, and a spatiotemporal trajectory generated by trajectory generation unit 4
  • a storage unit 7 for storing information including a prediction result in the prediction unit 5.
  • the input unit 2 has a function of inputting various setting information and the like when predicting the course of an object.
  • the input unit 2 includes a remote controller, a keyboard (including a touch panel format that allows an input operation on the screen), a point This is realized using a pointing device (mouse, trackpad, etc.).
  • a microphone capable of inputting information by voice may be provided as the input unit 2. If various setting information is defined in advance, the ROM (Read Only Memory) that stores them ) Etc., the function of the input unit 2 may be substituted.
  • the sensor unit 3 is realized by using a millimeter wave radar, a laser radar, an image sensor, or the like.
  • the sensor unit 3 includes various sensors such as a speed sensor, an acceleration sensor, a rudder angle sensor, and an angular velocity sensor, and can also detect the movement state of the host vehicle.
  • the internal state of the object detected by the sensor unit 3 is a useful state that can be used for prediction of the object, and preferably the speed of the object (having speed and direction) or angular velocity (large). Physical quantity). Needless to say, the case where the value of these physical quantities is 0 (the state where the object stops and moves) is also included.
  • the trajectory generation unit 4 predicts and generates a trajectory that the object can take until a predetermined time elapses, and selects an operation for virtually operating the object on the simulation from a plurality of operations.
  • the prediction unit 5 uses a trajectory for each object output from the trajectory generation unit 4 to perform a probabilistic prediction calculation of the object course, according to the prediction calculation result in the prediction calculation unit 51. And an image generation unit 52 for generating an image to be displayed and output by the output unit 6.
  • the output unit 6 includes a display unit 61 that displays and outputs the image generated by the image generation unit 52 of the prediction unit 5.
  • the display unit 61 is realized by using a display such as liquid crystal, plasma, or organic EL (Electroluminescence).
  • a projector is installed as the display unit 61 in the upper rear part of the driver's seat. This projector has the function of displaying images superimposed on the front glass of four-wheeled vehicles.
  • a speaker that outputs audio information to the outside may be provided.
  • the storage unit 7 includes a trajectory generated by the trajectory generation unit 4, a prediction result of the prediction unit 5, and an operation selected by the operation selection unit 41 of the trajectory generation unit 4.
  • Memorize etc. This storage unit 7 includes a program for starting a predetermined OS (Operation System), ROM in which an object course prediction program according to the first embodiment is stored in advance, and calculation parameters and data of each process. Realized using RAM (Random Access Memory).
  • the storage unit 7 is connected to the object course prediction device 1 by a computer. It can also be realized by providing an interface capable of mounting a readable recording medium and mounting a recording medium corresponding to this interface.
  • the object course prediction device 1 having the above functional configuration is an electronic device (computer) including a CPU (Central Processing Unit) having a calculation and control function.
  • the CPU provided in the object course prediction apparatus 1 reads the information stored in and stored in the storage unit 7 and various programs including the above-described object course prediction program from the storage unit 7, thereby the object course prediction method according to the first embodiment.
  • the arithmetic processing related to is executed.
  • the object course prediction program according to the first embodiment is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, a DVD-ROM, a flash memory, or an M0 disk. Can be widely distributed.
  • FIG. 2 is a flowchart showing an outline of processing of the object course prediction method according to the first embodiment.
  • it is assumed that all objects to be predicted move on a two-dimensional plane.
  • the sensor unit 3 detects the position and internal state of an object within a predetermined range with respect to the own vehicle, and stores the detected information in the storage unit 7 (step Sl).
  • the position of the object is the value at the center of the object, and the internal state of the object is specified by the velocity (speed V, direction ⁇ ).
  • the internal state of the vehicle is also detected and stored in the storage unit 7.
  • FIG. 3 is a flowchart showing details of the trajectory generation processing in the trajectory generation unit 4.
  • the total number of objects detected by sensor unit 3 is K, and a single object ⁇ (l ⁇ k ⁇ K, k is a natural number) is tracked.
  • the time for generating the locus (trajectory generation time) is T (> 0).
  • the value of the counter k for identifying the object is set to 1, and the trajectory for the same object 0 is set.
  • the trajectory generation unit 4 reads the result detected by the sensor unit 3 from the storage unit 7, and sets the read detection result as an initial state (step S202). Specifically, the time t is set to 0, and the initial position (0), y (0)) and the initial internal state (V (0), ⁇ (0)) are
  • the operation selection unit 41 can select an operation u (t) to be performed during the subsequent time At.
  • One operation is selected from a plurality of operations according to the operation selection probability given in advance to each operation (step S203).
  • the operation selection probability p (u) for selecting the operation u is, for example,
  • an equal probability may be given to all elements of the operation set ⁇ u ⁇ . The latter place
  • kc kc It can also be defined as a function that depends on the location and internal state of the vehicle and the surrounding road environment.
  • the operation u is composed of a plurality of elements, and can be selected according to the type of the object.
  • the contents of the work are different. For example, if the object O is a four-wheeled vehicle, the acceleration of the four-wheeled vehicle
  • Degrees and angular velocities are determined by the degree of steering and the degree of accelerator depression.
  • the operation u performed on the object O which is a four-wheeled vehicle
  • the operation u can be specified by.
  • the object operation unit 42 operates the operation u selected in step S203 for a time ⁇ t.
  • the time ⁇ is preferably smaller in terms of accuracy, but may be a value of about 0.:! To 0.5 (sec) in practice.
  • the value T of the trajectory generation time T is an integral multiple of At, and the value of the force T is variable according to the speed of the object ⁇ .
  • kc k Determines whether or not the state satisfies a predetermined control condition (step S205) and determines whether or not the position of the object 0 after operating the operation u is within the movable region kc k
  • Step S206 the control condition determined in step S205 is the type of object ⁇ .
  • step S204 for example, if the object O is a four-wheeled vehicle, the movement of step S204
  • the movable area determined in step S206 refers to an area such as a road (including a roadway and a sidewalk).
  • the case where the object is located in the movable area is expressed as “satisfying the moving condition”.
  • step S205 if any one of the conditions is not satisfied (No in step S205 or No in step S206), the process returns to step S202.
  • the object after the operation u in step S204 is completed.
  • Step S20 advance the time by At (t + A t), set the position after the operation in step S204 to (X (t), y (t)), and set the internal state to (V (t) , ⁇ (t)) (Step S20
  • steps S202 to S207 described above are repeated until the trajectory generation time T is reached. That is, when the time t newly defined in step S207 has not reached T (No in step S208), the process returns to step S203 and is repeated. On the other hand, when the time t newly defined in step S207 reaches T (Yes in step S208), a trajectory for the object 0 is output and stored in the storage unit 7 (step S209).
  • FIG. 1 The trajectory P (m) (l ⁇ m ⁇ N, where m is a natural number) shown in the figure is a quadratic space
  • step S209 if the value of counter n has not reached N (No k k in step S210)
  • step S211 The value of counter n is incremented by 1 (step S211), and the process returns to step S202 to
  • Steps S202 to S208 are repeated until the trajectory generation time T is reached.
  • step S210 When the counter n reaches N in step S210 (Yes in step S210), the generation of all trajectories for object k is completed.
  • Figure 5 shows N generated for one object O.
  • a trajectory set ⁇ P (n) ⁇ consisting of trajectories P (1), P (2),..., P (N) of k k is expressed as k k k k k k k
  • K k is the starting point of each trajectory that forms an element of the trajectory set ⁇ P (n) ⁇
  • FIG. 5 is a schematic diagram to the last, and the value of N can take, for example, several hundred to several tens of thousands of values.
  • the object identification counter k is set to the total number of objects.
  • step S212 If the number K has not been reached (No in step S212), the counter k is incremented by 1, and the trajectory generation counter n is initialized to 1 (step S213).
  • step S2 12 if the object counter k reaches K (Yes in step S2 12), the trajectory generation for all objects has been completed, so the trajectory generation processing in step S2 is terminated, and the subsequent step S3 is entered. move on.
  • FIG. 6 is an explanatory diagram schematically showing a configuration example of a spatiotemporal environment.
  • the spatiotemporal environment ⁇ ( ⁇ , P) shown in the figure is the locus of the object O
  • the hit density is the density of the existence probability of the object O in each space-time region (hereinafter “k
  • the spatiotemporal probability density described above is a probability concept in spatiotemporal, so it is not always 1 when the sum of the values of one object in spatiotemporal is taken.
  • step S207 The series of processes up to step S207 is repeated 10 to 50 times.
  • a method for setting different trajectory generation times T for each type of road such as expressways, ordinary roads, and two-lane roads, and using the location data to read the type of road that is currently running from map data It is also preferable to switch by a method that reads the type of road using a road recognition device that applies image recognition or the like.
  • the probability density distribution in space-time is statistically evaluated by using the trajectory calculated up to the trajectory generation time T. If the distribution is constant, the trajectory generation time T is reduced.
  • a plurality of routes that the host vehicle can take are prepared in advance, and a time when the probability that the route of the host vehicle and the route of another object intersect is constant is predicted as a trajectory generation time T. It is also possible. In this case, when the predicted time is increased by At, The censoring condition may be taken when the risk increment is constant.
  • the endpoints on the future side of the route that the vehicle can take are set so that they are widely distributed in space. not.
  • the prediction unit 5 After the trajectory generation processing for each object described above, the prediction unit 5 performs probabilistic prediction of the path that each object can take (step S3).
  • a specific prediction calculation process in the prediction calculation unit 51 of the prediction unit 5 a kkk specific locus P (m) is selected from the locus set ⁇ P (n) ⁇ generated for the object 0. This is the case where the probability of
  • the probability p (P (m)) is calculated as follows. First, realize the trajectory P (m) of the object O k k k
  • Equation (3) The probability p (P (m)) that kkkkp s and one of the trajectories P (m) is selected is expressed by Equation (3) and Equation (2).
  • This existence probability is the spatio-temporal probability density on the three-dimensional space-time of the trajectory set ⁇ P (n) ⁇ .
  • a region having a high density of corresponding trajectories has a large existence probability.
  • the image generation unit 52 After the calculation in the prediction calculation unit 51 described so far, the image generation unit 52 generates image information on the image to be displayed on the display unit 61 of the output unit 6 according to the obtained calculation result, and outputs the image information. Send to part 6.
  • FIG. 7 is a diagram showing a display output example of the prediction result in the display unit 61, which is composed of two objects O (own vehicle) and ⁇ .
  • Table of prediction results when prediction is performed using spatiotemporal environment ⁇ ( ⁇ , P) (see Fig. 6) It is a figure which shows the example of a display output typically. More specifically, in FIG.
  • the figure shows a case where glass F is displayed in a translucent manner. Note that the illuminance is different between the two areas D and D, which are displayed in a semi-transparent state (area D has higher illuminance). This difference in illuminance, such as aba, reflects the prediction result in the prediction calculation unit 51, and a translucent area having different illuminances is superimposed on the windshield F according to the obtained existence probability value. .
  • the superimposed display described above is based on the projector (output) installed at the upper rear of the driver seat of the object O.
  • the display output example in the output unit 6 is not limited to this.
  • the prediction unit can be provided by providing the function of the display unit 61 on the display screen CN (see Fig. 7) of the car navigation system.
  • the prediction result in 5 may be displayed.
  • the color a b for each region on the two-dimensional plane displayed on the display screen CN is not limited to this.
  • a computer having storage means for storing an internal state including the position of an object and the speed of the object is used to determine the position and internal state of the object. Based on the read position and internal state of the object, the position change that the object can take with the passage of time is generated as a trajectory in time and space that is composed of time and space force. By using this generated trajectory to perform a probabilistic prediction of the course of the object, it is possible to ensure safety even in situations that may occur in reality.
  • the first embodiment is formed on a spatio-temporal space composed of time and space.
  • the locus of the detected object is generated independently of each other, a specific object (for example, the own vehicle) and another object can be distinguished. As a result, it is possible to easily and accurately predict the risk that may occur between a specific object and other objects within a practical time.
  • the information including the degree of risk can be presented by outputting the predicted result using the spatiotemporal environment.
  • the driver of the own vehicle can drive with the force S that avoids dangers that may occur in the near future while driving.
  • the first embodiment can also be applied to a four-dimensional space-time (space three-dimensional, time one-dimensional) as described above.
  • space-time space three-dimensional, time one-dimensional
  • the present invention is also applicable when predicting the course of the body.
  • Non-Patent Document 1 cited in the background art and the first embodiment will be described.
  • the power of both these technologies to predict the course of an object using the probability concept In Non-Patent Document 1, the path of an object within a predetermined range is not predicted independently. Based on probability calculation. For this reason, when any two of the objects collide, the course prediction of the two objects ends when they collide. This means that, when considered on a three-dimensional space-time, the trajectory of two different objects does not perform collision determination processing after the point of intersection.
  • the object trajectory is generated independently for each object. Therefore, even if the trajectories of different objects intersect in the three-dimensional space-time, the collision determination process is performed. Continue until the specified time has elapsed.
  • the spatiotemporal environment generated in Non-Patent Document 1 and the spatiotemporal environment generated in Embodiment 1 are completely different.
  • the amount of calculation is less than that of Non-Patent Document 1.
  • Non-Patent Document 1 even when a phenomenon of a collision can be predicted, I can't figure out what happens to the point. This is because Non-Patent Document 1 focuses on searching for the presence or absence of a collision for each state at each time rather than finding the probability that an object will collide in the flow of time. In other words, in Non-Patent Document 1,
  • both the first embodiment and non-patent document 1 perform the course prediction using the probability concept, and may give an impression that the technologies are similar at first glance.
  • the essence of the technical idea is completely different, and it is extremely difficult for a person skilled in the art to arrive at the first embodiment from Non-Patent Document 1.
  • the operation selection unit 41 of the trajectory generation unit 4 may maintain the current operation only for the own vehicle. In this case, the internal state at the time of prediction is maintained in the own vehicle, and only one operation continues to be performed.Therefore, the operation selection probability for selecting the operation is 1, and as the trajectory set of the own vehicle, Only one trajectory is generated in the space.
  • FIG. 9 shows the spatiotemporal environment generated when the operation of the host vehicle is maintained as described above, and corresponds to FIG. In the spatiotemporal environment ⁇ '( ⁇ , P) shown in Fig. 9,
  • the trajectory set of the object O (own vehicle) in 3D space-time is only one straight trajectory P
  • the second embodiment of the present invention is characterized in that a trajectory is generated by operating all selectable operations when generating a trajectory for each object.
  • the functional configuration of the object course prediction apparatus according to the second embodiment is the same as the functional configuration of the object course prediction apparatus 1 according to the first embodiment (see FIG. 1).
  • the object course prediction method according to the second embodiment is the same as the object course prediction method according to the first embodiment, except for the trajectory generation process for each object.
  • FIG. 10 is a flowchart showing an outline of trajectory generation processing (corresponding to step S2 in FIG. 2) in the object course prediction method according to the second embodiment.
  • initialization is performed to set the value of the counter k for identifying an object to 1 (step S21).
  • K is the total number of objects for which trajectory generation is to be performed.
  • the trajectory generation unit 4 reads the result detected by the sensor unit 3 from the storage unit 7, and sets the read detection result as an initial state (step S22). Specifically, time t is set to 0, the initial position (0), y (0)) and the initial internal state (V (0), ⁇ (0)) are
  • the input information from (3) is (x, y) and (v, ⁇ ).
  • FIG. 11 is a flowchart showing details of the locus generation processing in step S23.
  • the set of operations ⁇ u ⁇ consists of a finite number of elements, and the selectable operations are a continuous quantity.
  • the elements of the set ⁇ u ⁇ are constructed by discretization at appropriate intervals.
  • step S231-1 A more specific process of step S231-1 will be described. First, one operation u (0) is selected by the operation selection unit 41, and this selected operation u (0) is moved by ⁇ ⁇ in the object operation unit 42 for k ⁇ kc
  • the determination unit 43 determines that the position and internal state of the object 0 are the same as those in the first embodiment.
  • step S233-1 the operation u (0) performed immediately before is canceled.
  • step S233 J following step S232, the operation performed at the latest time
  • step S233—Hiichi 1) the operation u (T—2 At) performed in Loop — 1) is canceled.
  • step S231—Q-1) If there are still elements to be executed as ⁇ t), the process returns to step S231—Q-1) and repeats the process.
  • Loop Q-l) ends Loop J—1 ends
  • step S2 kc when there are no remaining elements to be executed as operation u (T—2 At), the following step S2 kc
  • Traces are generated. That is, a trajectory set ⁇ P (n) ⁇ similar to that shown in FIG. 5 is generated.
  • step S231-1 either one of the control condition and the movement condition is not satisfied. (No) will be described. In this case, the process proceeds to step S233-1 to cancel the operation u (0) performed immediately before. After this, if you want to continue Loopl,
  • step S231-1 Return to step S231-1 to end Loopl, and proceed to step S24.
  • Step k After the operation selected in steps S231-2, 231-3, ⁇ , S231-J is activated, even if object O does not satisfy either of the control conditions and the movement conditions, Step k above
  • step S231-1 if the object ⁇ does not satisfy either the control condition or the movement condition, k
  • the algorithm of the trajectory generation process described above is equivalent to an algorithm for searching for all possible operations by using a recursive call based on a vertical search. Therefore, in this case, the kkk prime number of the trajectory set ⁇ P (n) ⁇ that is finally generated for one object 0, that is, the number of trajectories is the number of k until the trajectory generation processing for that object O is completed.
  • step S23 After the trajectory generation process in step S23 described above, if the object identification counter k has not reached K (No in step S24), the counter value is incremented by 1 (step S25). Returning to, the initialization based on the detection result of the sensor unit 3 is performed, and the trajectory generation process (step S23) described above is performed on another object 0. On the other hand, counter k + 1 for object identification
  • step S24 If k reaches K (Yes in step S24), the trajectory generation process for all objects in the specified range is complete, so the trajectory generation process (corresponding to step S2 in Fig. 2) Exit. As a result, a spatiotemporal environment Env (P, P) similar to that shown in Fig. 6 is formed.
  • a computer including storage means for storing the internal state including the position of the object and the speed of the object is used to determine the position and internal state of the object. Based on the read position and internal state of the object, the position change that the object can take with the passage of time is generated as a trajectory in time and space that is composed of time and space force. By using this generated trajectory to perform a probabilistic prediction of the course of the object, it is possible to ensure safety even in situations that may occur in reality.
  • not only a static object but also a motion is predicted by performing a course prediction of the object using a spatiotemporal environment formed on a spatiotemporal space composed of time and space. It is also possible to accurately predict the course of the target object.
  • Embodiment 2 of the present invention the trajectory generation processing in the spatio-temporal of an object using recursive call is performed, but when compared with the trajectory generation processing in Embodiment 1 described above. It ’s not clear which amount of calculation is required. In other words, what algorithm is used to generate the trajectory of the object in space-time varies depending on various conditions including the operation time ⁇ trajectory generation time T, the number of elements of the operation set, and the like. For this reason, the most efficient algorithm should just be employ
  • FIG. 12 is a block diagram showing a functional configuration of the object course prediction apparatus according to the third embodiment of the present invention.
  • the object course prediction apparatus 101 shown in the figure is mounted on a moving body such as a four-wheeled vehicle, detects an object existing in a predetermined range around the own vehicle, which is a specific object, and detects the detected object and the own vehicle.
  • This is a device that predicts the course of a car and quantitatively evaluates the degree of interference between the course that a specific object can take and the course that another object can take based on the prediction result.
  • the trajectory generator 4 generates a change in the position that an object can take over time as a trajectory in space-time composed of time and space, and the trajectory generated by the trajectory generator 4 And predicting the course of the object using the prediction unit 105, and based on the prediction result of the prediction unit 105, quantitatively determining the degree of interference between the path that the vehicle can take and the path that other objects can take.
  • An interference degree calculation unit 106 that calculates the degree of interference shown, an output unit 107 that outputs various types of information including evaluation results by the interference level calculation unit 106, and various types of information including the position and internal state of the object detected by the sensor unit 3. And a storage unit 108 for storing.
  • parts having the same functional configuration as the object course prediction apparatus 1 according to the first embodiment are denoted by the same reference numerals as those in FIG.
  • the output unit 107 includes a display unit 171 that displays and outputs an image according to the evaluation result by the interference degree calculation unit 106, and a warning sound generation unit 172 that generates a warning sound according to the evaluation result.
  • the warning sound generation unit 172 is realized using a speaker or the like.
  • the storage unit 108 in addition to the detection result of the sensor unit 3, the trajectory generated by the trajectory generation unit 4, the prediction result of the prediction unit 105, and the interference degree calculation result of the interference degree calculation unit 106, the trajectory The operation selected by the operation selection unit 41 of the generation unit 4 is stored.
  • FIG. 13 is a flowchart showing an outline of processing of the object course prediction method according to the third embodiment. Also in the third embodiment, the description is made on the assumption that all the objects to be predicted move on a two-dimensional plane.
  • step S31 the position and internal state detection processing for each object (step S31), the trajectory generation processing for each object in time and space (step S32), and the object path using the trajectory
  • step S33 is the same as step S1, step S2, and step S3 described in the first embodiment.
  • the trajectory generation process in step S32 is performed by the method based on the operation selection probability described in the first embodiment, but the method described in the second embodiment, that is, all selectable methods. It is also possible to adopt a method of generating a trajectory by operating an operation.
  • a place such as a destination to be reached by the own vehicle is determined in advance.
  • the route B as shown in FIG. 15 can be selected as the route of the own vehicle 0, and the own vehicle O travels.
  • the prediction calculation termination condition may be determined by a trajectory generation length indicating the length of the trajectory to be generated. In this case, it is preferable to adaptively change the trajectory generation length according to the speed of the object (which may be the speed of the host vehicle).
  • step S34 the interference level calculation unit 106 calculates the interference level between the host vehicle and the other vehicle (step S34).
  • FIG. 16 is a flowchart showing details of the interference degree calculation process.
  • the object ⁇ is
  • the interference calculation process shown in Fig. 16 consists of four loops.
  • the degree of interference with all the trajectory sets ⁇ P (n) ⁇ of other vehicles 0 is calculated individually.
  • the input received by the interference degree calculation unit 106 in step S34 is the trajectory set of the vehicle O ⁇ P (n)
  • the interference degree calculation unit 106 is described as including an interference degree evaluation function.
  • the interference degree evaluation function is input from the outside. It is good also as composition to do.
  • the interference evaluation function is calculated according to the speed of the vehicle.
  • the configuration may be changed adaptively.
  • the own vehicle arrives as described with reference to FIG. It is possible to determine the optimal route each time without determining the destination, etc. in advance, and to appropriately avoid the danger while driving the vehicle to ensure safety. As a result, as in the case shown in FIG. 14, it is possible to solve a fatal problem that safety is not guaranteed even if the vehicle travels to a predetermined place on the road.
  • the interference degree calculation unit 106 first repeats for all trajectories of the host vehicle 0.
  • step S401 The process (Loopl) is started (step S401).
  • the interference degree calculation unit 106 starts an iterative process (Loop2) for the other vehicle 0 (
  • Loop3 An iterative process (Loop3) is performed on the element (step S403).
  • the ability to identify Loop 1 iterations that is, the trajectory generated for the vehicle O
  • the interference degree determined by the counter n and the counter k for identifying other vehicles is r ( ⁇ ,
  • the value of (n, k) is set to 0 (step S404).
  • the interference degree calculation unit 106 calculates the difference between the trajectory P (n) of the host vehicle 0 and the trajectory P (n) of the other vehicle 0.
  • FIG. 17 shows the relationship in time and space between the trajectory P (n) of the host vehicle O and the trajectory P (n) of the other vehicle 0.
  • trajectory P (n) and trajectory P (n) are two points C and
  • time t 0
  • the interference level calculation unit 106 determines that the interference level r
  • p (P (n)) is an amount defined by the equation (2) lk lk k k, and is a probability that one trajectory P (n) is selected for another vehicle.
  • F (t) is an amount that gives the time dependency of interference between objects in one collision. Therefore, the value of F (t) should be constant if the interference between objects is not time-dependent.
  • F (t) is expressed as a function that gradually decreases with time. You can define it.
  • F (t) shown in Fig. 18 is applied when the most recent collision is regarded as important.
  • interference degree calculating section 106 repeats Loop4 (No in step S408). In this case, the value of t is added by ⁇ (step S4 09) Return to step S405 and repeat Loop4. On the other hand, if the time has reached T after step S407, Loop4 is terminated (Yes in step S408). If there is no collision between the host vehicle O and another vehicle 0 at a certain time t, the process of determining whether to repeat Loop4 (
  • step S410 a determination process is performed to determine whether Loop3 is to be repeated. In other words, the vehicle
  • n is set to n + 1 (step S411), and the process returns to step S403 and loops back.
  • step k 1 1 1 and the final interference degree r (n, k) that evaluates the interference between the other vehicle O and the entire path of the other vehicle O is assigned (step k 1 1 step S412), and this assigned value is output.
  • the data is stored in the storage unit 108 (step S413).
  • I a constant (for example, 1), and the number of collisions between the trajectory P (n) of own vehicle 0 and the trajectory P (n) of other vehicle O
  • Is M (n, n) the value of the interference r (n, k) is the locus!
  • the probability p (P (n)) for every 3 (n) is lk 1 k 1 1 kkkk
  • the value obtained by multiplying the value obtained by multiplying M (n, n) with respect to the elements of all trajectory sets ⁇ P (n) ⁇ is lk 1 k k k
  • This stroke is an impact where one trajectory P (n) of the own vehicle 0 collides with a trajectory that the other vehicle 0 can take.
  • step S413 the interference degree calculation unit 106 determines whether to repeat Loop2. If there are other vehicles that need to be evaluated for interference with the host vehicle (step S414)
  • the interference degree calculation unit 106 increments the value of k by 1 (step S415), returns to step S402, and repeats Loop2. On the other hand, there are other vehicles that should be evaluated for interference with the vehicle.
  • step S416 a process for determining whether or not to repeat Loopl is performed. Specifically, the interference degree calculation unit 106 selects the trajectory to be evaluated for interference from the trajectory set ⁇ P (n) ⁇ of the host vehicle O.
  • step S417) If a trace remains (No in step S416), increase the value of n by 1 (step S417)
  • the interference degree calculation unit 106 is able to
  • the output unit 107 outputs information corresponding to the degree of interference calculated in step S34 as an evaluation result (step S35).
  • the display unit 171 of the output unit 107 is
  • Fig. 7 shows the spatio-temporal environment Env (P
  • the value of the interference r ( ⁇ , 2) exceeds the predetermined threshold.
  • the display unit 171 has a function of changing the illuminance according to the value of the interference degree r (n, 2).
  • the driver of the host vehicle O visually displays the front windshield F while driving while looking forward.
  • Unit 172 may generate a warning sound (including sound).
  • the interference evaluation result in the interference calculation unit 106 can be obtained by providing the display screen CN (see Fig. 8) of the car navigation system with the function of the display unit 171. You can display it.
  • a computer having storage means for storing at least the internal state including the plurality of objects, reads out the positions and internal states of the plurality of objects from the storage means, and based on the read positions and internal states of the objects, A change in the position of each object that can be taken with the passage of time is generated as a trajectory in time and space that also includes time and space force, and the plurality of objects are generated by using the generated trajectory. Probability prediction of each path is performed, and based on the predicted result, the degree of interference between the trajectory that the specific object can take and the trajectory that the other object can take on the space-time is quantitatively determined. By calculating the degree of interference shown in (2), it is possible to ensure safety even in situations that may occur in reality.
  • the possibility of a collision with another object is reduced in a practical time. Can be determined accurately.
  • a static object not only a static object but also a motion is predicted by predicting the course of the object using a spatiotemporal environment formed on a spatiotemporal space composed of time and space. It is also possible to accurately predict the course of the target object.
  • the locus of the detected object is generated independently of each other, it is possible to distinguish a specific object (for example, the own vehicle) from other objects. .
  • the power S can easily and accurately predict the risk that can occur between a specific object and other objects.
  • the coefficient C may be the magnitude of the relative speed at the time of collision between the host vehicle 0 and another vehicle 0.
  • the greater the relative speed the greater the impact during a collision. Therefore, when the coefficient c is the magnitude of the relative speed at the time of the collision between the vehicles, the degree of impact of the collision between the vehicles is added to the interference degree r (n, lk 11 k).
  • the magnitude of the relative speed between vehicles at the time of a collision is stored in the storage unit 108 in association with a damage scale evaluation value obtained by quantifying the damage scale caused by the collision or a damage loss amount caused by the collision.
  • the stored value is read from the storage unit 108 and the coefficient c is added. You should give it.
  • the damage scale evaluation value or the damage loss amount may be determined according to the object type. In this case, for example, when the colliding object is a human or a vehicle, the value of the coefficient c when colliding with a human is significantly larger than the value of the coefficient c when colliding with another object.
  • the degree of interference is calculated on the assumption that the operation of the host vehicle O is maintained.
  • the expected route of the vehicle O is displayed on the display unit 171 of the output unit 107.
  • Non-Patent Document 1 when performing interference evaluation in Non-Patent Document 1, there is no distinction between a specific object (own vehicle) and another object (other vehicle).
  • the amount of calculation (equivalent to the number of times of calculating the interference degree in the first embodiment) is
  • Non-Patent Document 1 is extremely difficult even for those skilled in the art, as in the first embodiment.
  • Embodiment 4 of the present invention is characterized in that the degree of interference when performing interference evaluation is defined using the shortest collision time between the host vehicle and another vehicle.
  • the functional configuration of the object course prediction apparatus according to the fourth embodiment is the same as that of the object course prediction apparatus 101 according to the third embodiment described above (see FIG. 12).
  • the object course prediction method according to the fourth embodiment is the same as the object course prediction method according to the third embodiment, except for the interference degree calculation process.
  • FIG. 19 is a flowchart showing details of the interference degree calculation process (corresponding to step S34 in FIG. 13) of the object course prediction method according to the fourth embodiment.
  • the object O is the own vehicle.
  • Interference degree calculation section 106 first repeats processing (Loopl) for all trajectories of host vehicle O.
  • step S421 select one trajectory of the trajectory set ⁇ P (n) ⁇ .
  • the subsequent processing is executed for the selected locus.
  • the interference degree calculation unit 106 starts an iterative process (Loop2) for another vehicle 0 (k
  • Interference degree calculation section 106 also sets other trajectory sets ⁇ P (n
  • r (n, k) is set, and the value of (n, k) is set as the trajectory generation time T (step S4 twenty four).
  • the interference degree calculation unit 106 calculates the difference between the trajectory P (n) of the own vehicle 0 and the trajectory P (n) of the other vehicle 0.
  • the definition of the collision is the same as in Embodiment 3 above, and the distance between the own vehicle O and the other vehicle 0 is
  • a case where the distance is closer than the interference distance is determined as a collision.
  • step S426 If it is determined that the collision has occurred (Yes in step S426), the value of the interference r (n, k) is
  • step S427 When the time t is longer than the time t (time required from the initial position to the collision) (Yes in step S427), r (n, k) is set to t and then t is set to T (step S428). ). So in this case
  • the interference degree calculation unit 106 proceeds to step S429 and determines whether or not to end Loop4. In addition, with own car ⁇
  • step S426 If other vehicle O does not collide (No in step S426), proceed to step S429.
  • step S429 if the time t has not reached T, Loop4 is repeated (No in step S429). In this case, the interference degree calculation unit 106 adds ⁇ to the value of t (step S430), returns to step S425, and repeats Loop4. On the other hand, when the time t has reached T in step S429, the interference degree calculation unit 106 ends Loop4 (Yes in step S429).
  • the interference level calculation unit 106 determines whether or not the process repeated Loo P 3. In other words, if there is an object that has not been evaluated for interference with one of the loci P (n) k 1 1 1 among the loci generated for other vehicles 0 (No in step S431), n is n + 1
  • Step S432 return to Step S423 and repeat Loop3.
  • interference evaluation with one trajectory P (n) of own vehicle O among the trajectories generated for other vehicle 0 When all the evaluations have been performed (Yes in step S431), the interference evaluation for kkk on one track P (n) of the other vehicle 0 has been completed. Therefore, in this case, the interference degree calculation unit 106 evaluates the interference between the trajectory P (n) of the own vehicle O and all the trajectories of the other vehicle O, and the final interference degree r
  • step S433 (n, k) is assigned (step S433), and the assigned value is output and stored in the storage unit 108.
  • the subsequent steps S435 to S438 relate to the iterative determination process for Loop2 and Loopl, and are the same as steps S414 to S417 in the interference degree calculation process described in the third embodiment.
  • a computer having storage means for storing at least the positions of a plurality of objects and the internal state including the speed of each object includes the positions of the plurality of objects. And the internal state is read from the storage means, and based on the read position and internal state of the object, a change in the position that each of the plurality of objects can take with time is configured as time and space force.
  • Each of these is generated as a trajectory on the spatio-temporal space, and by using the generated trajectory, the paths of the plurality of objects are predicted with certainty, and the spatio-temporal space is calculated based on the predicted result.
  • interference between the own vehicle and the surrounding space-time environment is obtained by collecting the calculation results of the degree of interference between the own vehicle and other vehicles obtained in the same manner as in the third embodiment. It is characterized by evaluating.
  • the functional configuration of the object course prediction apparatus according to the fifth embodiment is the same as that of the object course prediction apparatus 101 according to the third embodiment described above (see FIG. 12).
  • the object course prediction method according to the fifth embodiment is the same as the object course prediction method according to the third embodiment except for the interference degree calculation process.
  • FIG. 20 is a flowchart showing details of the interference degree calculation process (corresponding to step S34 in FIG. 13) of the object course prediction method according to the fifth embodiment.
  • the interference degree calculation unit 106 starts an iterative process (Loopl) for all trajectories of the host vehicle O (step S441).
  • the subsequent processing is executed.
  • the iterative process for the other vehicle O (Loop2), the trajectory of the other vehicle O, the kk set ⁇ P (n) ⁇ , the iterative process (Loop3) for all elements of the vehicle O, and the trajectory P of the host vehicle O (nkk 1 1 1
  • steps S442 to S455 shown in FIG. 20 is the same as the processing of steps S402 to S415 (see FIG. 16) described in the interference degree calculation processing of the third embodiment.
  • the interference degree calculation unit 106 uses the weight a (k) corresponding to the other vehicle O to the interference degree r (n, k) obtained by Loop 2 to Loop 4. (> 0)
  • the values of the weights (k) may all be equal to a constant (for example, 1) or
  • the interference degree calculation unit 106 performs a process of determining whether or not to repeat Loopl. In other words, if the trajectory to be evaluated for interference remains in the trajectory set ⁇ P (n) ⁇ of the vehicle O
  • the interference calculation unit 106 increases the value of n by 1 (step S45).
  • the interference level calculation unit 106 ends Loopl and ends the interference level calculation process (step S34).
  • FIG. 21 is a diagram schematically showing a configuration of a spatiotemporal environment to which the object course prediction method according to the fifth embodiment is applied.
  • the spatiotemporal environment Env (P, P, P) shown in the figure is
  • the risk of own vehicle ⁇ depends on the surrounding environment.
  • a computer including storage means for storing at least the positions of a plurality of objects and the internal state including the speed of each object includes the positions of the plurality of objects.
  • the internal state is read from the storage means, and based on the read position and internal state of the object, the change of the position that each of the plurality of objects can take with time is also configured in time and space force.
  • Each of these is generated as a trajectory on the spatio-temporal space, and by using the generated trajectory, the paths of the plurality of objects are predicted with certainty, and the spatio-temporal space is calculated based on the predicted result.
  • the interference degree r (n, k) is the same as that in the fourth embodiment.
  • Interference evaluation may be performed in consideration of both the interference degree r (n, k).
  • FIG. 22 is a block diagram showing a functional configuration of an automatic driving system configured using the object course prediction device according to the sixth embodiment of the present invention.
  • Automatic driving system shown in the figure 1 is a block diagram showing a functional configuration of an automatic driving system configured using the object course prediction device according to the sixth embodiment of the present invention. Automatic driving system shown in the figure 1
  • an object course prediction device 201 that sets the course to be taken by the host vehicle and an actuator device 211 that operates the host vehicle according to an operation signal that realizes the course set by the object course prediction device 201 are provided. .
  • the object course prediction apparatus 201 is detected by the input unit 2 from which various information is input from the outside, the sensor unit 3 that detects the position and internal state of an object that exists in a predetermined range, and the sensor unit 3.
  • the trajectory generator 4 generates a change in the position that an object can take over time as a trajectory in space-time composed of time and space, and the trajectory generated by the trajectory generator 4 And predicting the course of the object using the prediction unit 105, and based on the prediction result of the prediction unit 105, quantitatively determining the degree of interference between the path that the vehicle can take and the path that other objects can take.
  • the interference level calculation unit 106 that calculates the interference level shown
  • the route selection unit 207 that selects the route that the host vehicle should take according to the interference level calculated by the interference level calculation unit 106
  • the route selection unit 207 Generate the corresponding operation signal and send it to the actuator device 211 Operation signal transmission unit 208, output unit 209 that outputs various types of information regarding processing performed by the object course prediction apparatus 201, and storage unit 210 that stores various types of information including the position and internal state of the object detected by the sensor unit 3. And comprising.
  • FIG. 22 the above embodiment Parts having the same functional configuration as the object course prediction apparatus 101 according to 3 are denoted by the same reference numerals as those in FIG.
  • the output unit 209 includes a display unit 291 that displays and outputs information on processing performed by the prediction unit 105, the interference degree calculation unit 106, and the route selection unit 207 as information including an image, and a prediction unit.
  • a warning sound generation unit 292 that generates a warning sound according to the prediction result in 105, the calculation result in the interference degree calculation unit 106, and the like.
  • storage unit 210 includes a trajectory generated by trajectory generation unit 4, a prediction result of prediction unit 105, an interference degree calculation result of interference degree calculation unit 106, a course selection
  • the route selection result in the unit 207 and the operation selected by the operation selection unit 41 in the trajectory generation unit 4 are stored.
  • FIG. 23 is a flowchart showing an outline of processing of the object course prediction method according to the sixth embodiment.
  • the description will be made on the assumption that all the objects to be predicted move on a two-dimensional plane.
  • step S61 the position and internal state detection processing for each object (step S61), the trajectory generation processing for each object in time and space (step S62), and the object path using the trajectory.
  • step S63 The stochastic prediction process (step S63) and the interference degree calculation process (step S64) between the host vehicle and the other vehicle based on the prediction result are performed in step S31, step S32, and step S33 described in the third embodiment. And Step S34.
  • step S65 a course selection process corresponding to the interference level calculated in the interference level calculation process in step S64 is performed (step S65).
  • step S65 a course selection process corresponding to the interference level calculated in the interference level calculation process in step S64 is performed (step S65).
  • the influence of other dynamic obstacles is not taken into account, or the influence is not required practically.
  • two evaluation values are used in the course selection process for avoiding danger.
  • the first evaluation value is the interference degree calculated in the interference degree calculation process, and the first route selection process is performed using this interference degree.
  • the second route selection process is performed using the second evaluation value stored in the storage unit 210.
  • an additional selection criterion for further narrowing the route (described later) are suitably combined.
  • FIG. 24 is a flowchart showing details of the course selection process.
  • the route selection unit 207 selects the trajectory with the minimum value of the interference degree !: (n, k) calculated by the interference degree calculation process.
  • step S502 If a plurality of trajectories remain as a result of selecting the minimum trajectory for 1 1, k) (Yes in step S502), the process proceeds to step S503.
  • step S503 the course selection unit 207 has a component along the path that the course leads to the destination, and uses the additional selection criterion that is preset and stored in the storage unit 210.
  • the trajectory that best meets the additional selection criteria is selected (step S503).
  • an additional selection criterion a condition should be set so that there is almost no possibility of having duplicate values between trajectories.
  • the trajectory that travels the most preferable position on the road Is selected.
  • select the one that minimizes the sum of the positions in the road width direction after each operation from t 0 to T. It may be.
  • the vehicle O By selecting the trajectory that is most likely to be avoided, the vehicle O will eventually become a real secondary
  • step S503 If only one trajectory remains in step S503, the course selection unit 207 proceeds to step S504 described above. Note that if multiple trajectories remain even with the additional selection criteria, for example, the counter n or k having the minimum or maximum value is automatically selected.
  • the operation signal generated and transmitted by the operation signal transmission unit 208 in step S66 differs depending on the configuration of the actuator device 211.
  • the actuator device 211 is a mechanical device such as a steering wheel, an accelerator, a brake, etc.
  • the operation signal transmission unit 208 selects the route.
  • the history of the position (x (t), y (t)) received from the unit 207 and the operation ⁇ u (t) ⁇ may be output as an operation signal as it is.
  • the route selection unit 207 receives the position (X ( t), y (t)) history and operation set ⁇ u (t) ⁇ may be sent as operation signals as they are, or the operation torque applied to these mechanical devices at the time of operation may be calculated. The calculated result may be transmitted. In the former case, the operation torque is calculated on the actuator device 211 side.
  • the actuator device 211 is a device for applying an operating torque
  • the sensor unit 3 also detects the road surface condition where the host vehicle 0 travels, and the actuator device 211
  • FIG. 25 is a diagram showing a display output example of a course selection result or the like in the display unit 291 of the output unit 209.
  • FIG. 9 is a diagram schematically showing a display output example when a course is selected in (see FIG. 6). More specifically, in FIG. 25, the set course is superimposed on the windshield F by a semi-transparent arrow ⁇ , and the own vehicle according to the degree of interference r ( ⁇ , 2) between the own vehicle ⁇ and the other vehicle ⁇ . Cocoon is 2
  • the value of the interference r ( ⁇ , 2) exceeds the predetermined threshold.
  • the figure shows a case where the area to be covered is displayed semitransparently on the windshield F of the object ⁇
  • the illuminance differs between the two regions D and D that are displayed in a translucent state.
  • the illuminance in area D is greater. This difference in illuminance corresponds to the difference in (n, 2) values in the degree of interference. Select the path along which the illuminance travels near area D.
  • Part 292 may generate a warning sound (including sound).
  • the display output example in the output unit 209 is not limited to this.
  • the display screen CN (see FIG. 26) of the car navigation system is set by providing the function of the display unit 291.
  • the course and interference evaluation results may be displayed.
  • the set course is displayed with an arrow H, and two regions D and a are displayed by adding color shading to each region on the two-dimensional plane displayed on the display screen CN.
  • a computer including storage means for storing at least the positions of a plurality of objects and the internal state including the speed of each object includes the positions of the plurality of objects.
  • the internal state is read from the storage means, and based on the read position and internal state of the object, a change in the position that each of the plurality of objects can take with time is configured as time and space force.
  • Each of these is generated as a trajectory on the spatio-temporal space, and by using the generated trajectory, the paths of the plurality of objects are predicted with certainty, and based on the predicted result, the specific path is generated.
  • the degree of interference that quantitatively indicates the degree of interference between the path that the object can take and the path that the other object can take is calculated, and the path that the particular object should take is calculated according to the calculated interference degree.
  • the interference degree defined using the collision probability in time and space between the specific object and the other object is applied, and this interference degree is the minimum.
  • the sixth embodiment is formed on a space-time composed of time and space.
  • the locus of the detected object is generated independently of each other, it is possible to distinguish a specific object (for example, the own vehicle) from other objects. . As a result, it is possible to easily and accurately predict the risk that can occur between a specific object and other objects.
  • the coefficient c is not necessarily a constant.
  • the coefficient c is the relative lk lk 1 k at the time of collision between the host vehicle O and another vehicle 0.
  • the degree of interference is calculated on the assumption that the operation of the host vehicle 0 is maintained.
  • Embodiment 7 of the present invention summarizes the results of calculating the degree of interference between the own vehicle (specific object) and other vehicles obtained in the same manner as in Embodiment 6 described above, and thereby It is characterized by evaluating the interference with the environment and selecting the course that the vehicle should take based on the evaluation result.
  • the functional configuration of the object course prediction apparatus according to the seventh embodiment is the same as the functional configuration (see FIG. 22) of the object course prediction apparatus 201 according to the sixth embodiment described above. Further, the object course prediction method according to the seventh embodiment is the same as the object course prediction method according to the sixth embodiment except for the interference degree calculation process and the course selection process.
  • FIG. 27 is a flowchart showing details of the interference degree calculation process (corresponding to step S64 in FIG. 23) of the route setting method according to the seventh embodiment.
  • the interference degree calculation unit 106 starts an iterative process (Loopl) for all trajectories of the host vehicle O (step S461). This
  • steps S462 to S472 performed by the interference degree calculation unit 106 is the same as in the above embodiment. This is the same as the processing in steps S422 to S432 described in the state 4. Therefore, the processing after step S473 will be described below.
  • step S473 when the repetition of Loop3 is completed (Yes in step S471), that is, interference with one trajectory P (n) of the own vehicle O among the trajectories generated for the other vehicle O. Evaluation k 1 1 1 This is done when all the evaluations have been made. In this step S473, the interference degree calculation unit 106 completes the interference evaluation for one locus P (n) of the other vehicle 0. K k k
  • the interference calculation unit 106 calculates the distance between the trajectory P (n) of the own vehicle O and all the trajectories of the other vehicle 0.
  • An interference degree r (n, k) is assigned to evaluate the interference (Step S473), and the assigned value is output.
  • step S474 And stored in the storage unit 210 (step S474).
  • the interference degree calculation unit 106 performs a determination process as to whether or not to repeat Loop2. If there is another vehicle O that should be evaluated for interference with the host vehicle (No in step S475),
  • step S476 Increase the value by 1 (step S476), return to step S462, and repeat Loop2.
  • step S475 When there is no other vehicle O to be evaluated for interference with own vehicle O (Yes in step S475)
  • the interference degree calculation unit 106 ends the repetition of Loop2 and proceeds to step S477.
  • step S477 the interference level calculation unit 106 calculates the total interference level R (n) given by equation (6) by using the interference level r (n, k) obtained by Loop2 to Loop4. Shi
  • the calculation result is output and stored in the storage unit 210 (step S477). Note that the definition of equation (7) may be adopted as the total interference R (n).
  • the interference degree calculation unit 106 performs a process of determining whether or not to repeat Loopl. In other words, if the trajectory to be evaluated for interference remains in the trajectory set ⁇ P (n) ⁇ of the vehicle O
  • the interference calculation unit 106 increases the value of n by 1 (step S47).
  • the interference level calculation unit 106 ends Loopl and ends the interference level calculation process (step S64).
  • FIG. 28 is a flowchart showing details of the course selection process of the object course prediction method according to the seventh embodiment.
  • step S513 the course selection unit 207 uses the additional selection criterion that is set in advance and stored in the storage unit 210, so that the path selection unit 207 uses the additional selection criterion among the plurality of trajectories selected in step S511.
  • the most suitable trajectory is selected (step S513).
  • the additional selection criterion the same conditions as in the sixth embodiment may be applied.
  • step S514 the course selection unit 207 proceeds to step S514 described above. Note that if multiple trajectories remain even with the additional selection criteria, for example, the counter n or k with the minimum or maximum value can be automatically selected.
  • the vehicle O By selecting the trajectory that is most likely to be avoided, the vehicle O will eventually become a real secondary
  • step S66 of operation signal transmission unit 208 following the course selection process of step S65 is the same as that of the above-described sixth embodiment. Further, the processing of the actuator device 211 that has received the operation signal from the operation signal transmission unit 208 is the same as in the sixth embodiment.
  • a computer including storage means for storing at least the positions of a plurality of objects and the internal state including the speed of each object includes the positions of the plurality of objects.
  • the internal state is read from the storage means, and based on the read position and internal state of the object, the change of the position that each of the plurality of objects can take with time is also configured in time and space force.
  • Each of these is generated as a trajectory on the spatio-temporal space, and by using the generated trajectory, the paths of the plurality of objects are predicted with certainty, and based on the predicted result, the specific path is generated.
  • Interference degree that quantitatively indicates the degree of interference between the path that an object can take and the path that the other object can take By selecting the course that the specific object should take within a practical time according to the calculated degree of interference, as in the case of the sixth embodiment, in a situation that can actually occur However, it is possible to ensure safety.
  • the total interference degree obtained by applying the sum obtained by weighting the interference degree defined using the shortest collision time for each object is applied, and this total interference degree is the maximum.
  • the degree of interference r (n, k) is defined in the same way as in the sixth embodiment.
  • Interference evaluation may be performed in consideration of both the interference degree r (n, k).
  • an imaginary object may be arranged in addition to the actual object detected by the sensor unit, and the course prediction of the arranged imaginary object may be performed. More specifically, it is possible to construct an imaginary object model that exhibits undesirable behavior for the host vehicle, and place the object model at a predetermined position to predict the course.
  • Such a fictitious object model has, for example, a poor visibility due to the presence of a shielding object, etc., and when a vehicle (own vehicle) traveling near an intersection predicts a course, the object model cannot be detected from that vehicle.
  • the information on the imaginary object model may be stored in advance in the storage unit, and the object model may be arranged at a desired position according to the condition setting from the input unit.
  • the vehicle is equipped with communication means for inter-vehicle communication. By doing so, the power of vehicles traveling close to each other may be exchanged with each other through the inter-vehicle communication.
  • each vehicle stores an operation history in its own storage unit, and an operation selection probability for each operation is given based on the operation history, and information on this operation selection probability is also added to other vehicles. You may make it transmit to. As a result, the accuracy of the course prediction is improved, and the power S is positive for avoiding danger while driving.
  • GPS Global Positioning System
  • the position information and movement information of the object detected by the sensor unit can be corrected by referring to the 3D map information stored in the GPS.
  • the present invention can also be applied to an object moving in a three-dimensional space.
  • the present invention can be applied to a case where one object has a plurality of degrees of freedom (for example, an object such as a robot arm having 6 degrees of freedom).
  • the object course prediction method, apparatus, program, and automatic driving system according to the present invention are suitable as a technique for avoiding the danger of driving a moving body such as a four-wheeled vehicle and ensuring safety. It is.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

 現実として起こりうる状況下においても安全性の確保を図ることができる物体進路予測方法、装置、プログラム、および自動運転システムを提供する。この目的のため、物体の位置および当該物体の速度を含む内部状態を記憶する記憶手段を備えたコンピュータが、前記物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前記物体の位置および内部状態に基づいて、前記物体が時間の経過とともに取りうる位置の変化を時間および空間から構成される時空間上での軌跡として生成し、この生成した軌跡を用いることによって前記物体の進路の確率的な予測を行う。

Description

明 細 書
物体進路予測方法、装置、プログラム、および自動運転システム 技術分野
[0001] 本発明は、物体の位置および内部状態に基づいてその物体の進路を予測する物 体進路予測方法、装置、プログラム、および自動運転システムに関するものである。 背景技術
[0002] 近年、四輪自動車等の移動体の自動運転を実現するために、さまざまな試みがな されてきている。移動体の自動運転を実現するためには、周囲に存在する車両、歩 行者、または障害物などの物体の正確な検知と、この検知結果に基づいた走行中の 危険の回避とが重要である。このうち、周囲の物体を精度よく検知するための技術と して、各種センサや各種レーダを用いた物体検知技術が知られている。
[0003] 移動体の自動運転技術は、 目的地を入力すれば自動的に出発地から目的地へと 移動体を動かす技術である。この技術は、移動範囲が狭い場合には、移動範囲の地 図を事前に作成し、動的な障害物の影響を事前予測することによって経路探索技術 に帰着させること力 Sできる。し力、しながら、移動体が自動車である場合のように、移動 体の移動範囲が広範囲である場合には、 自動運転技術を経路探索技術に帰着させ ることはできない。ここでいう広範囲とは、動的障害物を回避する上で必要な時間 tと 全工程を走行するために必要な時間てとが著しく異なるような範囲のことであり、例え ば tが数秒程度であるのに対して、 τが数時間程度であるような場合である。
[0004] 移動体の移動範囲が広範囲である場合、 自動運転技術を経路探索技術に帰着さ せることはできないのには、主に二つの理由がある。まず、第 1の理由を述べる。移動 体が出発地を出発してから、例えば 10t程度時間が経過した後の状況を考える。この 場合には、動的な障害物の影響は道路全体に広がり、衝突しない経路を定義するこ とができない。すなわち、移動体の移動範囲が広範囲である場合、出発地から目的 地までの経路を事前に算出することは不可能となる。
[0005] 次に、第 2の理由を述べる。移動体の移動範囲が広範囲である場合には、上述した ように、全工程を走行するために必要な時間 τは tと比べて非常に長い。このため、 自動車に搭載されるコンピュータが、現実の衝突回避を実現可能な実用的な時間の 内に必要な計算を終了することは不可能である。
[0006] このように、 自動車などの広範囲を移動する移動体の自動運転技術においては、 少なくとも他の動的障害物の影響を考慮しなレ、か、またはその影響を実用上必要と せずに行う経路探索技術に加えて、動的障害物との衝突回避に必要な計算を実用 的な時間で終了し、走行中の危険を回避するための進路を算出する進路算出技術 が必要となる。
[0007] 上述した進路算出技術のうち、走行中の危険を回避するための技術として、複数の 物体と自車とから成るシステムにおいて、自車の位置および速度に関する情報と、自 車以外の複数の物体の位置および速度に関する情報とを用いることにより、 自車を 含む各物体の進路を生成し、システムを構成する物体のうちいずれか二つの物体が 衝突する可能性を予測する技術が知られている(例えば、非特許文献 1を参照)。こ の技術では、システムを構成する全ての物体が取りうる進路を、確率概念を用いた同 じ枠組みの操作系列によって予測して出力する。その後、得られた予測結果に基づ いて、 自車を含むシステム全体にとつて最も安全な状況を実現する進路を求めて出 力する。
[0008] 非特許文献 1 : A. Broadhurst, S. Baker, and T. Kanade, "Monte Carlo Road
Safety Reasoning", IEEE Intelligent Vehicle Symposium (IV2005), IEEE, (20 05年 6月)
発明の開示
発明が解決しょうとする課題
[0009] し力 ながら、上記非特許文献 1に開示されてレ、る技術では、システムを構成する 全ての物体が安全となるような進路を予測することを主眼としているため、そのような 予測によって得られた進路力 特定の物体 (例えば自車)にとつての安全性を十分に 確保するものであるか否かは定かではなかった。
[0010] この点についてより具体的に説明する。現実の道路状況においては、他車の運転 者または歩行者が道路状況の認知ミスを起こし、本人が意識しないうちに自車を含 む周囲の物体にとって好ましくない挙動を示す可能性がある。これに対して、上述し た非特許文献 1では、全ての物体は安全性を優先した挙動を示すということが暗黙 裡に仮定されているため、ある物体が周囲の物体にとって好ましくない挙動を示す場 合のように、現実として起こりうる状況下においても十分な安全性を確保することがで きるか否かは不明であった。
[0011] 本発明は、上記に鑑みてなされたものであって、現実として起こりうる状況下におい ても安全性の確保を図ることができる物体進路予測方法、装置、プログラム、および 自動運転システムを提供することを目的とする。
課題を解決するための手段
[0012] 上述した課題を解決し、 目的を達成するために、本発明に係る物体進路予測方法 は、物体の位置と当該物体の速度を含む内部状態とを少なくとも記憶する記憶手段 を備えたコンピュータが、前記物体の進路を予測する物体進路予測方法であって、 前記物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前 記物体の位置および内部状態に基づいて、前記物体が時間の経過とともに取りうる 位置の変化を時間および空間から構成される時空間上での軌跡として生成する軌跡 生成ステップと、前記軌跡生成ステップで生成した軌跡を用いることによって前記物 体の進路の確率的な予測を行う予測ステップと、を有することを特徴とする。
[0013] また、本発明に係る物体進路予測方法は、上記発明において、前記軌跡生成ステ ップは、前記物体に対する操作を複数の操作から選択する操作選択ステップと、前 記操作選択ステップで選択した操作を所定時間動作させる物体操作ステップと、前 記物体操作ステップで前記選択した操作を動作させた後の前記物体の位置および 内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域に 関する移動条件を満たしているか否かを判定する判定ステップと、を含み、前記操作 選択ステップから前記判定ステップに至る一連の処理を、軌跡を生成する軌跡生成 時間に達するまで繰り返し行うことを特徴とする。
[0014] また、本発明に係る物体進路予測方法は、上記発明において、前記操作選択ステ ップは、前記複数の操作の各々に付与された操作選択確率にしたがって操作を選 択し、前記判定ステップで判定した結果、前記物体の位置および内部状態が前記制 御条件および前記移動条件を満たしている場合には、時間を進めて前記操作選択 ステップに戻ることを特徴とする。
[0015] また、本発明に係る物体進路予測方法は、上記発明において、前記操作選択確率 は、乱数を用いて定義されることを特徴とする。
[0016] また、本発明に係る物体進路予測方法は、上記発明において、前記軌跡生成ステ ップで生成すべき軌跡の数が予め定められていることを特徴とする。
[0017] また、本発明に係る物体進路予測方法は、上記発明において、前記判定ステップ で判定した結果、前記制御条件および前記移動条件を満たしている場合には、時間 を進めて再帰呼出を行うことにより、選択可能な全ての操作を動作させることを特徴と する。
[0018] また、本発明に係る物体進路予測方法は、上記発明において、前記記憶手段は、 複数の物体の位置および内部状態を記憶し、前記軌跡生成ステップは、前記複数 の物体の前記時空間における軌跡をそれぞれ生成することを特徴とする。
[0019] また、本発明に係る物体進路予測方法は、上記発明において、前記予測ステップ は、前記複数の物体の中から一つの物体を特定し、この特定した物体以外の物体の 前記時空間における存在確率を算出することを特徴とする。
[0020] また、本発明に係る物体進路予測方法は、上記発明において、前記予測ステップ における予測結果を含む情報を出力する出力ステップをさらに有することを特徴とす る。
[0021] 本発明に係る物体進路予測方法は、複数の物体の位置と各物体の速度を含む内 部状態とを少なくとも記憶する記憶手段を備えたコンピュータが、前記複数の物体の 進路を予測する物体進路予測方法であって、前記複数の物体の位置および内部状 態を前記記憶手段から読み出し、この読み出した前記物体の位置および内部状態 に基づいて、前記複数の物体の各々が時間の経過とともに取りうる位置の変化を時 間および空間から構成される時空間上での軌跡としてそれぞれ生成する軌跡生成ス テツプと、前記軌跡生成ステップで生成した軌跡を用いることによって前記複数の物 体の進路の確率的な予測をそれぞれ行う予測ステップと、前記予測ステップで予測 した結果に基づいて、前記特定の物体が取りうる進路と前記その他の物体が取りうる 進路との干渉の程度を定量的に示す干渉度を算出する干渉度算出ステップと、を有 することを特徴とする。
[0022] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的 な距離である干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の 物体の各々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴 とする。
[0023] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前 記干渉距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両 物体の前記時空間上での衝突確率に比例して増加させることを特徴とする。
[0024] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前 記干渉距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両 物体が近づいた時点での相対速度の大きさに比例して増加させることを特徴とする。
[0025] また、本発明に係る物体進路予測方法は、上記発明において、前記記憶手段は、 異なる物体間の衝突時の相対速度の大きさと当該衝突によって生じる被害の規模を 評価する被害規模評価値または当該衝突によって生じる被害損失額とを対応付けて 記憶し、前記干渉度算出ステップは、前記特定の物体と前記その他の物体のうちの いずれか一つの物体とが前記干渉距離よりも近づいたとき、この両物体が近づいた 時点での相対速度の大きさに応じた前記被害規模評価値または前記被害損失額を 前記記憶手段から読み出し、当該両物体間の前記干渉度を前記被害規模評価値ま たは前記被害損失額に比例して増加させることを特徴とする。
[0026] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前 記干渉距離よりも近づくまでに各物体の初期位置から要した時間が当該両物体間の 前記干渉度の値よりも小さい場合には、前記初期位置から要した時間を前記干渉度 の値とすることを特徴とする。
[0027] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和 を取ることを特徴とする。
[0028] また、本発明に係る物体進路予測方法は、上記発明において、前記軌跡生成ステ ップは、前記物体に対する操作を複数の操作から選択する操作選択ステップと、前 記操作選択ステップで選択した操作を所定時間動作させる物体操作ステップと、前 記物体操作ステップで前記選択した操作を動作させた後の前記物体の位置および 内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域に 関する移動条件を満たしているか否かを判定する判定ステップと、を含み、前記操作 選択ステップから前記判定ステップに至る一連の処理を、軌跡を生成する軌跡生成 時間に達するまで繰り返し行うことを特徴とする。
[0029] また、本発明に係る物体進路予測方法は、上記発明におレ、て、前記操作選択ステ ップは、前記複数の操作の各々に付与された操作選択確率にしたがって操作を選 択し、前記判定ステップで判定した結果、前記物体の位置および内部状態が前記制 御条件および前記移動条件を満たしている場合には、時間を進めて前記操作選択 ステップに戻ることを特徴とする。
[0030] また、本発明に係る物体進路予測方法は、上記発明において、前記操作選択確率 は、乱数を用いて定義されることを特徴とする。
[0031] また、本発明に係る物体進路予測方法は、上記発明において、前記軌跡生成ステ ップで生成すべき軌跡の数が予め定められていることを特徴とする。
[0032] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプで算出した干渉度に応じた情報を出力する出力ステップをさらに有することを 特徴とする。
[0033] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプで算出した干渉度に応じて、前記複数の物体に含まれる特定の物体が取るベ き進路を選択する進路選択ステップをさらに有することを特徴とする。
[0034] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度は、前 記特定の物体が取りうる進路と前記その他の物体が取りうる進路との干渉の程度が 小さいほど小さい値を有し、前記進路選択ステップは、前記干渉度が最小の進路を 選択することを特徴とする。
[0035] また、本発明に係る物体進路予測方法は、上記発明において、前記進路選択ステ ップは、前記干渉度が最小の進路が複数ある場合、この複数の進路の中から所定の 付加選択基準に最も適合する進路を選択することを特徴とする。
[0036] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度は、前 記特定の物体が取りうる進路と前記その他の物体が取りうる進路との干渉の程度が 小さいほど大きい値を有し、前記進路選択ステップは、前記干渉度が最大の進路を 選択することを特徴とする。
[0037] また、本発明に係る物体進路予測方法は、上記発明において、前記進路選択ステ ップは、前記干渉度が最大の進路が複数ある場合、この複数の進路の中から所定の 付加選択基準に最も適合する進路を選択することを特徴とする。
[0038] また、本発明に係る物体進路予測方法は、上記発明において、前記進路選択ステ ップで選択した進路の位置の履歴および当該進路を実現する操作系列に応じた操 作信号を生成し、この生成した操作信号を外部に送信する操作信号送信ステップを さらに有することを特徴とする。
[0039] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的 な距離である干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の 物体の各々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴 とする。
[0040] また、本発明に係る物体進路予測方法は、上記発明において、前記干渉度算出ス テツプは、前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和 を取ることを特徴とする。
[0041] また、本発明に係る物体進路予測方法は、上記発明におレ、て、前記軌跡生成ステ ップは、前記物体に対する操作を複数の操作から選択する操作選択ステップと、前 記操作選択ステップで選択した操作を所定時間動作させる物体操作ステップと、前 記物体操作ステップで前記選択した操作を動作させた後の前記物体の位置および 内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域に 関する移動条件を満たしているか否かを判定する判定ステップと、を含み、前記操作 選択ステップから前記判定ステップに至る一連の処理を、軌跡を生成する軌跡生成 時間に達するまで繰り返し行うことを特徴とする。
[0042] また、本発明に係る物体進路予測方法は、上記発明において、前記進路選択ステ ップで選択した進路に関する情報を出力する出力ステップをさらに有することを特徴 とする。
[0043] 本発明に係る物体進路予測装置は、物体の位置と当該物体の速度を含む内部状 態とを少なくとも記憶する記憶手段と、前記物体の位置および内部状態を前記記憶 手段から読み出し、この読み出した前記物体の位置および内部状態に基づいて、前 記物体が時間の経過とともに取りうる位置の変化を時間および空間力 構成される時 空間上での軌跡として生成する軌跡生成手段と、前記軌跡生成手段で生成した軌 跡を用いることによって前記物体の進路の確率的な予測を行う予測手段と、を備えた ことを特徴とする。
[0044] また、本発明に係る物体進路予測装置は、上記発明において、前記軌跡生成手段 は、前記物体に対する操作を複数の操作から選択する操作選択手段と、前記操作 選択手段で選択した操作を所定時間動作させる物体操作手段と、前記物体操作手 段で前記選択した操作を動作させた後の前記物体の位置および内部状態が当該物 体の制御に関する制御条件および当該物体の移動可能領域に関する移動条件を 満たしているか否かを判定する判定手段と、を含み、前記操作選択手段による操作 選択処理から前記判定手段による判定処理に至る一連の処理を、軌跡を生成する 軌跡生成時間に達するまで繰り返し行うことを特徴とする。
[0045] また、本発明に係る物体進路予測装置は、上記発明において、前記操作選択手段 は、前記複数の操作の各々に付与された操作選択確率にしたがって操作を選択し、 前記判定手段で判定した結果、前記物体の位置および内部状態が前記制御条件 および前記移動条件を満たしている場合には、時間を進めて前記操作選択手段に よる操作選択処理に戻ることを特徴とする。
[0046] また、本発明に係る物体進路予測装置は、上記発明におレ、て、前記操作選択確率 は、乱数を用いて定義されることを特徴とする。 [0047] また、本発明に係る物体進路予測装置は、上記発明において、前記軌跡生成手段 で生成すべき軌跡の数が予め定められていることを特徴とする。
[0048] また、本発明に係る物体進路予測装置は、上記発明において、前記判定手段で判 定した結果、前記制御条件および前記移動条件を満たしている場合には、時間を進 めて再帰呼出を行うことにより、選択可能な全ての操作を動作させることを特徴とする
[0049] また、本発明に係る物体進路予測装置は、上記発明において、前記記憶手段は、 複数の物体の位置および内部状態を記憶し、前記軌跡生成手段は、前記複数の物 体の前記時空間における軌跡をそれぞれ生成することを特徴とする。
[0050] また、本発明に係る物体進路予測装置は、上記発明において、前記予測手段は、 前記複数の物体の中から一つの物体を特定し、この特定した物体以外の物体の前 記時空間における存在確率を算出することを特徴とする。
[0051] また、本発明に係る物体進路予測装置は、上記発明において、前記予測手段によ る予測結果を含む情報を出力する出力手段をさらに備えたことを特徴とする。
[0052] 本発明に係る物体進路予測装置は、複数の物体の位置と各物体の速度を含む内 部状態とを少なくとも記憶する記憶手段と、前記複数の物体の位置および内部状態 を前記記憶手段から読み出し、この読み出した前記物体の位置および内部状態に 基づいて、前記複数の物体の各々が時間の経過とともに取りうる位置の変化を時間 および空間から構成される時空間上での軌跡としてそれぞれ生成する軌跡生成手段 と、前記軌跡生成手段で生成した軌跡を用いることによって前記複数の物体の進路 の確率的な予測をそれぞれ行う予測手段と、前記予測手段で予測した結果に基づ いて、前記特定の物体が取りうる進路と前記その他の物体が取りうる進路との干渉の 程度を定量的に示す干渉度を算出する干渉度算出手段と、を備えたことを特徴とす る。
[0053] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的な距 離である干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の物体 の各々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴とす る。
[0054] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記 干渉距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両物 体の前記時空間上での衝突確率に比例して増加させることを特徴とする。
[0055] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記 干渉距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両物 体が近づいた時点での相対速度の大きさに比例して増加させることを特徴とする。
[0056] また、本発明に係る物体進路予測装置は、上記発明において、前記記憶手段は、 異なる物体間の衝突時の相対速度の大きさと当該衝突によって生じる被害の規模を 評価する被害規模評価値または当該衝突によって生じる被害損失額とを対応付けて 記憶し、前記干渉度算出手段は、前記特定の物体と前記その他の物体のうちのいず れか一つの物体とが前記干渉距離よりも近づいたとき、この両物体が近づいた時点 での相対速度の大きさに応じた前記被害規模評価値または前記被害損失額を前記 記憶手段から読み出し、当該両物体間の前記干渉度を前記被害規模評価値または 前記被害損失額に比例して増加させることを特徴とする。
[0057] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記 干渉距離よりも近づくまでに各物体の初期位置力 要した時間が当該両物体間の前 記干渉度の値よりも小さい場合には、前記初期位置から要した時間を前記干渉度の 値とすることを特徴とする。
[0058] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和を 取ることを特徴とする。
[0059] また、本発明に係る物体進路予測装置は、上記発明におレ、て、前記軌跡生成手段 は、前記物体に対する操作を複数の操作から選択する操作選択手段と、前記操作 選択手段で選択した操作を所定時間動作させる物体操作手段と、前記物体操作手 段で前記選択した操作を動作させた後の前記物体の位置および内部状態が当該物 体の制御に関する制御条件および当該物体の移動可能領域に関する移動条件を 満たしているか否かを判定する判定手段と、を含み、前記操作選択手段による操作 選択処理から前記判定手段による判定処理に至る一連の処理を、軌跡を生成する 軌跡生成時間に達するまで繰り返し行うことを特徴とする。
[0060] また、本発明に係る物体進路予測装置は、上記発明におレ、て、前記操作選択手段 は、前記複数の操作の各々に付与された操作選択確率にしたがって操作を選択し、 前記判定手段で判定した結果、前記物体の位置および内部状態が前記制御条件 および前記移動条件を満たしている場合には、時間を進めて前記操作選択手段に よる操作選択処理に戻ることを特徴とする。
[0061] また、本発明に係る物体進路予測装置は、上記発明において、前記操作選択確率 は、乱数を用いて定義されることを特徴とする。
[0062] また、本発明に係る物体進路予測装置は、上記発明において、前記軌跡生成手段 で生成すべき軌跡の数が予め定められていることを特徴とする。
[0063] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段で算出した干渉度に応じた情報を出力する出力手段をさらに備えたことを特徴と する。
[0064] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段で算出した干渉度に応じて前記特定の物体が取るべき進路を選択する進路選択 手段をさらに備えたことを特徴とする。
[0065] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度は、前 記特定の物体が取りうる進路と前記その他の物体が取りうる進路との干渉の程度が 小さいほど小さい値を有し、前記進路選択手段は、前記干渉度が最小の進路を選択 することを特徴とする。
[0066] また、本発明に係る物体進路予測装置は、上記発明において、前記進路選択手段 は、前記干渉度が最小の進路が複数ある場合、この複数の進路の中から所定の付 加選択基準に最も適合する進路を選択することを特徴とする。
[0067] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度は、前 記特定の物体が取りうる進路と前記その他の物体が取りうる進路との干渉の程度が 小さいほど大きい値を有し、前記進路選択手段は、前記干渉度が最大の進路を選択 することを特徴とする。
[0068] また、本発明に係る物体進路予測装置は、上記発明において、前記進路選択手段 は、前記干渉度が最大の進路が複数ある場合、この複数の進路の中から所定の付 加選択基準に最も適合する進路を選択することを特徴とする。
[0069] また、本発明に係る物体進路予測装置は、上記発明において、前記進路選択手段 で選択した進路の位置の履歴および当該進路を実現する操作系列に応じた操作信 号を生成し、この生成した操作信号を外部に送信する操作信号送信手段をさらに備 えたことを特徴とする。
[0070] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的な距 離である干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の物体 の各々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴とす る。
[0071] また、本発明に係る物体進路予測装置は、上記発明において、前記干渉度算出手 段は、前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和を 取ることを特徴とする。
[0072] また、本発明に係る物体進路予測装置は、上記発明において、前記軌跡生成手段 は、前記物体に対する操作を複数の操作から選択する操作選択手段と、前記操作 選択手段で選択した操作を所定時間動作させる物体操作手段と、前記物体操作手 段で前記選択した操作を動作させた後の前記物体の位置および内部状態が当該物 体の制御に関する制御条件および当該物体の移動可能領域に関する移動条件を 満たしているか否かを判定する判定手段と、を含み、前記操作選択手段による操作 選択処理から前記判定手段による判定処理に至る一連の処理を、軌跡を生成する 軌跡生成時間に達するまで繰り返し行うことを特徴とする。
[0073] また、本発明に係る物体進路予測装置は、上記発明において、前記進路選択手段 で選択した進路に関する情報を出力する出力手段をさらに有することを特徴とする。 [0074] 本発明に係る物体進路予測プログラムは、上記いずれかの発明に係る物体進路予 測方法を前記コンピュータに実行させることを特徴とする。
[0075] 本発明に係る自動運転システムは、車両に搭載されて当該車両を自動的に運転す る自動運転システムであって、上記いずれかの発明に係る物体進路予測装置と、前 記物体進路予測装置が備える前記進路選択手段で選択された進路を実現する操作 信号に応じて当該車両を操作するァクチユエータ装置と、を備えたことを特徴とする。 発明の効果
[0076] 本発明に係る物体進路予測方法、装置、プログラム、および自動運転システムによ れば、現実として起こりうる状況下においても安全性の確保を図ることができる。 図面の簡単な説明
[0077] [図 1]図 1は、本発明の実施の形態 1に係る物体進路予測装置の機能構成を示すブ ロック図である。
[図 2]図 2は、本発明の実施の形態 1に係る物体進路予測方法の概要を示すフロー チャートである。
[図 3]図 3は、本発明の実施の形態 1に係る物体進路予測方法における軌跡生成処 理の概要を示すフローチャートである。
[図 4]図 4は、 3次元時空間に生成された軌跡を模式的に示す図である。
[図 5]図 5は、一つの物体に対して 3次元時空間に生成された軌跡集合を模式的に 示す図である。
[図 6]図 6は、本発明の実施の形態 1に係る物体進路予測方法によって形成された時 空間環境の構成を模式的に示す説明図である。
[図 7]図 7は、本発明の実施の形態 1に係る物体進路予測装置における予測結果の 表示出力例を示す図である。
[図 8]図 8は、本発明の実施の形態 1に係る物体進路予測装置における予測結果の 表示出力例(第 2例)を示す図である。
[図 9]図 9は、 自車の操作を維持するモデルを採用した場合に形成された時空間環 境の構成を模式的に示す図である。
[図 10]図 10は、本発明の実施の形態 2に係る物体進路予測方法における軌跡生成 処理の概要を示すフローチャートである。
[図 11]図 11は、本発明の実施の形態 2に係る物体進路予測方法における軌跡生成 処理の詳細を示すフローチャートである。
[図 12]図 12は、本発明の実施の形態 3に係る物体進路予測装置の機能構成を示す ブロック図である。
[図 13]図 13は、本発明の実施の形態 3に係る物体進路予測方法の概要を示すフロ 一チャートである。
園 14]図 14は、従来の進路予測演算の問題点を模式的に示す図である。
園 15]図 15は、本発明の実施の形態 3に係る物体進路予測方法における進路予測 演算の利点を模式的に示す図である。
[図 16]図 16は、本発明の実施の形態 3に係る物体進路予測方法における干渉度算 出処理の詳細を示すフローチャートである。
[図 17]図 17は、 自車の 1本の軌跡と他車の 1本の軌跡との時空間上での関係を模式 的に示す図である。
[図 18]図 18は、物体間の干渉の時間依存性を与える関数の例を示す図である。 園 19]図 19は、本発明の実施の形態 4に係る物体進路予測方法における干渉度算 出処理の詳細を示すフローチャートである。
[図 20]図 20は、本発明の実施の形態 5に係る物体進路予測方法における干渉度算 出処理の詳細を示すフローチャートである。
園 21]図 21は、時空間環境の別な構成を模式的に示す説明図である。
[図 22]図 22は、本発明の実施の形態 6に係る物体進路予測装置を含む自動運転シ ステムの機能構成を示すブロック図である。
[図 23]図 23は、本発明の実施の形態 6に係る物体進路予測方法の概要を示すフロ 一チャートである。
[図 24]図 24は、本発明の実施の形態 6に係る物体進路予測方法における進路選択 処理の詳細を示すフローチャートである。
[図 25]図 25は、本発明の実施の形態 6に係る物体進路予測装置における進路設定 結果の表示出力例を示す図である。 [図 26]図 26は、本発明の実施の形態 6に係る物体進路予測装置における進路設定 結果の表示出力例(第 2例)を示す図である。
[図 27]図 27は、本発明の実施の形態 7に係る物体進路予測方法における干渉度算 出処理の詳細を示すフローチャートである。
[図 28]図 28は、本発明の実施の形態 7に係る物体進路予測方法における進路選択 処理の詳細を示すフローチャートである。
符号の説明
1 , 101, 201 物体進路予測装置
2 入力部
3 センサ部
4 軌跡生成部(軌跡生成手段)
5, 105 予測部(予測手段)
6, 107, 209 出力部(出力手段)
7, 108, 210 記憶部(記憶手段)
41 操作選択部(操作選択手段)
42 物体操作部 (物体操作手段)
43 判定部 (判定手段)
51 予測演算部
52 画像生成部
61 , 171, 291 表示部
106 干渉度算出部 (干渉度算出手段)
172, 292 警告音発生部
207 進路選択部 (進路選択手段)
208 操作信号送信部 (操作信号送信手段)
211 ァクチユエータ装置
1000 自動運転システム
B , B , B 進路
1 2 3
CN 表示画面 D , D 領域
a b
Env (P , P ) , Env' (P , P ) , Env (P , P , P ) 時空間環境
1 2 1 2 1 2 3
F フロントガラス
H 矢印
O,〇, O 物体
1 2 i
R, Rd 道路
ST ステアリング
発明を実施するための最良の形態
[0079] 以下、添付図面を参照して本発明を実施するための最良の形態(以後、「実施の形 態」と称する)を説明する。
[0080] (実施の形態 1)
図 1は、本発明の実施の形態 1に係る物体進路予測装置の機能構成を示すブロッ ク図である。同図に示す物体進路予測装置 1は、四輪自動車等の移動体に搭載され
、自車の周囲の所定範囲に存在する物体を検知し、この検知した物体および自車の 進路を予測する装置である。
[0081] 物体進路予測装置 1は、各種情報が外部から入力される入力部 2と、所定の範囲 に存在する物体の位置や内部状態を検知するセンサ部 3と、センサ部 3が検知した 結果に基づいて、物体が時間の経過とともに取りうる位置の変化を時間および空間 力 構成される時空間上での軌跡として生成する軌跡生成部 4と、軌跡生成部 4で生 成した軌跡を用いて物体の進路の確率的な予測を行う予測部 5と、少なくとも予測部 5で行われた予測結果を含む各種情報を出力する出力部 6と、軌跡生成部 4で生成 された時空間上の軌跡や予測部 5における予測結果を含む情報を記憶する記憶部 7と、を備える。
[0082] 入力部 2は、物体の進路を予測する際の各種設定情報等の入力を行う機能を有し 、リモコン、キーボード(画面上での入力操作が可能なタツチパネル形式を含む)、ポ インティングデバイス(マウス、トラックパッド等)などを用いて実現される。また、入力 部 2として、音声による情報の入力が可能なマイクロフォンを設けてもよい。なお、予 め各種設定情報が定められる場合は、それらを格納した ROM (Read Only Memory )等を有する記憶部 7によって入力部 2の機能を代替してもよい。
[0083] センサ部 3は、ミリ波レーダ、レーザレーダ、画像センサ等を用いることによって実現 される。また、センサ部 3は、速度センサ、加速度センサ、舵角センサ、角速度センサ 等の各種センサを備えており、 自車の移動状況を検知することもできる。なお、セン サ部 3が検知する物体の内部状態とは、物体の予測に用いることができるような有益 な状態のことであり、好ましくは物体の速度(速さと向きを有する)や角速度(大きさと 向きを有する)等の物理量である。なお、それらの物理量の値が 0の場合 (物体が停 止してレ、る状態)も含まれることは勿論である。
[0084] 軌跡生成部 4は、所定の時間が経過するまでに物体が取りうる軌跡を予測生成す るものであり、物体をシミュレーション上で仮想的に動作させるための操作を複数の 操作から選択する操作選択部 41と、操作選択部 41で選択した操作を所定の時間行 う物体操作部 42と、物体操作部 42で操作した後の物体の位置および内部状態が所 定の条件を満たしているか否力を判定する判定部 43とを有する。
[0085] 予測部 5は、軌跡生成部 4から出力される物体ごとの軌跡を用いることによって物体 進路の確率的な予測演算を行う予測演算部 51と、予測演算部 51における予測演算 結果に応じて出力部 6で表示出力する画像を生成する画像生成部 52とを有する。
[0086] 出力部 6は、予測部 5の画像生成部 52で生成された画像を表示出力する表示部 6 1を有する。表示部 61は、液晶、プラズマ、または有機 EL (Electroluminescence)等 のディスプレイを用いて実現される。本実施の形態 1においては、表示部 61として運 転席の後方上部にプロジェクタを設置している。このプロジェクタは、四輪自動車のフ ロントガラスへの重畳表示を行う機能を有している。なお、出力部 6として、音声情報 を外部に出力するスピーカーを設けてもよい。
[0087] 記憶部 7は、センサ部 3での検知結果に加えて、軌跡生成部 4で生成された軌跡、 予測部 5における予測結果、および軌跡生成部 4の操作選択部 41で選択する操作 などを記憶する。この記憶部 7は、所定の OS (Operation System)を起動するプログ ラムや本実施の形態 1に係る物体進路予測プログラム等が予め記憶された R〇M、お よび各処理の演算パラメータやデータ等を記憶する RAM (Random Access Memor y)を用いて実現される。また、記憶部 7は、物体進路予測装置 1に対してコンピュータ 読み取り可能な記録媒体を搭載可能なインタフェースを設け、このインタフェースに 対応する記録媒体を搭載することによって実現することもできる。
[0088] 以上の機能構成を有する物体進路予測装置 1は、演算および制御機能を有する C PU (Central Processing Unit)を備えた電子的な装置(コンピュータ)である。物体 進路予測装置 1が備える CPUは、記憶部 7が記憶、格納する情報および上述した物 体進路予測プログラムを含む各種プログラムを記憶部 7から読み出すことによって本 実施の形態 1に係る物体進路予測方法に関する演算処理を実行する。
[0089] なお、本実施の形態 1に係る物体進路予測プログラムは、ハードディスク、フレキシ ブルディスク、 CD— ROM、 DVD-ROM,フラッシュメモリ、 M〇ディスク等のコンビ ユータ読み取り可能な記録媒体に記録して広く流通させることも可能である。
[0090] 次に、本発明の実施の形態 1に係る物体進路予測方法について説明する。図 2は 、本実施の形態 1に係る物体進路予測方法の処理の概要を示すフローチャートであ る。以下の説明においては、予測対象の物体は全て 2次元平面上を移動するものと 仮定して説明を行う。
[0091] まず、センサ部 3において、所定の範囲にある物体の自車に対する位置および内 部状態を検知し、検知した情報を記憶部 7に格納する(ステップ Sl)。以後、物体の 位置は物体の中心の値であるとし、物体の内部状態は速度(速さ V,向き Θ )によって 特定されるものとする。なお、このステップ S1において、 自車の内部状態も検知し、 記憶部 7に格納することは勿論である。
[0092] 次に、センサ部 3によって入力された検知結果を用いることにより、軌跡生成部 4が 物体ごとに軌跡を生成する (ステップ S2)。図 3は、軌跡生成部 4における軌跡生成 処理の詳細を示すフローチャートである。同図においては、センサ部 3で検知した物 体の総数(自車を含む)を Kとし、一つの物体〇(l≤k≤K, kは自然数)に対して軌
k
跡を生成する演算を N回行うものとする(この意味で、 Kおよび Nはともに自然数)。
k k
また、軌跡を生成する時間(軌跡生成時間)を T ( > 0)とする。
[0093] 本実施の形態 1では、軌跡生成時間 Τ (および後述する操作時間 A t)を適切に定 めることにより、実用的な計算時間で他車の進路など外界の変化の予測を行うことが 可能となる。この点については、本発明の他の実施の形態に対しても共通していえる ことである。
[0094] 最初に、物体を識別するカウンタ kの値を 1とするとともに、同じ物体〇に対する軌
k
跡生成回数を示すカウンタ nの値を 1とする初期化を行う(ステップ S201)。なお、以
k
下の説明は、一般の物体〇に対する処理として説明する。
k
[0095] 次に、軌跡生成部 4では、センサ部 3で検知した結果を記憶部 7から読み出し、この 読み出した検知結果を初期状態とする(ステップ S202)。具体的には、時間 tを 0とし 、初期位置 (0) , y (0) )および初期内部状態 (V (0), Θ (0) )を、それぞれセン
k k k k
サ部3からの入力情報 (x , ぉょび^ , Θ )とする。
[0096] 続いて、操作選択部 41が、その後の時間 A tの間に行う操作 u (t)を、選択可能な
k
複数の操作の中から、各操作に予め付与された操作選択確率にしたがって一つの 操作を選択する (ステップ S203)。操作 u を選択する操作選択確率 p (u )は、例え
kc kc
ば u (t)として選択可能な操作の集合 {u }の要素と所定の乱数とを対応付けること k kc
によって定義される。この意味で、操作 u ごとに異なる操作選択確率 p (u )を付与し
kc kc
てもよいし、操作集合 {u }の全要素に対して等しい確率を付与してもよい。後者の場
kc
合には、 p (u ) = 1/ (選択可能な全操作数)となる。なお、操作選択確率 p (u )を、
kc kc 自車の位置および内部状態、ならびに周囲の道路環境に依存する関数として定義 することも可能である。
[0097] 一般に、操作 u は複数の要素から構成され、物体〇の種類によって選択可能な操
kc k
作の内容が異なる。例えば、物体 Oが四輪自動車の場合、その四輪自動車の加速
k
度や角速度はステアリングの切り具合やアクセルの踏み具合等によって決まる。この ことに鑑みて、四輪自動車である物体 Oに対して施される操作 u は、加速度や角速
k kc
度を含む要素によって決定される。これに対して、物体 Oが人である場合には、速度
k
によって操作 u を指定することができる。
kc
[0098] より具体的な操作 u の設定例を挙げる。物体 Oが自動車の場合には、加速度を一
kc k
10〜十 30 (km/h/sec)、操舵角を _ 7〜 + 7 (deg/sec)の範囲で取り(レ、ずれも 符号で向きを指定)、物体〇が人の場合には、速さを 0〜36 (km/h)、向きを 0〜3
k
60 (deg)の範囲で取る。なお、ここで記載した量は全て連続量である。このような場 合には、適当な離散化を施すことによって各操作の要素数を有限とし、操作の集合 { U }を構成すればよい。
kc
[0099] この後、物体操作部 42が、ステップ S203で選択した操作 u を時間 Δ tの間動作さ
kc
せる(ステップ S204)。この時間 Δ ΐは、精度の上では小さい方がより好ましいが、実 用上は 0.:!〜 0. 5 (sec)程度の値とすればよい。なお、以下の説明において、軌跡 生成時間 Tは A tの整数倍であるとする力 Tの値は物体〇の速度に応じて可変とし
k
てもよく、 A tの整数倍でなくてもよい。
[0100] 続いて、判定部 43では、ステップ S204で操作 u を動作させた後の物体 Oの内部
kc k 状態が所定の制御条件を満たしているか否力、を判定する(ステップ S205)とともに、 操作 u を動作させた後の物体〇の位置が移動可能領域内にあるか否かを判定する kc k
(ステップ S206)。このうち、ステップ S205で判定する制御条件は、物体〇の種類に
k 応じて定められ、例えば物体 Oが四輪自動車である場合には、ステップ S204の動
k
作後の速度の範囲や、ステップ S204の動作後の加速度の最高車両 G等によって定 められる。他方、ステップ S206で判定する移動可能領域とは、道路(車道、歩道を含 む)等の領域を指す。以後、物体が移動可能領域に位置する場合を、「移動条件を 満たす」と表現する。
[0101] 上述した判定部 43における判定の結果、一つでも満足しない条件がある場合 (ス テツプ S205で Noまたはステップ S206で No)には、ステップ S202に戻る。これに対 して、判定部 43における判定の結果、ステップ S204における操作 u 終了後の物体
kc
Oの位置および内部状態が全ての条件を満足している場合 (ステップ S205で Yes k
およびステップ S206で Yes)には、時間を A tだけ進め(t t+ A t)、ステップ S204 の動作後の位置を (X (t), y (t) )、内部状態を (V (t), Θ (t) )とする (ステップ S20
k k k k
7)。
[0102] 以上説明したステップ S202〜S207の処理は、軌跡生成時間 Tに達するまで繰り 返し行われる。すなわち、ステップ S207で新たに定義された時間 tが Tに達していな い場合(ステップ S208で No)、ステップ S203に戻って処理を繰り返す。他方、ステツ プ S207で新たに定義された時間 tが Tに達した場合 (ステップ S208で Yes)、物体〇 に対する軌跡を出力し、記憶部 7に格納する (ステップ S209)。
k
[0103] 図 4は、物体〇に対して時間 t = 0, A t, 2 A t, · · ·, Tでステップ S203からステツ プ S207に至る一連の処理を繰り返すことによって生成された物体〇の軌跡を模式 k
的に示す図である。同図に示す軌跡 P (m) (l≤m≤N , mは自然数)は、空間 2次
k k
元(χ, y) ,時間 1次元(t)の 3次元時空間(x, y, t)を通過する。この軌跡 P (m)を x
k
_y平面上に射影すれば、 2次元空間(x, y)における物体〇の予測進路を得ること k
ができる。
[0104] ステップ S209の後、カウンタ nの値が Nに達していなければ(ステップ S210で No k k
)、カウンタ nの値を 1増やし(ステップ S211)、ステップ S202に戻って上述したステ k
ップ S202〜S208の処理を軌跡生成時間 Tに達するまで繰り返し行う。
[0105] ステップ S210でカウンタ nが Nに達した場合(ステップ S210で Yes)、物体 Oに対 k k する全ての軌跡の生成が完了する。図 5は、一つの物体 Oに対して生成された N個
k k の軌跡 P (1), P (2) , · · ·, P (N )から成る軌跡集合 {P (n ) }を 3次元時空間上で k k k k k k
模式的に示す説明図である。軌跡集合 {P (n ) }の要素をなす各軌跡の始点すなわ k k
ち初期位置(x , y , 0)は同じである(ステップ S202を参照)。なお、図 5はあくまで も模式図であり、 Nの値としては、例えば数百〜数万程度の値をとることが可能であ k
る。
[0106] ステップ S210でカウンタ nが Nに達した場合、物体識別用のカウンタ kが物体の総
k k
数 Kに達していなければ(ステップ S212で No)、そのカウンタ kの値を 1増やすととも に軌跡生成回数のカウンタ nの値を 1に初期化し (ステップ S213)、ステップ S202に
k
戻って処理を繰り返す。これに対して物体のカウンタ kが Kに達した場合 (ステップ S2 12で Yes)、全ての物体に対する軌跡生成が完了したことになるので、ステップ S2の 軌跡生成処理を終了し、続くステップ S3に進む。
[0107] このようにして、センサ部 3で検知した全ての物体に対して所定の回数の軌跡生成 処理を行うことにより、 3次元時空間の所定の範囲内に存在する複数の物体が取りう る軌跡の集合から成る時空間環境が形成される。図 6は、時空間環境の構成例を模 式的に示す説明図である。同図に示す時空間環境 Εην (Ρ , P )は、物体 Oの軌跡
1 2 1 集合 {P (n ) } (図 6では実線で表示)および物体〇の軌跡集合 {P (n ) } (図 6では
1 1 2 2 2 破線で表示)から成る。より具体的には、時空間環境 Env (P, P )は、二つの物体〇
1 2 1 および O 、高速道路のような平坦かつ直線状の道路 Rを +y軸方向に向かって移 動している場合の時空間環境を示すものである。本実施の形態 1においては、物体 同士の相関は考慮せずに物体ごとに独立に軌跡生成を行っているため、異なる物体 の軌跡同士が時空間上で交差することもある。
[0108] 図 6において、時空間の各領域における軌跡集合 {P (n ) } (k= l, 2)の単位体積 k k
当たりの密度は、その時空間の各領域における物体 Oの存在確率の密度(以後、「 k
時空間確率密度」と称する)を与えている。したがって、ステップ S2における軌跡生 成処理によって構成された時空間環境 Env (P, P )を用いることにより、物体 Oが 3
1 2 k 次元時空間上の所定の領域を通過する確率を求めることが可能となる。なお、上述し た時空間確率密度は、あくまでも時空間上における確率概念であるため、一つの物 体に対して時空間上でその値の総和を取ったときに 1になるとは限らない。
[0109] ところで、軌跡生成時間 Tの具体的な値は、予め固定値として設定する場合には、 その値 Tを超えたところまで軌跡を生成すると時空間上の確率密度分布が一様にな つてしまい、計算しても意味がないような値とするのが好ましい。例えば、物体が四輪 自動車であって、その四輪自動車が通常の走行を行っている場合には、たかだか T = 5 (sec)程度とすればよい。この場合、ステップ S204における操作時間 A tを 0· 1 〜0· 5 (sec)程度とすると、 1本の軌跡 P (m)を生成するために、ステップ S203から k
ステップ S207に至る一連の処理を 10〜50回繰り返すことになる。
[0110] なお、高速道路、一般道、 2車線道路などの道路の種類ごとに異なる軌跡生成時 間 Tを設定し、位置データを用いて現在走行中の道路の種類を地図データから読み 取る方法や、画像認識等を応用した道路認識装置によって道路の種類を読み取る 方法などによって切替を行うことは好ましレ、。
[0111] また、軌跡生成時間 Tまで算出した軌跡を用いることによって時空間上の確率密度 分布を統計的に評価し、分布が一定となっている場合には軌跡生成時間 Tを減らし
、分布が一定となってレ、なレ、場合には生成時間を増やすような適応制御を行うことも 好ましい。
[0112] さらには、自車の取り得る複数の進路を予め用意しておき、 自車の進路と他の物体 の進路との交差する確率が一定となる時間を軌跡生成時間 Tとして予測を行うことも 可能である。この場合、予測時間を A tだけ増やしたときに自車の取り得る進路ごとの リスクの増分が一定となる場合をもって打ち切り条件としてもよい。かかる構成におい ては、安全を確保するために現在取るべき進路の判断材料を得るため、 自車の取り 得る進路の未来側の端点が空間的に広く分布するように設定されていることはいうま でもない。
[0113] 以上説明した物体ごとの軌跡生成処理の後、予測部 5は、各物体が取りうる進路の 確率的な予測を行う(ステップ S3)。以下では、予測部 5の予測演算部 51における具 体的な予測演算処理として、物体〇に対して生成された軌跡集合 {P (n ) }の中で k k k 特定の軌跡 P (m)が選ばれる確率を求める場合について説明するが、この予測演 k
算が一例に過ぎないことは勿論である。
[0114] 物体 Oの軌跡が N本生成されたとき、そのうちの 1本の軌跡 P (m)が実際の軌跡と
k k k
なる確率 p(P (m))は、次のように算出される。まず、物体 Oの軌跡 P (m)を実現す k k k
るための操作列 {u (t)}が {u (0), u (At), u (2At), ···, u (T)}であったと km km km km km
すると、時間 tにおいて操作 u (t)が選択される確率は p(u (t))であったので、 t = km km
0〜Tで操作列 {u (t)}が実行される確率は、
km
[数 1] p(ukm(0)).p(ukm(At))-p(ukm(2At))-p(ukm(T))=nP(^m(t)) (1) と求められる。したがって、物体〇に N本の軌跡集合 {P (n ) }が与えられたとき、物 k k k k
体〇が取りうる一つの軌跡 P (m)が選ばれる確率 p(P (m))は、
k k k
[数 2]
Figure imgf000025_0001
となる c
[0115] 全ての操作 u (t)が等確率 p (ただし、 0<p <1)で選択される場合、式(1)は、 km 0 0
[数 3]
Figure imgf000026_0001
となる。ここで、 sは t = 0から Tまでの操作時間 Δΐの総数すなわち操作回数である。 したがって、物体〇が取りうる Ν本の軌跡に含まれる軌跡 P (m)の確率の総和は Ν
k k k k psとなり、そのうちの 1本の軌跡 P (m)が選ばれる確率 p(P (m))は、式(3)を式(2)
0 k k
に代入することによって、
[数 4] p(Pk(m)) = - - (4)
k となる。すなわち、確率 p(P (m))は軌跡 P (m)に依存しない。
k k
[0116] なお、式 (4)において、全ての物体に対して生成する軌跡の数が同じ (N本)である とすると、 N =Ν = ···=Ν =Ν (定数)なので、 p(P (m))=l/Nとなり、物体〇
1 2 K k k によらず一定となる。この場合には、確率 p(P (m))の値を 1に規格化することによつ k
て予測演算部 51における予測演算を簡素化し、より迅速に所定の予測演算を実行 すること力 S可能となる。なお、操作 u (t)が選択される確率 p (u (t) )は、入力部 2か
km km
らの入力によって適宜設定または変更することができるようにしてもよい。
[0117] 予測演算部 51は、物体 O (k=l, 2, ···, K)ごとに算出した確率 p(P (m))に基 k k
づいて、 3次元時空間の各領域における単位体積当たりの物体 Oの存在確率を求 k
める。この存在確率は、軌跡集合 {P (n )}の 3次元時空間上の時空間確率密度に
k k
対応しており、通過している軌跡の密度が高い領域は、存在確率が概ね大きい。
[0118] ここまで説明してきた予測演算部 51における演算の後、画像生成部 52は、得られ た演算結果に応じて出力部 6の表示部 61で表示する画像に関する画像情報を生成 し、出力部 6へ送出する。
[0119] 以上説明したステップ S3に続いて、予測演算部 51での演算結果に応じた情報す なわち予測結果を表示出力する (ステップ S4)。図 7は、表示部 61における予測結果 の表示出力例を示す図であり、二つの物体 O (自車)および〇によって構成された
1 2
時空間環境 Εην(Ρ , P ) (図 6を参照)を用いて予測を行った場合の予測結果の表 示出力例を模式的に示す図である。より具体的には、図 7では、他の物体〇の所定
2 時間後の存在確率が予め定めた閾値を超えるような領域を物体〇(自車)のフロント
1
ガラス Fに半透明に重畳表示した場合を図示している。なお、半透明に表示されてい る二つの領域 Dと領域 Dとでは照度が異なっている(領域 Dの方が照度が高い)。こ a b a のような照度の違いは、予測演算部 51における予測結果を反映したものであり、求 めた存在確率の値に応じて異なる照度を有する半透明領域がフロントガラス Fに重畳 表示される。
[0120] 上述した重畳表示は、物体 Oの運転席の後方上部に設置されたプロジェクタ(出
1
力部 6の一部をなす、図示せず)から画像生成部 52で生成された画像をフロントガラ ス Fに投影することによって実現される。これにより、物体 Oの運転者は、自車の前方
1
を目視して運転しながら、近レ、将来に危険が生じる可能性のある領域を即座に認識 すること力 sできる。したがって、その認識結果を運転に反映させることによって適確に 危険を回避することが可能となる。
[0121] なお、出力部 6における表示出力例はこれに限られるわけではなぐ例えばカーナ ビゲーシヨンシステムの表示画面 CN (図 7を参照)に表示部 61の機能を具備させるこ とによって予測部 5における予測結果を表示してもよい。この場合には、図 8に示す 領域 Dおよび Dのように、表示画面 CNに表示される 2次元平面上で領域ごとに色 a b
の濃淡をつけて表示することも可能である。また、出力部 6からマイクロフォンを介して 音声を発生させることにより、周辺の道路状況に応じた情報や警報音または音声を 出力するようにしてもよい。
[0122] 以上説明した本発明の実施の形態 1によれば、物体の位置および当該物体の速度 を含む内部状態を記憶する記憶手段を備えたコンピュータが、前記物体の位置およ び内部状態を前記記憶手段から読み出し、この読み出した前記物体の位置および 内部状態に基づいて、前記物体が時間の経過とともに取りうる位置の変化を時間お よび空間力 構成される時空間上での軌跡として生成し、この生成した軌跡を用いる ことによって前記物体の進路の確率的な予測を行うことにより、現実として起こりうる状 況下においても安全性の確保を図ることが可能となる。
[0123] また、本実施の形態 1によれば、時間と空間から構成される時空間上に形成された 時空間環境を用いて物体の進路予測を行うことにより、静的物体だけでなく動的物 体の進路予測も精度よく行うことができる。
[0124] さらに、本実施の形態 1によれば、検知した物体の軌跡を互いに独立に生成してい るため、特定の物体 (例えば自車)と他の物体とを区別することができる。この結果、 特定の物体とその他の物体との間で生じうる危険度を容易にかつ適確に、実用的な 時間の内に予測することが可能となる。
[0125] カロえて、本実施の形態 1によれば、時空間環境を用いて予測した結果を出力するこ とによって危険度を含む情報の提示を行うことができるため、その情報の提示を受け た自車の運転者は、運転中の近い将来に起こりうる危険を迅速かつ適確に回避しな 力 Sら運転することが可能となる。
[0126] なお、本実施の形態 1は、上述したように 4次元時空間(空間 3次元、時間 1次元)に おいても適用可能である。この場合には、高低差のある道路を走行中の自動車に適 用できるのは勿論のこと、他にも飛行機やヘリコプターのように、空中を移動する移動 体が同じく空中を移動する他の移動体の進路予測を行う場合にも適用可能である。
[0127] ここで、上記背景技術で引用した非特許文献 1と本実施の形態 1との差異について 説明する。これら二つの技術は、ともに確率概念を用いた物体の進路予測を行って いる力 非特許文献 1では、所定の範囲内にある物体の進路を独立に予測している わけではなぐ相互の相関に基づいた確率計算を行っている。このため、複数の物体 のうちいずれか二つの物体が衝突した場合、その二つの物体の進路予測は衝突し た時点で終了する。これは、 3次元時空間上で考えると、二つの異なる物体の軌跡は 、交差した時点以後の衝突判定処理が行われないことを意味している。
[0128] これに対して、本実施の形態 1では、物体の軌跡は物体ごとに独立に生成されるた め、 3次元時空間上において異なる物体の軌跡が交差しても、衝突判定処理は所定 時間経過するまで継続される。このように、非特許文献 1で生成される時空間環境と 本実施の形態 1で生成される時空間環境とは全く異質なものである。また、本実施の 形態 1では、物体の相関を考慮することなぐ物体ごとに独立な進路探索を行ってい るため、計算量も非特許文献 1より少なくて済む。
[0129] カロえて、非特許文献 1では、衝突という事象が予測できたとしても、それがいつの時 点で起こる力まで把握することはできなレ、。これは、非特許文献 1が、時間の流れの 中で物体が衝突する確率を求めているのではなぐ各時間における状態ごとに衝突 の有無を探索することを主眼としているためである。換言すれば、非特許文献 1では
、時空間環境といったものを明示的に用いていない上、時空間確率密度という概念 には到達していない。
[0130] このように、本実施の形態 1と非特許文献 1とは、ともに確率概念を用いた進路予測 を行っているため、一見すると類似した技術であるかのような印象を与えかねないが 、その技術的な思想の本質は全く異なっており、非特許文献 1から本実施の形態 1を 想到することは、当業者といえども困難を極めるものである。
[0131] (実施の形態 1の変形例)
軌跡生成部 4の操作選択部 41では、 自車に関してのみ現時点での操作を維持す るものとしてもよレ、。この場合、自車では予測時点での内部状態が維持され、唯一つ の操作が行われ続けることになるため、その操作を選択する操作選択確率は 1であり 、自車の軌跡集合として、時空間上には 1本の軌跡のみが生成される。
[0132] 図 9は、上記の如く自車の操作を維持した場合に生成された時空間環境を示すも のであり、図 6に対応する図である。図 9に示す時空間環境 Εην' (Ρ , P )においては
1 2
、 3次元時空間における物体 O (自車)の軌跡集合は、直線状の 1本の軌跡 Pのみ
1 1 によって構成されている(物体〇に関しては図 6と同様)。このように、 自車 Oの操作
2 1 を維持するモデルを適用すれば、周囲の物体が多い場合などにおいて状況を単純 化して予測を行うことが可能となり、軌跡生成部および予測部における計算量を少な くすることができる。
[0133] (実施の形態 2)
本発明の実施の形態 2は、物体ごとの軌跡生成を行う際に、選択可能な全ての操 作を動作させることによって軌跡を生成することを特徴とする。なお、本実施の形態 2 に係る物体進路予測装置の機能構成は、上述した実施の形態 1に係る物体進路予 測装置 1の機能構成(図 1を参照)と同じである。また、本実施の形態 2に係る物体進 路予測方法は、物体ごとの軌跡生成処理を除いて、上記実施の形態 1に係る物体進 路予測方法と同じである。 [0134] 図 10は、本実施の形態 2に係る物体進路予測方法における軌跡生成処理(図 2の ステップ S2に相当)の概要を示すフローチャートである。同図に示す軌跡生成処理 では、まず物体を識別するカウンタ kの値を 1とする初期化を行う(ステップ S21)。本 実施の形態 2においても、軌跡生成を行うべき物体の総数を Kとする。
[0135] 次に、軌跡生成部 4は、センサ部 3で検知した結果を記憶部 7から読み出し、この読 み出した検知結果を初期状態とする (ステップ S22)。具体的には、時間 tを 0とし、初 期位置 (0) , y (0) )および初期内部状態 (V (0), Θ (0) )を、それぞれセンサ部
k k k k
3からの入力情報(x , y )および (v , θ )とする。
[0136] 続いて、物体 Οの 3次元時空間(X, y, t)における軌跡を生成する(ステップ S23)
k
。図 11は、ステップ S23の軌跡生成処理の詳細を示すフローチャートである。以下の 説明においては、軌跡生成時間 Tは、各操作を行う操作時間 A tを用いて T=J A t CF は自然数)と表されるものとする。
[0137] まず、時間 t = 0におけるループ処理(Loopl)を開始する(ステップ S231— 1)。こ の Looplでは、 t = 0における操作 u (0)を A tの間実行する。この際、操作 u (0)の
k k 具体的な内容は、上記実施の形態 1と同様、物体〇の種類に応じて決まる(車両の
k
場合には、加速度や角速度によって指定される一方、人の場合には速度によって指 定される)。操作の集合 {u }は有限個の要素から成り、選択可能な操作が連続量の
kc
場合には、適当な間隔で離散化することによって集合 {u }の要素が構成される。
kc
[0138] ステップ S231— 1のより具体的な処理を説明する。最初に、操作選択部 41で一つ の操作 u (0)を選択し、この選択した操作 u (0)を物体操作部 42で Δ ΐの間動作さ kc kc
せる。この動作後、判定部 43は、物体〇の位置や内部状態が、上記実施の形態 1と
k
同様の制御条件および移動条件を満たしてレ、るか否力、を判定し、それらの条件を全 て満たしている場合(〇K)には、次の時間 t= A tにおけるループ処理 (Loop2)に進 む。これに対して、制御条件および移動条件のうちで一つでも満足しない条件がある 場合 (NG)には、ステップ S233— 1に進み、その直前に行った操作 u (0)をキャン
kc
セルする。なお、本実施の形態 2においては、操作選択部 41で全ての操作を選択す るため、各操作の選択順は任意である。この点については、以後のループ処理 (Loo p2, Loop3, · · ·, LoopJ)においても同様である。 [0139] 以下、 1本の軌跡が生成されるまでの処理を先に説明する。 Loop2では、上述した Looplと同様に、操作選択部 41で操作を選択し、 Δΐの間だけ操作 u (Δΐ)を行う。
kc
そして、操作後の物体〇の位置が上記同様の制御条件および移動条件を満たして
k
いれば(〇K)、時刻 2 Atにおけるループ処理(Loop3)に移行する。他方、制御条件 および移動条件のうち一つでも満足しなレ、条件があれば(NG)、ステップ S233— 2 に進み、その直前に行った操作 u ( Δ t)をキャンセルする。
kc
[0140] 以後、上述した Looplおよび Loop2の各処理と同様の処理を繰り返すことによって J個のループ処理を連続して行う。すなわち、各時間 3At, 4At, ···における操作を 動作させた後の物体〇が制御条件および移動条件を満たしている限り、 Loop4, Lo
k
op5, ···と順次進んでいく。そして、物体 Oが最後の LoopJに至るまで制御条件お
k
よび移動条件を満たしている場合には、続くステップ S232に進む。ステップ S232で は、 t = 0から t=T(=JAt)に至る 1本の軌跡が出力され、記憶部 7に記憶、格納され る。この軌跡は、図 4に示す軌跡 P (m)と同様に 3次元時空間を通過する。
k
[0141] ステップ S232に続くステップ S233— Jでは、最も遅い時間に動作させた操作
u (T Δ t) =u (Q-l) At)をキャンセルし、 LoopJを継続する場合 (LoopJ継続) kc kc
には、再びステップ S231— Jに戻る。他方、 LoopJを終了する場合 (LoopJ終了)に は、続くステップ S233— I— 1)に進む。
[0142] ステップ S233—ひ一 1)では、 Loop — 1)で実行した操作 u (T— 2 At)をキャン
kc
セルし、 Loop J— 1)を継続する場合 (Loopひ 1)継続)、すなわち操作 u (T— 2
kc
Δ t)として実行すべき要素が残っている場合には、ステップ S231— Q-1)に戻って 処理を繰り返す。他方、 Loop Q-l)を終了する場合 (Loop J— 1)終了)、すなわち 操作 u (T— 2 At)として実行すべき要素が残っていない場合には、続くステップ S2 kc
33—CF 2)に進む。
[0143] 以後、 Loop i_2), ···, Loop2, Looplの順で上述した LoopJや Loop(J_l)に おける処理と同様の処理を繰り返し行う。この結果、最後にステップ S233— 1で Loo piを終了してステップ S24の処理へ進む際には、物体〇がとり得る全ての可能な軌
k
跡が生成される。すなわち、図 5に示すのと同様の軌跡集合 {P (n)}が生成される。
k k
[0144] 次に、ステップ S231— 1で制御条件および移動条件のいずれか一つが満たされな い場合(NG)について説明する。この場合には、ステップ S233— 1に進み、その直 前に行った操作 u (0)をキャンセルする。この後、 Looplを継続する場合にはステツ kc
プ S231— 1に戻り、 Looplを終了する場合には、続くステップ S24に進む。
[0145] ステップ S231— 2, 231— 3, · · ·, S231—Jで選択された操作を動作させた後、物 体 Oが制御条件および移動条件のいずれ力、を満足しない場合にも、上述したステツ k
プ S231— 1の処理と同様の処理を行う。すなわち、一般にステップ S231— j (j = 2, 3, · · · , J)で物体〇が制御条件および移動条件のいずれ力、を満足しない場合には k
、ステップ S233— jに進み、その直前に行った操作をキャンセルすればよレ、。このこと によって、ある時間 tで条件を満足しない場合には、 t以降の軌跡生成処理を省くこ k k
とができ、計算量の削減を実現することができる。
[0146] 以上説明した軌跡生成処理のアルゴリズムは、縦型探索に基づいた再帰呼出を用 レ、ることによって全ての可能な操作を探索する際のアルゴリズムに等しい。したがって この場合には、一つの物体〇に対して最終的に生成される軌跡集合 {P (n ) }の要 k k k 素数すなわち軌跡の本数は、その物体 Oに対する軌跡生成処理が終了するまで分 k
からない。
[0147] なお、上述した軌跡生成処理を行う代わりとして、横型探索を用いることによって全 ての可能な操作を探索してもよい。このように、実行可能な操作を全探索することによ つて各物体が取りうる軌跡を生成する場合には、操作時間 A tにおける操作 u (t)の kc 要素の数 (操作 u (t)が連続量の場合には離散化の度合レ、)に応じて最適な計算量 kc
を有する探索方法を選択すればょレ、。
[0148] 以上説明したステップ S23の軌跡生成処理の後、物体識別用のカウンタ kが Kに達 していなければ(ステップ S24で No)、そのカウンタの値を 1増やし(ステップ S25)、 ステップ S22に戻ってセンサ部 3の検知結果に基づく初期化を行レ、、上述した軌跡 生成処理 (ステップ S23)を別の物体〇 に対して行う。他方、物体識別用のカウンタ k+1
kが Kに達した場合 (ステップ S24で Yes)、所定の範囲に存在する全ての物体に対 する軌跡生成処理が終了したことになるので、軌跡生成処理(図 2のステップ S2に相 当)を終了する。この結果、図 6に示すのと同様の時空間環境 Env (P, P )が形成さ
1 2 れ、記憶部 7において記憶、格納される。 [0149] この後の処理、すなわち予測部 5における物体の進路の確率的な予測(図 2のステ ップ S3に相当)および出力部 6における予測結果の出力(図 2のステップ S4に相当) は、上記実施の形態 1と同様である。
[0150] 以上説明した本発明の実施の形態 2によれば、物体の位置および当該物体の速度 を含む内部状態を記憶する記憶手段を備えたコンピュータが、前記物体の位置およ び内部状態を前記記憶手段から読み出し、この読み出した前記物体の位置および 内部状態に基づいて、前記物体が時間の経過とともに取りうる位置の変化を時間お よび空間力 構成される時空間上での軌跡として生成し、この生成した軌跡を用いる ことによって前記物体の進路の確率的な予測を行うことにより、現実として起こりうる状 況下においても安全性の確保を図ることが可能となる。
[0151] また、本実施の形態 2によれば、時間と空間から構成される時空間上に形成された 時空間環境を用いて物体の進路予測を行うことにより、静的物体だけでなく動的物 体の進路予測も精度よく行うことができる。
[0152] ところで、本発明の実施の形態 2では、再帰呼出を用いた物体の時空間上での軌 跡生成処理を行ったが、上述した実施の形態 1における軌跡生成処理と比較した場 合、どちらの計算量が少なくて済むかは一概にはいえなレ、。換言すれば、如何なるァ ルゴリズムを用いることによって物体の時空間上の軌跡を生成するかは、操作時間 Δ 軌跡生成時間 T、操作集合の要素数等を含むさまざまな条件に応じて変化する。 このため、予測を行う条件に応じて、最も効率がよいアルゴリズムを採用すればよい。
[0153] (実施の形態 3)
図 12は、本発明の実施の形態 3に係る物体進路予測装置の機能構成を示すプロ ック図である。同図に示す物体進路予測装置 101は、四輪自動車等の移動体に搭 載され、特定の物体である自車の周囲の所定範囲に存在する物体を検知し、この検 知した物体および自車の進路を予測し、この予測結果に基づいて、特定の物体であ る自車が取りうる進路と他の物体が取りうる進路との干渉の程度を定量的に評価する 装置である。
[0154] 物体進路予測装置 101は、各種情報が外部から入力される入力部 2と、所定の範 囲に存在する物体の位置や内部状態を検知するセンサ部 3と、センサ部 3が検知し た結果に基づいて、物体が時間の経過とともに取りうる位置の変化を時間および空 間から構成される時空間上での軌跡として生成する軌跡生成部 4と、軌跡生成部 4で 生成した軌跡を用いて物体の進路の確率的な予測を行う予測部 105と、予測部 105 で予測した結果に基づいて自車が取りうる進路と他の物体が取りうる進路との干渉の 程度を定量的に示す干渉度を算出する干渉度算出部 106と、干渉度算出部 106に よる評価結果を含む各種情報を出力する出力部 107と、センサ部 3で検知した物体 の位置や内部状態を含む各種情報を記憶する記憶部 108と、を備える。図 12にお いて、上記実施の形態 1に係る物体進路予測装置 1と同じ機能構成を有する部位に ついては、図 1と同じ符号を付してある。
[0155] 出力部 107は、干渉度算出部 106による評価結果に応じた画像を表示出力する表 示部 171と、その評価結果に応じた警告音を発生する警告音発生部 172とを有する 。このうち、警告音発生部 172はスピーカ等を用いて実現される。
[0156] 記憶部 108は、センサ部 3での検知結果に加えて、軌跡生成部 4で生成された軌 跡、予測部 105における予測結果、および干渉度算出部 106における干渉度算出 結果、軌跡生成部 4の操作選択部 41で選択する操作などを記憶する。
[0157] 次に、本発明の実施の形態 3に係る物体進路予測方法について説明する。図 13 は、本実施の形態 3に係る物体進路予測方法の処理の概要を示すフローチャートで ある。本実施の形態 3においても、予測対象の物体は全て 2次元平面上を移動する ものと仮定して説明を行う。
[0158] 本実施の形態 3において、物体ごとの位置および内部状態の検知処理 (ステップ S 31)、時空間上での物体ごとの軌跡生成処理(ステップ S32)、および軌跡を用いた 物体進路の確率的な予測処理 (ステップ S33)は、上記実施の形態 1で説明したステ ップ S1 ,ステップ S2,およびステップ S3とそれぞれ同じである。以下の説明において 、ステップ S32の軌跡生成処理は、上記実施の形態 1で説明した操作選択確率に基 づく方法で行うものとするが、上記実施の形態 2で説明した方法すなわち選択可能な 全ての操作を動作させることによって軌跡を生成する方法を採用することも可能であ る。
[0159] ところで、ステップ S32において時空間上での物体ごとの軌跡生成処理を行う際、 自車が予め設定された場所(目的地もしくは目的地に類する中間的な場所)に到達 したか否かではなぐ軌跡生成時間 Tで予測演算を打ち切る構成とすることは技術思 想上重要である。一般に道路上では、事前に安全が保障されている場所はない。例 えば、図 14に示すように、 3車線の道路 Rdを走行する自車 O 、予め設定された場
1
所 Q , Q , Q へ順次到達するとして予測を行うとき、その設定された場所に向けて自
1 2 3
車 oが同じ車線をほぼ直進していく場合を考慮に入れると、他車〇は、他車 oが進
1 2 3 路 Bを取ることによって生じる危険を回避するために、進路 Bをとつて自車 Oが走行
3 2 1 している車線に進入してくる恐れがある。このように、従来の進路予測演算では、 自 車 Oが予め設定された場所へ走行するのが安全であるとレ、うことまでは事前に保証
1
されない。
[0160] 本実施の形態 3においては、 自車〇が到達すべき目的地等の場所を予め定めるこ
1
となぐその都度最適な進路を判断しているため、図 14と同じ状況下で、例えば図 15 に示すような進路 Bを自車〇の進路として選択することができ、 自車 Oが走行する
1 1 1
際の危険を適確に回避して、安全性を確保することが可能となる。
[0161] なお、軌跡生成時間 Tの代わりに、生成すべき軌跡の長さを示す軌跡生成長によ つて予測計算の打ち切り条件を定めてもよい。この場合、物体の速度(自車の速度で もよい)によって軌跡生成長を適応的に変化させることは好ましい。
[0162] 以下、ステップ S34以降の処理について詳述する。ステップ S34では、干渉度算出 部 106で自車と他車との間の干渉度を算出する(ステップ S34)。図 16は、干渉度算 出処理の詳細を示すフローチャートである。本実施の形態 3においては、物体〇を
1 自車とする。また、説明の便宜上、その他の物体 O (k= 2, 3, · · · , K)もすベて四輪
k
自動車であるとし、他車 Oと称する。図 16に示す干渉度算出処理は、 4つのループ
k
処理から構成されており、ステップ S33で求めた自車 Oの軌跡集合 {P (n ) }の全要
1 1 1
素に対して、他車〇の全ての軌跡集合 {P (n ) }との間の干渉度を個別に算出する。
k k k
[0163] ステップ S34で干渉度算出部 106が受け取る入力は、自車 Oの軌跡集合 {P (n )
1 1 1
}、他車 Oの全ての軌跡集合 {P (n ) }、および自車〇と他車 Oの干渉度を評価する
k k k l k 干渉度評価関数である。なお、本実施の形態 3では、干渉度算出部 106が干渉度評 価関数を内蔵しているものとして説明を行うが、この干渉度評価関数を外部から入力 する構成としてもよい。また、干渉度評価関数を道路の種類ゃ自車 oの速度によつ
1
て適応的に変化させる構成としてもよい。
[0164] このようにして、他車の軌跡集合と互いの端点が異なる自車の軌跡集合との干渉度 を評価することにより、図 15を用いて説明した場合のように、 自車が到達すべき目的 地等の場所を予め定めることなぐその都度最適な進路を判断し、 自車走行中の危 険を適確に回避して、安全性を確保することが可能となる。その結果、図 14に示す 場合のように、道路上では予め設定された場所に向かって自車が走行しても安全が 保障されないという致命的な問題を解決することができる。
[0165] 図 16において、干渉度算出部 106は、まず、 自車〇の全ての軌跡に対する繰り返
1
し処理 (Loopl)を開始する (ステップ S401)。この際には、軌跡集合 {P (n ) }の一
1 1 つの軌跡を選択し、その選択した軌跡に対して後に続く処理を実行する。
[0166] 次に、干渉度算出部 106は、他車〇に対する繰り返し処理 (Loop2)を開始する(
k
ステップ S402)。この Loop2では、他車識別用のカウンタ k= 2と初期化して、 1回ご との繰り返し処理が終了するたびに kの値を増やしていく。
[0167] Loop2の中では、他車 Oに対し、ステップ S3で生成した軌跡集合 {P (n ) }の全要 k k k
素に対する繰り返し処理(Loop3)が行われる(ステップ S403)。この繰り返し処理に おいては、 Looplの繰り返しすなわち自車 Oに対して生成された軌跡を識別する力
1
ゥンタ nと他車識別用のカウンタ kとによって定められる干渉度を r (η , とし、この r
1 1 1 1
(n, k)の値を 0とおく(ステップ S404)。
1
[0168] 続いて、干渉度算出部 106は、 自車〇の軌跡 P (n )と他車〇の軌跡 P (n )との干
1 1 1 k k k 渉を評価するための繰り返し処理(Loop4)を開始する(ステップ S405)。この Loop4 では、二つの軌跡 P (n )と軌跡 P (n )との同時間における距離を、時間 t = 0, A t,
1 1 k k
· · · , Tにおいて順次求める。各軌跡の 2次元空間上の位置は、各車両の中心として 定義されているため、二つの軌跡の空間的な距離が所定値 (例えば車両の標準的な 幅や長さ)よりも小さくなつた場合、 自車 Οと他車 Οは衝突したとみなすことができる。
1 k
この意味で、二つの車両の座標値が一致しなくても二つの物体が衝突したと判定さ れる場合がある。以後、二つの車両が衝突したとみなし得る距離の最大値(互いに干 渉しあう空間的な距離)のことを干渉距離と呼ぶ。 [0169] 図 17は、 自車 Oの軌跡 P (n )と他車〇の軌跡 P (n )との時空間上での関係を模
1 1 1 k k k
式的に示す図である。同図に示す場合、軌跡 P (n )と軌跡 P (n )とは、 2点 Cおよ
1 1 k k 1 び Cで交差している。したがって、この 2点 Cおよび Cの近傍には、二つの軌跡間の
2 1 2
同時間における距離が干渉距離よりも小さい領域 Aおよび Aが存在する。すなわち
1 2
、二つの軌跡 P (n )および軌跡 P (n )が領域 Aおよび A内にそれぞれ含まれる時
1 1 k k 1 2
間では、 自車〇と他車 οとが衝突したという判定がなされる。換言すれば、時間 t=0
1 k
, A t, · · ·, Tのうちで、領域 Αおよび A内を通過する数が自車〇と他車 Oとの衝突
1 2 l k 回数である。
[0170] 図 17からも明らかなように、本実施の形態 3において形成される時空間環境は、二 つの軌跡が一度衝突してもその後の軌跡が生成される。これは、物体ごとの軌跡を 独立に生成してレ、るからである。
[0171] 自車 Oと他車〇の距離を求めた結果、上述した意味にぉレ、て自車 Oと他車〇が
1 k 1 k 衝突したと判定された場合 (ステップ S406で Yes)、干渉度算出部 106は、干渉度 r
1
(n, k)の値を、
1
[数 5] η (nい k) ~ ς (nい k) + clk · p (Pk (nk )) · F(t) (5) とする(ステップ S407)。ここで、第 2項目 c ·ρ (Ρ (n ) ) 'F (t)について説明する。係
lk k k
数 c は正の定数であり、例えば c = 1とおくことができる。また、 p (P (n ) )は式(2) lk lk k k で定義される量であり、他車〇で 1本の軌跡 P (n )が選ばれる確率である。最後の F k k k
(t)は、 1回の衝突における物体間の干渉の時間依存性を与える量である。したがつ て、物体間の干渉に時間依存性を持たせない場合には、 F (t)の値を一定とすれば よい。これに対して、物体間の干渉に時間依存性を持たせる場合には、例えば図 18 に示すように、時間が経過するとともに値が徐々に小さくなつていくような関数として F (t)を定義してもよレ、。図 18に示す F (t)は、より直近の衝突を重要視する場合に適 用される。
[0172] ステップ S407の後、時間 tが Tに達していない場合、干渉度算出部 106は、 Loop4 を繰り返す(ステップ S408で No)。この場合には、 tの値を Δ 曽加させ(ステップ S4 09)、ステップ S405に戻って Loop4を繰り返す。他方、ステップ S407の後、時間 が Tに達している場合には、 Loop4を終了する(ステップ S408で Yes)。なお、ある時間 tで自車 Oと他車〇が衝突しない場合には、 Loop4を繰り返すか否かの判断処理(
1 k
ステップ S408)に直接進む。
[0173] 以上説明した Loop4の繰り返し処理により、干渉度 r (n , k)の値は、衝突回数が
1 1
多いほど大きい値となる。この Loop4が終了した後、ステップ S410では Loop3を繰り 返すか否かの判断処理を行う。すなわち、他車〇に対して生成した軌跡のうち自車
k
〇の一つの軌跡 P (n )との干渉評価が行われていないものがあれば(ステップ S41
1 1 1
0で No)、 nを n + 1とし(ステップ S411)、ステップ S403に戻って Loop3を,操り返す
k k
[0174] これに対して、他車〇に対して生成した軌跡のうち自車〇の一つの軌跡 P (n )と
k 1 1 1 の干渉評価が全て行われた場合 (ステップ S410で Yes)には、自車 Oの軌跡 P (n )
1 1 1 と他車 Oの全軌跡との間の干渉を評価する最終的な干渉度 r (n, k)を付与し (ステ k 1 1 ップ S412)、この付与した値を出力して記憶部 108に格納する(ステップ S413)。
[0175] ステップ S413で干渉度算出部 106から出力される最終的な干渉度 r (n , k)の値
1 1
は、他車〇の全軌跡中、 1本の軌跡 P (n )が選ばれる確率 p (P (n ) )に依存してい
k k k k k
る。このため、式(5)において、係数 c を kによらずに一定 (例えば c = 1)とし、 F (t)
lk lk
を定数 (例えば 1)とおき、 自車〇の軌跡 P (n )と他車 Oの軌跡 P (n )との衝突回数
1 1 1 k k k
を M (n , n )とすると、干渉度 r (n , k)の値は、軌跡!3 (n )ごとの確率 p (P (n ) )を lk 1 k 1 1 k k k k
M (n , n )倍した値を全ての軌跡集合 {P (n ) }の要素について和を取ったものに lk 1 k k k
なる。この禾ロは、 自車〇の一つの軌跡 P (n )と他車〇が取りうる軌跡とが衝突する衝
1 I l k
突確率に他ならない。したがって、干渉度 r (n , k)として最終的に得られる値は、 自
1 1
車 Oの一つの軌跡 P (n )と他車 Oとの衝突確率に比例して増加する。
1 I l k
[0176] ステップ S413に続いて、干渉度算出部 106は、 Loop2を繰り返すか否かの判断処 理を行う。 自車〇との干渉評価を行うべき他車〇が残っている場合 (ステップ S414
1 k
で No)、干渉度算出部 106は kの値を 1増加させ(ステップ S415)、ステップ S402に 戻って Loop2を繰り返す。他方、 自車〇との干渉評価を行うべき他車〇が残ってい
1 k
ない場合(ステップ S414で Yes)には、続くステップ S416に進む。 [0177] ステップ S416では、 Looplを繰り返すか否かの判断処理が行われる。具体的には 、干渉度算出部 106は、 自車 Oの軌跡集合 {P (n ) }のうちで干渉評価を行うべき軌
1 1 1
跡が残っている場合(ステップ S416で No)、 nの値を 1増加させ(ステップ S417)、ス
1
テツプ S401に戻って Looplを繰り返す。他方、干渉度算出部 106は、 自車〇の軌
1 跡集合 {P (n ) }のうちで干渉評価を行うべき軌跡が残っていない場合 (ステップ S41
1 1
6で Yes)、 Looplを終了して干渉度算出処理 (ステップ S34)を終了する。
[0178] この後、出力部 107は、ステップ S34で算出した干渉度に応じた情報を評価結果と して出力する(ステップ S35)。以下、出力部 107の表示部 171が、 自車〇のフロント
1 ガラス Fに対して、図 7に示すような半透明の重畳表示を行った場合について説明す る。この場合の図 7は、 自車 Oおよび他車〇によって構成された時空間環境 Env (P
1 2 1
, P )において、自車 Oと他車〇との干渉度 r (n, 2)に応じて、 自車〇力 ¾次元平
2 1 2 1 1 1 面上で取りうる進路のうち、その干渉度 r (η , 2)の値が予め定めた閾値を超えるよう
1 1
な領域を重畳表示した状況を示す図として解釈される。
[0179] 表示部 171は、干渉度 r (n, 2)の値に応じて照度を変える機能を有している。例
1 1
えば、干渉度 r (η , 2)の値が大きいほど照度を大きくするように設定したとして、図 7
1 1
に示す二つの領域 Dと領域 Dのうち、領域 Dの照度の方が大き力 たとする。この a b a
場合、自車 Oの運転者は、前方を目視して運転しながらフロントガラス Fの重畳表示
1
を参照することにより、干渉度 r (η , 2)の値が相対的に小さい領域 Dの方に進路を
1 1 b
取った方が危険を回避した運転ができることを即座に認識することができる。この認 識結果を運転動作に反映させることにより、運転者は、近い将来において自車〇に
1 起こりうる危険を適確に回避することが可能となる。
[0180] なお、表示部 171で表示する以外にも、現在の操作に応じた予想される進路に対 応して得られる干渉度 r (n, 2)の値が所定の閾値を超える場合には、警告音発生
1 1
部 172が警告音 (音声を含む)を発生してもよい。
[0181] また、上記実施の形態 1と同様、カーナビゲーシヨンシステムの表示画面 CN (図 8 を参照)に表示部 171の機能を具備させることにより、干渉度算出部 106における干 渉評価結果を表示してもよレ、。
[0182] 以上説明した本発明の実施の形態 3によれば、複数の物体の位置と各物体の速度 を含む内部状態とを少なくとも記憶する記憶手段を備えたコンピュータが、前記複数 の物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前記 物体の位置および内部状態に基づいて、前記複数の物体の各々が時間の経過とと もに取りうる位置の変化を時間および空間力も構成される時空間上での軌跡としてそ れぞれ生成し、この生成した軌跡を用いることによって前記複数の物体の進路の確 率的な予測をそれぞれ行い、この予測した結果に基づいて、前記時空間上で前記 特定の物体が取りうる軌跡と前記その他の物体が取りうる軌跡との干渉の程度を定量 的に示す干渉度を算出することにより、現実として起こりうる状況下においても安全性 の確保を図ることが可能となる。
[0183] また、本実施の形態 3によれば、時空間上での衝突確率を用いて定義される干渉 度を適用することにより、他の物体との衝突の可能性を実用的な時間の内に適確に 判定することができる。
[0184] さらに、本実施の形態 3によれば、時間と空間から構成される時空間上に形成され た時空間環境を用いて物体の進路予測を行うことにより、静的物体だけでなく動的物 体の進路予測も精度よく行うことができる。
[0185] 力 Qえて、本実施の形態 3によれば、検知した物体の軌跡を互いに独立に生成して いるため、特定の物体 (例えば自車)とその他の物体とを区別することができる。この 結果、特定の物体とその他の物体との間で生じうる危険度を容易にかつ適確に予測 すること力 S可言 となる。
[0186] なお、干渉度 r (n , k)の値を増加させる際の式(5)の係数 c は定数とは限らない
1 1 lk
。例えば、係数 C を自車〇と他車〇との衝突時点の相対速度の大きさとしてもよい。
lk 1 k
一般に、相対速度の大きさが大きければ、衝突の際の衝撃は大きくなる。したがって 、係数 c を車両間の衝突時点での相対速度の大きさとした場合には、干渉度 r (n, lk 1 1 k)には車両間の衝突の衝撃度が加味されたことになる。
[0187] また、係数 c に対して被害の深刻さを示す値を代入してもよい。この場合には、例
lk
えば衝突時の車両間の相対速度の大きさを、衝突によって生じる被害規模を数値化 して評価する被害規模評価値または衝突によって生じる被害損失額と対応付けて記 憶部 108で記憶しておき、この記憶した値を記憶部 108から読み出して係数 c を付 与すればよい。なお、センサ部 3が物体の種別までを検知する機能を有している場合 には、物体の種別に応じて被害規模評価値または被害損失額を定めておいてもよい 。この場合、例えば衝突する相手の物体が人間の場合と車両の場合とでは、人間に 衝突したときの係数 c の値を他の物体に衝突したときの係数 c の値よりも顕著に大
lk lk
きく取つておくなどして、人間と衝突する可能性を極力低くするようにすればより好ま しい。
[0188] ところで、本実施の形態 3においても、自車 Oの操作を維持したとして干渉度を算
1
出してもよい。その場合、出力部 107の表示部 171では、 自車 Oの予想進路を表示
1
するとともに、所定の範囲を走行中の他車の危険度を、干渉度の算出結果に応じて 表示することも可能である。
[0189] このように、 自車 Oの操作を維持するモデルを適用すれば、周囲の物体が多い場
1
合などにおいて状況を単純化して予測を行うことが可能となり、軌跡生成部、予測部 、および干渉度算出部における計算量を少なくすることができる。
[0190] ここで、上記背景技術で引用した非特許文献 1と本実施の形態 3との差異について 説明する。本実施の形態 3では、物体の相関を考慮することなぐ物体ごとに独立な 進路探索を行っているため、計算量も非特許文献 1より少なくて済む。特に、本実施 の形態 3において、軌跡ごとの干渉度の算出回数は
圆 k=2 であり、時空間環境を構成する物体の総数によらず、軌跡の本数の 2乗のオーダ程 度の計算量で済む。これに対して、非特許文献 1において干渉評価を行う場合には 、特定の物体(自車)とその他の物体 (他車)とを区別していないため、互いの干渉評 価を行う際の計算量 (本実施の形態 1における干渉度の算出回数に相当)が
[数 7]
K
であり、軌跡の本数の K乗のオーダ程度の計算量が必要になる。この結果、時空間 環境を構成する物体の数が多いほど本実施の形態 3の計算量との違いが顕著に大 きくなつていく。
[0191] ここで説明した以外の非特許文献 1と本実施の形態 3との差異は、上記実施の形態
1で説明したのと同じである。したがって、非特許文献 1から本実施の形態 3を想到す ることは、上記実施の形態 1の場合と同様に、たとえ当業者といえども困難を極めるも のである。
[0192] (実施の形態 4)
本発明の実施の形態 4は、干渉評価を行う際の干渉度を、 自車と他車との最短衝 突時間を用いて定義することを特徴とする。なお、本実施の形態 4に係る物体進路予 測装置の機能構成は、上述した実施の形態 3に係る物体進路予測装置 101の機能 構成(図 12を参照)と同様である。また、本実施の形態 4に係る物体進路予測方法は 、干渉度算出処理を除いて、上記実施の形態 3に係る物体進路予測方法と同じであ る。
[0193] 図 19は、本実施の形態 4に係る物体進路予測方法の干渉度算出処理(図 13のス テツプ S34に相当)の詳細を示すフローチャートである。本実施の形態 4においても、 物体 Oを自車とする。また、説明の便宜上、その他の物体 O (k= 2, 3, · ' · , Κ)もす
1 k
ベて四輪自動車であるとし、他車 Oと称する。
k
[0194] 干渉度算出部 106は、まず、自車 Oの全ての軌跡に対する繰り返し処理(Loopl)
1
を開始する (ステップ S421)。この際には、軌跡集合 {P (n ) }の一つの軌跡を選択し
1 1
、その選択した軌跡に対して後に続く処理を実行する。
[0195] 次に、干渉度算出部 106は、他車〇に対する繰り返し処理 (Loop2)を開始する( k
ステップ S422)。この Loop2では、他車識別用のカウンタ k = 2と初期化して、 1回ご との繰り返し処理が終了するたびに kの値を増やしていく。
[0196] 干渉度算出部 106は、他車 Oに対しても、ステップ S33で生成した軌跡集合 {P (n
k k
) }の全要素に対する繰り返し処理 (Loop3)を行う(ステップ S423)。この繰り返し処 k
理においては、 Looplの繰り返しすなわち自車〇に対して生成された軌跡を識別す
1
るカウンタ nと他車識別用のカウンタ kとによって定められる干渉度を上記実施の形
1
態 3と同様に r (n , k)とおき、こので (n, k)の値を軌跡生成時間 Tとおく(ステップ S4 24)。
[0197] 続いて、干渉度算出部 106は、 自車〇の軌跡 P (n )と他車〇の軌跡 P (n )との干
1 1 1 k k k 渉を評価するための繰り返し処理(Loop4)を開始する(ステップ S425)。この Loop4 では、二つの軌跡 P (n )と軌跡 P (n )との同時間における距離を、時間 t = 0, A t,
1 1 k k
· · · , Tにおいて順次求め、自車 Οと他車〇の衝突の有無を判定する。この判定を
1 k
行う際の衝突の定義は、上記実施の形態 3と同じであり、自車 Oと他車〇との距離が
1 k
干渉距離よりも近づいた場合を衝突と判定する。
[0198] 干渉度算出部 106が自車〇と他車 Oの距離を求めた結果、 自車 Oと他車〇が衝
l k l k 突したと判定した場合 (ステップ S426で Yes)、干渉度 r (n , k)の値がその時点での
1 1
時間 t (初期位置から衝突までに要した時間)よりも大きレ、とき(ステップ S427で Yes) には、 r (n, k)の値を tとした後、 tを Tとする(ステップ S428)。したがって、この場合
1 1
[0199] これに対して、 自車〇と他車 Oは衝突し(ステップ S426で Yes)、干渉度 r (n, k)
1 k 1 1 の値がその時点での時間 t以下である場合 (ステップ S427で No)、干渉度算出部 10 6は、ステップ S429に進んで Loop4を終了するかどうかを判定する。なお、 自車〇と
1 他車 Oは衝突しない場合(ステップ S426で No)にも、ステップ S429に進む。
k
[0200] ステップ S429では、時間 tが Tに達していない場合、 Loop4が繰り返される(ステツ プ S429で No)。この場合、干渉度算出部 106は、 tの値を Δ 曽加させ(ステップ S4 30)、ステップ S425に戻って Loop4を繰り返す。他方、ステップ S429で時間 tが Tに 達している場合、干渉度算出部 106は、 Loop4を終了する(ステップ S429で Yes)。
[0201] 以上説明した Loop4の繰り返し処理により、干渉度 r (n , k)の値は、 自車〇と他
1 1 1 車 oとの間で起こる衝突のうち、初期位置から衝突するまでに要する時間が最も短 k
レ、最短衝突時間となる。
[0202] Loop4が終了した後、干渉度算出部 106は、 LooP3を繰り返すか否かの判断処理 を行う。すなわち、他車〇に対して生成した軌跡のうち自車〇の一つの軌跡 P (n ) k 1 1 1 との干渉評価が行われていなレ、ものがあれば(ステップ S431で No)、 nを n + 1とし
k k
(ステップ S432)、ステップ S423に戻って Loop3を繰り返す。
[0203] 他方、他車〇に対して生成した軌跡のうち自車 Oの一つの軌跡 P (n )との干渉評 価が全て行われた場合(ステップ S431で Yes)には、他車〇の一つの軌跡 P (n )に k k k 対する干渉評価が終了したことになる。したがってこの場合、干渉度算出部 106は、 自車 Oの軌跡 P (n )と他車 Oの全軌跡との間の干渉を評価する最終的な干渉度 r
1 1 1 k 1
(n , k)を付与し (ステップ S433)、この付与した値を出力して記憶部 108に格納する
1
(ステップ S434)。
[0204] 以降のステップ S435〜S438は、 Loop2および Looplに対する繰り返しの判定処 理に関するものであり、上記実施の形態 3で説明した干渉度算出処理におけるステツ プ S414〜S417と同じである。
[0205] 以上説明した本発明の実施の形態 4によれば、複数の物体の位置と各物体の速度 を含む内部状態とを少なくとも記憶する記憶手段を備えたコンピュータが、前記複数 の物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前記 物体の位置および内部状態に基づいて、前記複数の物体の各々が時間の経過とと もに取りうる位置の変化を時間および空間力 構成される時空間上での軌跡としてそ れぞれ生成し、この生成した軌跡を用いることによって前記複数の物体の進路の確 率的な予測をそれぞれ行い、この予測した結果に基づいて、前記時空間上で前記 特定の物体が取りうる軌跡と前記その他の物体が取りうる軌跡との干渉の程度を定量 的に示す干渉度を算出することにより、現実として起こりうる状況下においても安全性 の確保を図ることが可能となる。
[0206] また、本実施の形態 4によれば、最短衝突時間を用いて定義される干渉度を適用 することにより、他の物体との衝突の可能性を実用的な時間の内に適確に判定する こと力 Sできる。
[0207] (実施の形態 5)
本発明の実施の形態 5は、上記実施の形態 3と同様にして得られた自車と他車との 干渉度算出結果をまとめることにより、 自車と周囲の時空間環境との間の干渉を評価 することを特徴とする。なお、本実施の形態 5に係る物体進路予測装置の機能構成 は、上述した実施の形態 3に係る物体進路予測装置 101の機能構成(図 12を参照) と同様である。また、本実施の形態 5に係る物体進路予測方法は、干渉度算出処理 を除いて、上記実施の形態 3に係る物体進路予測方法と同じである。 [0208] 図 20は、本実施の形態 5に係る物体進路予測方法の干渉度算出処理(図 13のス テツプ S34に相当)の詳細を示すフローチャートである。まず、干渉度算出部 106は 、自車 Oの全ての軌跡に対する繰り返し処理 (Loopl)を開始する(ステップ S441)
1
。この際には、軌跡集合 {P (n ) }の一つの軌跡を選択し、その選択した軌跡に対し
1 1
て後に続く処理を実行する。
[0209] 本実施の形態 5において、他車 Oに対する繰り返し処理(Loop2)、他車 Oの軌跡 k k 集合 {P (n ) }の全要素に対する繰り返し処理 (Loop3)、および自車 Oの軌跡 P (n k k 1 1 1
)と他車 Oの軌跡 P (n )との干渉を評価するための繰り返し処理(Loop4)は、上記 k k k
実施の形態 3と同じである。すなわち、図 20に示すステップ S442〜S455の処理は 、上記実施の形態 3の干渉度算出処理で説明したステップ S402〜S415の処理(図 16を参照)と同じである。
[0210] 干渉度算出部 106は、 Loop2の繰り返し処理が終了した後、 Loop2〜Loop4によ つて得られた干渉度 r (n , k)に対して他車 Oに応じた重み a (k) ( >0)を付与し、こ
1 1 k
れらの総和として全体干渉度
園 (6)
Figure imgf000045_0001
を算出し、その算出結果を出力して記憶部 108に格納する (ステップ S456)。ここで の重みひ(k)の値は、全て等しく定数 (例えば 1)としてもよいし、他車 Oの種別等の k
条件に応じた値を付与してもよい。この結果、 自車〇の軌跡 P (n )が全ての他車〇
1 1 1 2
, · · · ,〇を含む周囲の環境全体との間での干渉を評価することが可能となる。
[0211] なお、全体干渉度 R (n )を、
1 1
[数 9]
R^n^ ^ max iaCkir^n^k)) (7)
k と定義してもよい。この場合には、最も危険な物体 οの危険度を全体干渉度として扱 k
うことになる。式(6)の定義にした力 場合、 自車〇が少数の物体と干渉するが、残り
1
多数の物体とは干渉しないようなシーンの全体干渉度を低く計算してしまう恐れがあ るため、例えば少数の他車が自車〇が近傍を走行して人の直観では非常に危険に
1
思える状況でも、そのような直観に反して安全と判断されて可能性もある。他方、式(
7)のような定義に基づいた干渉評価を行えば、前述したように直観に反して安全と 判断してしまう可能性を低減することができる。
[0212] 続いて、干渉度算出部 106は、 Looplを繰り返すか否かの判断処理を行う。すな わち、 自車 Oの軌跡集合 {P (n ) }のうちで干渉評価を行うべき軌跡が残っている場
1 1 1
合 (ステップ S457で No)、干渉度算出部 106は、 nの値を 1増加させ(ステップ S45
1
8)、ステップ S441に戻って Looplを繰り返す。他方、自車 Oの軌跡集合 {P (n ) }
1 1 1 のうちで干渉評価を行うべき軌跡が残っていない場合 (ステップ S457で Yes)、干渉 度算出部 106は、 Looplを終了して干渉度算出処理 (ステップ S34)を終了する。
[0213] 図 21は、本実施の形態 5に係る物体進路予測方法が適用される時空間環境の構 成を模式的に示す図である。同図に示す時空間環境 Env (P, P, P )は、 自車〇に
1 2 3 1 対して所定の範囲内に他車が 2台存在している場合を示しており、 自車〇の軌跡 P (
1 1 n )を実線で示すとともに、他車〇の軌跡 P (n )を破線で示し、他車 Oの軌跡 P (n
1 2 2 2 3 3 3
)を太線で示している。このとき、他車 Oとの干渉度 r (η , 2)および他車 Οとの干渉
2 1 1 3 度で (η , 3)を個別に扱うのではなぐ時空間環境 Εην (Ρ , Ρ , Ρ )との間の全体干
1 1 1 2 3
渉度 R (η )を用いて干渉評価を行うことにより、 自車〇の危険を周囲の環境に応じ
1 1 1
て回避することができる。
[0214] 以上説明した本発明の実施の形態 5によれば、複数の物体の位置と各物体の速度 を含む内部状態とを少なくとも記憶する記憶手段を備えたコンピュータが、前記複数 の物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前記 物体の位置および内部状態に基づいて、前記複数の物体の各々が時間の経過とと もに取りうる位置の変化を時間および空間力も構成される時空間上での軌跡としてそ れぞれ生成し、この生成した軌跡を用いることによって前記複数の物体の進路の確 率的な予測をそれぞれ行い、この予測した結果に基づいて、前記時空間上で前記 特定の物体が取りうる軌跡と前記その他の物体が取りうる軌跡との干渉の程度を定量 的に示す干渉度を算出することにより、現実として起こりうる状況下においても安全性 の確保を図ることが可能となる。 [0215] また、本実施の形態 5によれば、全体干渉度を用いることにより、時空間環境を構成 する物体の数が多い場合であっても精度よく干渉評価を行うことができる。
[0216] なお、本実施の形態 5においても、衝突によって干渉度 r (n , k)を増加させる際の
1 1
係数 c や F (t)の値として、上記実施の形態 3と同様にさまざまな定義の仕方のいず lk
れかを採用することが可能である。また、干渉度 r (n , k)を、上記実施の形態 4と同
1 1
様に最短衝突時間によって定義することも可能である。
[0217] カロえて、本実施の形態 5において干渉評価を行う際には、全体干渉度 R (n )と個
1 1 別の干渉度 r (n , k)との双方を加味した干渉評価を行うようにしてもよい。
1 1
[0218] (実施の形態 6)
図 22は、本発明の実施の形態 6に係る物体進路予測装置を用いて構成される自 動運転システムの機能構成を示すブロック図である。同図に示す自動運転システム 1
000は、四輪自動車等の移動体に搭載され、特定の物体である自車が取りうる進路 とその他の物体(車両、人、障害物等を含む)が取りうる進路とを予測することによつ て自車が取るべき進路を設定する物体進路予測装置 201と、物体進路予測装置 20 1で設定された進路を実現する操作信号に応じて自車を操作するァクチユエータ装 置 211とを備える。
[0219] 物体進路予測装置 201は、各種情報が外部から入力される入力部 2と、所定の範 囲に存在する物体の位置や内部状態を検知するセンサ部 3と、センサ部 3が検知し た結果に基づいて、物体が時間の経過とともに取りうる位置の変化を時間および空 間から構成される時空間上での軌跡として生成する軌跡生成部 4と、軌跡生成部 4で 生成した軌跡を用いて物体の進路の確率的な予測を行う予測部 105と、予測部 105 で予測した結果に基づいて自車が取りうる進路と他の物体が取りうる進路との干渉の 程度を定量的に示す干渉度を算出する干渉度算出部 106と、干渉度算出部 106で 算出された干渉度に応じて自車が取るべき進路を選択する進路選択部 207と、進路 選択部 207の選択結果に対応する操作信号を生成してァクチユエータ装置 211へ 送信する操作信号送信部 208と、物体進路予測装置 201で行われる処理に関する 各種情報を出力する出力部 209と、センサ部 3で検知した物体の位置や内部状態を 含む各種情報を記憶する記憶部 210と、を備える。図 22において、上記実施の形態 3に係る物体進路予測装置 101と同じ機能構成を有する部位については、図 12と同 じ符号を付してある。
[0220] 出力部 209は、予測部 105、干渉度算出部 106、および進路選択部 207でそれぞ れ行われた処理に関する情報を、画像を含む情報として表示出力する表示部 291と 、予測部 105における予測結果や干渉度算出部 106における算出結果等に応じて 警告音を発生する警告音発生部 292とを有する。
[0221] 記憶部 210は、センサ部 3での検知結果に加えて、軌跡生成部 4で生成された軌 跡、予測部 105における予測結果、干渉度算出部 106における干渉度算出結果、 進路選択部 207における進路選択結果、および軌跡生成部 4の操作選択部 41で選 択する操作などを記憶する。
[0222] 次に、本発明の実施の形態 6に係る物体進路予測方法について説明する。図 23 は、本実施の形態 6に係る物体進路予測方法の処理の概要を示すフローチャートで ある。本実施の形態 6においても、予測対象の物体は全て 2次元平面上を移動する ものと仮定して説明を行う。
[0223] 本実施の形態 6において、物体ごとの位置および内部状態の検知処理 (ステップ S 61)、時空間上での物体ごとの軌跡生成処理(ステップ S62)、軌跡を用いた物体進 路の確率的な予測処理 (ステップ S63)、および予測結果に基づく自車と他車との干 渉度算出処理 (ステップ S64)は、上記実施の形態 3で説明したステップ S31 ,ステツ プ S32,ステップ S33、およびステップ S34とそれぞれ同じである。
[0224] 以下、ステップ S65以降の処理について詳述する。ステップ S65では、ステップ S6 4の干渉度算出処理で算出した干渉度に応じた進路選択処理を行う(ステップ S65) 。上述したように、自動車等の広範囲を移動する移動体の自動運転技術においては 、少なくとも他の動的障害物の影響を考慮しないか、またはその影響を実用上必要と せずに行う経路探索技術に加えて、動的障害物との衝突回避に係る計算を実用的 な時間で実現し、走行中の危険を回避するために行う進路算出技術が必要となる。 本実施の形態 6では、危険を回避するための進路選択処理において二つの評価値 を用いる。第 1の評価値は、干渉度算出処理で算出した干渉度であり、この干渉度を 用いて 1回目の進路選択処理を行う。 1回目の進路選択処理で複数の進路が選択さ れた場合には、記憶部 210に格納された第 2の評価値を用いて 2回目の進路選択処 理を行う構成をとる。この 2回目の進路選択処理では、第 2の評価値として、進路が目 的地に至る経路に沿った成分を有するという選択基準に加えて、進路をさらに絞るた めの付加選択基準(後述)を適宜組み合わせることが好ましい。
[0225] このようにして、他車の軌跡集合と互いの端点が異なる自車の軌跡集合との干渉度 を評価し、この評価した干渉度に応じた進路選択を行うことにより、 自車が到達すベ き目的地等の場所を予め定めることなぐその都度最適な進路を判断し、自車走行 中の危険を適確に回避して、安全性を確保することが可能となる(図 15を参照)。そ の結果、図 14に示すような問題、すなわち道路上では予め設定された場所に向かつ て自車が走行しても安全が保障されないという致命的な問題を解決することができる
[0226] 図 24は、進路選択処理の詳細を示すフローチャートである。図 24において、進路 選択部 207は、干渉度算出処理で算出した干渉度!: (n, k)の値が最小の軌跡を選
1 1
択する(ステップ S501)。
[0227] 干渉度 r (n, k)が最小の軌跡を選択した結果、一つの軌跡のみが残った場合 (ス
1 1
テツプ S502で No)、進路選択部 207は、その選択した軌跡に対応する位置 (x (t) , y (t) )の履歴、および t = 0〜Tの操作系列 {u (t) }を記憶部 210から読み出し、操作 信号送信部 208へ出力する(ステップ S504)。これに対して、干渉度 r (n
1 1, k)が最 小の軌跡を選択した結果、複数の軌跡が残った場合 (ステップ S502で Yes)には、ス テツプ S503に進む。
[0228] ステップ S503において、進路選択部 207は、進路が目的地にいたる経路に沿った 成分を有すること、および予め設定されて記憶部 210で記憶されている付加選択基 準を用いることにより、ステップ S501で選択された複数の軌跡のうち、付加選択基準 に最も適合する軌跡を選択する (ステップ S503)。付加選択基準としては、軌跡間で 重複した値を有する可能性がほとんどないような条件を設定すればよい。
[0229] 以下、付加選択基準の例を挙げる。
(1)操作後(A t後)の自車〇の位置のうち、路幅方向の位置(図 4等の X座標)が走
1
行中の車線の中央に最も近い。この場合、路上で最も好ましい位置を走行する軌跡 が選択される。なお、 t = 0〜Tの間最も安定した位置取りを行う軌跡を選択する場合 には、 t = 0〜Tの各操作後の路幅方向の位置の和が最小となるものを選択するよう にしてもよい。
[0230] (2)操作後(A t後)の自車〇の位置のうち、進行方向(図 4等の y座標正の方向)の
1
位置が最大。この場合、最速となる軌跡が選択される。なお、 t=Tにおける進行方向 の位置が最大である軌跡を選択してもよレ、。
[0231] (3)初期時刻(t = 0)における加速度の大きさが最小。この場合、加減速が最も滑ら 力、な軌跡が選択される。なお、 t = 0〜Tの操作系列において加減速が最も滑らかな 軌跡を選択する場合には、 t = 0〜Tの各操作後の加速度の大きさの和が最小となる ものを選択するようにしてもょレ、。
[0232] (4)初期時刻(t = 0)における角速度の大きさが最小。この場合、操舵が最も滑らか な軌跡が選択される。なお、 t = 0〜Tの操作系列において操舵が最も滑らかな軌跡 を選択する場合には、(3)と同様に、 t = 0〜Tの各操作後の角速度の大きさの和が 最大のものを選択するようにしてもょレ、。
[0233] 以上説明した進路選択処理によれば、時空間上の軌跡として自車 Oの危険を回
1
避する可能性が最も高い軌跡を選択することにより、結果的に自車 Oが現実の 2次
1
元平面上で取るべき進路を選択したことになる。
[0234] ステップ S503でただ一つの軌跡が残った場合、進路選択部 207は、上述したステ ップ S504に進む。なお、付加選択基準でも複数の軌跡が残った場合には、例えば カウンタ nや kの値が最小または最大となるものが自動的に選択されるように設定して
1
おけばよい。
[0235] 以上説明した進路選択処理に続いて、操作信号送信部 208は、ステップ S65の選 択結果に応じて出力された軌跡に対応する位置 (x (t) , y (t) )の履歴、および t = 0 〜Tの操作集合 {u (t) }に応じた操作信号を生成し、ァクチユエータ装置 211に対し て送信する(ステップ S66)。
[0236] ステップ S66で操作信号送信部 208が生成、送信する操作信号は、ァクチユエータ 装置 211の構成によって異なる。例えば、ァクチユエータ装置 211がステアリング、ァ クセル、ブレーキ等の機械的な装置である場合、操作信号送信部 208は、進路選択 部 207から受信した位置 (x (t), y (t) )の履歴、操作 {u (t) }をそのまま操作信号とし て出力すればよい。
[0237] これに対して、ァクチユエータ装置 211がステアリング、アクセル、ブレーキ等の機 械的な装置に操作トルクを加える装置である場合には、上記同様に進路選択部 207 力 受信した位置 (X (t), y (t) )の履歴、操作集合 {u (t) }をそのまま操作信号として 送信してもよいし、それらの機械的な装置に対して操作時に加える操作トルクを算出 し、この算出した結果を送信してもよい。前者の場合には、ァクチユエータ装置 211 側で操作トルクが算出されることとなる。
[0238] ァクチユエータ装置 211が操作トルクを加える装置である場合には、運転者がァク チユエータ装置 211よりも大きな操作トルクをカ卩えれば手動運転に切り替えることが可 能な構成、すなわち運転者がオーバーライド可能な構成としておけば、 自動運転シ ステム 1000を運転操作補助装置として適用することもでき、進路選択を行いつつも、 運転者の意思を反映した操作を実現することが可能となる。
[0239] なお、センサ部 3で自車〇が走行する路面状況も検知し、ァクチユエータ装置 211
1
に対して路面状況に応じたフィードバック制御を行うようにしてもよい。
[0240] 図 25は、出力部 209の表示部 291における進路選択結果等の表示出力例を示す 図であり、二つの自車〇および他車 Οによって構成された時空間環境 Εην (Ρ , Ρ )
1 2 1 2
(図 6を参照)における進路選択を行った場合の表示出力例を模式的に示す図であ る。より具体的には、図 25では、設定進路を半透明の矢印 Ηによってフロントガラス F に重畳表示するとともに、 自車〇と他車 Οの干渉度 r (η , 2)に応じて、自車 Οが 2
1 2 1 1 1 次元平面上で取りうる進路のうち、その干渉度 r (η , 2)の値が予め定めた閾値を超
1 1
えるような領域を物体〇(自車)のフロントガラス Fに半透明に重畳表示した場合を図
1
示している。図 25に示す場合には、ァクチユエータ装置 211がステアリング STに操 作トルクを発生させ、設定された進路に進むようにステアリング STを時計回りに回転 させる操作トルクを発生した状況を模式的に示している。
[0241] 図 25においても、半透明に表示されている二つの領域 Dと領域 Dとでは照度が異 a b
なっている(ここでは、領域 Dの照度の方が大きいとする)。かかる照度の違いは干渉 度で (n, 2)の値の差に対応しており、照度が領域 D付近へ走行する進路を選択し
1 1 a た方が干渉度 r (η , 2)の値が大きいことを意味している。この意味で、図 25は、干
1 1
渉度 r (η , 2)の値が相対的に小さい領域 Dの方に進路を取った方が危険を回避し
1 1 b
た運転ができることを視覚的に表現している。
[0242] なお、表示部 291で表示する以外にも、現在の操作に応じた予想される進路に対 応して得られる干渉度 r (n, 2)の値が所定の閾値を超える場合には、警告音発生
1 1
部 292が警告音(音声を含む)を発生してもよレ、。
[0243] また、出力部 209における表示出力例はこれに限られるわけではなぐ例えばカー ナビゲーシヨンシステムの表示画面 CN (図 26を参照)に表示部 291の機能を具備さ せることによって設定された進路および干渉評価結果を表示してもよい。この場合に は、図 26に示すように、設定進路を矢印 Hで表示するとともに、表示画面 CNに表示 される 2次元平面上で領域ごとに色の濃淡をつけることによって二つの領域 Dおよび a
Dの干渉度の違いを表示する。
b
[0244] 以上説明した本発明の実施の形態 6によれば、複数の物体の位置と各物体の速度 を含む内部状態とを少なくとも記憶する記憶手段を備えたコンピュータが、前記複数 の物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前記 物体の位置および内部状態に基づいて、前記複数の物体の各々が時間の経過とと もに取りうる位置の変化を時間および空間力 構成される時空間上での軌跡としてそ れぞれ生成し、この生成した軌跡を用いることによって前記複数の物体の進路の確 率的な予測をそれぞれ行い、この予測した結果に基づいて、前記特定の物体が取り うる進路と前記その他の物体が取りうる進路との干渉の程度を定量的に示す干渉度 を算出し、この算出した干渉度に応じて前記特定の物体が取るべき進路を実用的な 時間の内に選択することにより、現実として起こりうる状況下においても安全性の確保 を図ることが可能となる。
[0245] また、本実施の形態 6によれば、特定の物体とその他の物体との時空間上での衝 突確率を用いて定義される干渉度を適用し、この干渉度が最小であるような時空間 上での軌跡を選択することにより、特定の物体が取りうる進路のうち、その他の物体と の衝突の可能性が最も低い進路を精度よく設定することができる。
[0246] さらに、本実施の形態 6によれば、時間と空間から構成される時空間上に形成され た時空間環境を用いて物体の進路予測を行うことにより、静的物体だけでなく動的物 体の進路予測も精度よく行うことができる。
[0247] 力 Qえて、本実施の形態 6によれば、検知した物体の軌跡を互いに独立に生成して いるため、特定の物体 (例えば自車)とその他の物体とを区別することができる。この 結果、特定の物体とその他の物体との間で生じうる危険度を容易にかつ適確に予測 すること力 S可肯 となる。
[0248] なお、本実施の形態 6においても、干渉度 r (n, k)の値を増加させる際の式(5)の
1 1
係数 c は定数とは限らず、例えば、係数 c を自車 Oと他車〇との衝突時点の相対 lk lk 1 k
速度の大きさとしてもよい。また、係数 c に対して被害の深刻さを示す値を代入して
lk
あよい。
[0249] また、本実施の形態 6においても、 自車〇の操作を維持したとして干渉度を算出し
1
てもよレ、。これにより、周囲の物体が多い場合などにおいて状況を単純化して予測を 行うことが可能となり、軌跡生成部、予測部、干渉度算出部、および進路選択部にお ける計算量を少なくすることができる。
[0250] (実施の形態 7)
本発明の実施の形態 7は、上記実施の形態 6と同様にして得られた自車 (特定の物 体)と他車との干渉度算出結果をまとめることにより、 自車と周囲の時空間環境との間 の干渉を評価し、この評価結果に基づレ、て自車が取るべき進路を選択することを特 徴とする。なお、本実施の形態 7に係る物体進路予測装置の機能構成は、上述した 実施の形態 6に係る物体進路予測装置 201の機能構成(図 22を参照)と同様である 。また、本実施の形態 7に係る物体進路予測方法は、干渉度算出処理および進路選 択処理を除いて、上記実施の形態 6に係る物体進路予測方法と同じである。
[0251] 図 27は、本実施の形態 7に係る進路設定方法の干渉度算出処理(図 23のステップ S64に相当)の詳細を示すフローチャートである。まず、干渉度算出部 106は、 自車 Oの全ての軌跡に対する繰り返し処理(Loopl)を開始する(ステップ S461)。この
1
際には、軌跡集合 { P (n ) }の一つの軌跡を選択し、その選択した軌跡に対して後に
1 1
続く処理を実行する。
[0252] この後、干渉度算出部 106が行うステップ S462〜S472の処理は、上記実施の形 態 4で説明したステップ S422〜S432の処理と同じである。そこで、以下では、ステツ プ S473以降の処理を説明する。
[0253] ステップ S473は、 Loop3の繰り返しが終了した場合(ステップ S471で Yes) 、す なわち、他車 Oに対して生成した軌跡のうち自車 Oの一つの軌跡 P (n )との干渉評 k 1 1 1 価が全て行われた場合に行われる。このステップ S473において、干渉度算出部 10 6は、他車〇の一つの軌跡 P (n )に対する干渉評価が終了したことになる。したがつ k k k
てこの場合、干渉度算出部 106は、自車 Oの軌跡 P (n )と他車〇の全軌跡との間
1 1 1 k
の干渉を評価する干渉度 r (n , k)を付与し (ステップ S473)、この付与した値を出力
1 1
して記憶部 210に格納する(ステップ S474)。
[0254] この後、干渉度算出部 106は、 Loop2を繰り返すか否かの判断処理を行う。 自車〇 との干渉評価を行うべき他車 Oが残っている場合(ステップ S475で No)には、 kの
1 k
値を 1増加させ(ステップ S476)、ステップ S462に戻って Loop2を繰り返す。他方、 自車 Oとの干渉評価を行うべき他車 Oが残っていない場合(ステップ S475で Yes)
1 k
、干渉度算出部 106は、 Loop2の繰り返しを終了してステップ S477に進む。
[0255] ステップ S477において、干渉度算出部 106は、 Loop2〜Loop4によって得られた 干渉度 r (n, k)を用いることにより、式(6)で与えられる全体干渉度 R (n )を算出し
1 1 1 1
、その算出結果を出力して記憶部 210に格納する(ステップ S477)。なお、全体干渉 度 R (n )として、式(7)の定義を採用してもよい。
1 1
[0256] 続いて、干渉度算出部 106は、 Looplを繰り返すか否かの判断処理を行う。すな わち、 自車 Oの軌跡集合 {P (n ) }のうちで干渉評価を行うべき軌跡が残っている場
1 1 1
合 (ステップ S478で No)、干渉度算出部 106は、 nの値を 1増加させ(ステップ S47
1
9)、ステップ S461に戻って Looplを繰り返す。他方、自車 Oの軌跡集合 {P (n ) }
1 1 1 のうちで干渉評価を行うべき軌跡が残っていない場合 (ステップ S478で Yes)、干渉 度算出部 106は、 Looplを終了して干渉度算出処理 (ステップ S64)を終了する。
[0257] 次に、進路選択処理(図 23のステップ S65に相当)について説明する。図 28は、本 実施の形態 7に係る物体進路予測方法の進路選択処理の詳細を示すフローチヤ一 トである。図 28において、進路選択部 207は、干渉度算出処理で算出した全体干渉 度 R (n )の値が最大の軌跡を選択する(ステップ S511)。 [0258] 干渉度が最大の軌跡を選択した結果、一つの軌跡のみが残った場合 (ステップ S5 12で No)、進路選択部 207は、その選択した軌跡に対応する位置 (x (t) , y (t) )の 履歴、および t = 0〜Tの操作系列 {u (t) }を記憶部 210から読み出し、操作信号送 信部 208へ出力する(ステップ S514)。これに対して、干渉度が最大の軌跡を選択し た結果、複数の軌跡が残った場合 (ステップ S512で Yes)には、ステップ S513に進 む。
[0259] ステップ S513において、進路選択部 207は、予め設定されて記憶部 210で記憶さ れている付加選択基準を用いることにより、ステップ S511で選択された複数の軌跡 のうち、付加選択基準に最も適合する軌跡を選択する(ステップ S513)。付加選択基 準としては、上記実施の形態 6と同様の条件を適用すればよい。
[0260] ステップ S513でただ一つの軌跡が残った場合、進路選択部 207は、上述したステ ップ S514に進む。なお、付加選択基準でも複数の軌跡が残った場合には、例えば カウンタ nや kの値が最小または最大となるものが自動的に選択されるようにしておけ
1
ばよい。
[0261] 以上説明した進路選択処理によれば、時空間上の軌跡として自車 Oの危険を回
1
避する可能性が最も高い軌跡を選択することにより、結果的に自車 Oが現実の 2次
1
元平面上で取るべき進路を選択したことになる。
[0262] ステップ S65の進路選択処理に続く操作信号送信部 208の処理 (ステップ S66)は 、上述した実施の形態 6と同じである。また、操作信号送信部 208から操作信号を受 信したァクチユエータ装置 211の処理についても、上記実施の形態 6と同様である。
[0263] 以上説明した本発明の実施の形態 7によれば、複数の物体の位置と各物体の速度 を含む内部状態とを少なくとも記憶する記憶手段を備えたコンピュータが、前記複数 の物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前記 物体の位置および内部状態に基づいて、前記複数の物体の各々が時間の経過とと もに取りうる位置の変化を時間および空間力も構成される時空間上での軌跡としてそ れぞれ生成し、この生成した軌跡を用いることによって前記複数の物体の進路の確 率的な予測をそれぞれ行い、この予測した結果に基づいて、前記特定の物体が取り うる進路と前記その他の物体が取りうる進路との干渉の程度を定量的に示す干渉度 を算出し、この算出した干渉度に応じて前記特定の物体が取るべき進路を実用的な 時間の内に選択することにより、上記実施の形態 6と同様に、現実として起こりうる状 況下においても安全性の確保を図ることが可能となる。
[0264] また、本実施の形態 7によれば、最短衝突時間を用いて定義される干渉度を物体 ごとに重み付けして和を取った全体干渉度を適用し、この全体干渉度が最大である 時空間上での軌跡を選択することにより、時空間環境を構成する物体の数が多い場 合であっても、他の物体との衝突の可能性が最も低レ、進路を精度よく設定することが できる。
[0265] なお、本実施の形態 7において、干渉度 r (n , k)を実施の形態 6と同様に定義して
1 1
もよぐ衝突によって干渉度 r (n, k)を増加させる際の係数 c や F (t)の値として、上
1 1 lk
記実施の形態 3と同様にさまざまな定義の仕方のいずれ力、を採用することが可能で ある。この場合には、進路選択処理の際に R (n )が最小となる軌跡を選択すればよ
1 1
レ、。
[0266] 加えて、本実施の形態 7において干渉評価を行う際にも、全体干渉度 R (n )と個
1 1 別の干渉度 r (n , k)との双方を加味した干渉評価を行うようにしてもよい。
1 1
[0267] (その他の実施の形態)
ここまで、本発明を実施するための最良の形態として、実施の形態 1〜7を詳述して きたが、本発明はそれらの実施の形態によってのみ限定されるべきものではなレ、。例 えば、本発明に係る物体進路予測方法においては、センサ部で検知した実在の物 体に加えて、架空の物体を配置し、この配置した架空の物体の進路予測を行っても よい。より具体的には、 自車にとって好ましくない挙動を示すような架空の物体モデル を構成し、この物体モデルを所定の位置に配置して進路予測を行ってもよレ、。このよ うな架空の物体モデルは、例えば遮蔽物等が存在して見通しが悪レ、交差点付近を 走行する車両(自車)が進路予測を行う場合、その自車から検知できなレ、位置に配 置することによって、交差点から飛び出してくる可能性のある物体との衝突等の危険 を予測することが可能となる。なお、架空の物体モデルの情報は予め記憶部で記憶 しておき、入力部からの条件設定に応じて力、かる物体モデルを所望の位置に配置す るようにしてもよい。 [0268] また、本発明に係る物体進路予測装置を、車両のみの走行が前提となる高速道路 などの領域で適用する場合には、各車両に車車間通信用の通信手段をあわせて具 備させることにより、互いに近くを走行している車両同士力 互いの走行状況を車車 間通信によって交換し合うようにしてもよい。この場合には、各車両が操作履歴を各 自の記憶部で記憶しておき、その操作履歴に基づいて操作ごとの操作選択確率を 付与し、この操作選択確率に関する情報もあわせて他の車両に送信するようにしても よい。これにより、進路予測の精度が高くなり、走行中の危険を一段と確実に回避す ること力 S可肯 となる。
[0269] さらに、本発明において、 GPS (Global Positioning System)を位置検出手段とし て援用することも可能である。この場合には、 GPSが記憶する 3次元地図情報を参照 することによってセンサ部で検知した物体の位置情報や移動情報の補正を行うことが できる。さらには、 GPSの出力を相互に通信することによってセンサ部として機能させ ることも可能である。いずれの場合にも、 GPSを援用することによって高精度の進路 予測を実現することができ、予測結果の信頼性をさらに向上させることができる。
[0270] なお、本発明は、 3次元空間を移動する物体に対しても適用可能である。また、本 発明は、一つの物体が複数の自由度を有する場合 (例えば 6自由度を有するロボット アームのような物体)にも適用すること力 Sできる。
[0271] 以上の説明力らも明らかなように、本発明は、ここでは記載していないさまざまな実 施の形態等を含みうるものであり、特許請求の範囲により特定される技術的思想を逸 脱しなレ、範囲内におレ、て種々の設計変更等を施すことが可能である。
産業上の利用可能性
[0272] 本発明に係る物体進路予測方法、装置、プログラム、および自動運転システムは、 四輪自動車等の移動体の運転時の危険を回避し、安全性を確保するための技術と して好適である。

Claims

請求の範囲
[1] 物体の位置と当該物体の速度を含む内部状態とを少なくとも記憶する記憶手段を 備えたコンピュータが、前記物体の進路を予測する物体進路予測方法であって、 前記物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前 記物体の位置および内部状態に基づいて、前記物体が時間の経過とともに取りうる 位置の変化を時間および空間から構成される時空間上での軌跡として生成する軌跡 生成ステップと、
前記軌跡生成ステップで生成した軌跡を用いることによって前記物体の進路の確 率的な予測を行う予測ステップと、
を有することを特徴とする物体進路予測方法。
[2] 前記軌跡生成ステップは、
前記物体に対する操作を複数の操作から選択する操作選択ステップと、 前記操作選択ステップで選択した操作を所定時間動作させる物体操作ステップと、 前記物体操作ステップで前記選択した操作を動作させた後の前記物体の位置およ び内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域 に関する移動条件を満たしているか否力 ^判定する判定ステップと、
を含み、
前記操作選択ステップから前記判定ステップに至る一連の処理を、軌跡を生成す る軌跡生成時間に達するまで繰り返し行うことを特徴とする請求項 1記載の物体進路 予測方法。
[3] 前記操作選択ステップは、前記複数の操作の各々に付与された操作選択確率にし たがって操作を選択し、
前記判定ステップで判定した結果、前記物体の位置および内部状態が前記制御 条件および前記移動条件を満たしている場合には、時間を進めて前記操作選択ス テツプに戻ることを特徴とする請求項 2記載の物体進路予測方法。
[4] 前記操作選択確率は、乱数を用いて定義されることを特徴とする請求項 3記載の物 体進路予測方法。
[5] 前記軌跡生成ステップで生成すべき軌跡の数が予め定められていることを特徴と する請求項 3または 4記載の物体進路予測方法。
[6] 前記判定ステップで判定した結果、前記制御条件および前記移動条件を満たして レ、る場合には、時間を進めて再帰呼出を行うことにより、選択可能な全ての操作を動 作させることを特徴とする請求項 2記載の物体進路予測方法。
[7] 前記記憶手段は、複数の物体の位置および内部状態を記憶し、
前記軌跡生成ステップは、前記複数の物体の前記時空間における軌跡をそれぞれ 生成することを特徴とする請求項:!〜 6のいずれか一項記載の物体進路予測方法。
[8] 前記予測ステップは、前記複数の物体の中から一つの物体を特定し、この特定した 物体以外の物体の前記時空間における存在確率を算出することを特徴とする請求 項 7記載の物体進路予測方法。
[9] 前記予測ステップにおける予測結果を含む情報を出力する出力ステップをさらに有 することを特徴とする請求項:!〜 8のいずれか一項記載の物体進路予測方法。
[10] 複数の物体の位置と各物体の速度を含む内部状態とを少なくとも記憶する記憶手 段を備えたコンピュータが、前記複数の物体の進路を予測する物体進路予測方法で あってヽ
前記複数の物体の位置および内部状態を前記記憶手段から読み出し、この読み 出した前記物体の位置および内部状態に基づいて、前記複数の物体の各々が時間 の経過とともに取りうる位置の変化を時間および空間力 構成される時空間上での軌 跡としてそれぞれ生成する軌跡生成ステップと、
前記軌跡生成ステップで生成した軌跡を用いることによって前記複数の物体の進 路の確率的な予測をそれぞれ行う予測ステップと、
前記予測ステップで予測した結果に基づいて、前記特定の物体が取りうる進路と前 記その他の物体が取りうる進路との干渉の程度を定量的に示す干渉度を算出する干 渉度算出ステップと、
を有することを特徴とする物体進路予測方法。
[11] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的な距離で ある干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の物体の各 々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴とする請 求項 10記載の物体進路予測方法。
[12] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記干渉 距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両物体の 前記時空間上での衝突確率に比例して増加させることを特徴とする請求項 11記載 の物体進路予測方法。
[13] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記干渉 距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両物体が 近づいた時点での相対速度の大きさに比例して増加させることを特徴とする請求項 1 1記載の物体進路予測方法。
[14] 前記記憶手段は、異なる物体間の衝突時の相対速度の大きさと当該衝突によって 生じる被害の規模を評価する被害規模評価値または当該衝突によって生じる被害損 失額とを対応付けて記憶し、
前記干渉度算出ステップは、前記特定の物体と前記その他の物体のうちのいずれ か一つの物体とが前記干渉距離よりも近づいたとき、この両物体が近づいた時点で の相対速度の大きさに応じた前記被害規模評価値または前記被害損失額を前記記 憶手段から読み出し、当該両物体間の前記干渉度を前記被害規模評価値または前 記被害損失額に比例して増加させることを特徴とする請求項 11記載の物体進路予 測方法。
[15] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記干渉 距離よりも近づくまでに各物体の初期位置力 要した時間が当該両物体間の前記干 渉度の値よりも小さい場合には、前記初期位置から要した時間を前記干渉度の値と することを特徴とする請求項 11記載の物体進路予測方法。
[16] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和を取るこ とを特徴とする請求項 11〜: 15のいずれか一項記載の物体進路予測方法。
[17] 前記軌跡生成ステップは、
前記物体に対する操作を複数の操作から選択する操作選択ステップと、 前記操作選択ステップで選択した操作を所定時間動作させる物体操作ステップと、 前記物体操作ステップで前記選択した操作を動作させた後の前記物体の位置およ び内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域 に関する移動条件を満たしているか否力 ^判定する判定ステップと、
を含み、
前記操作選択ステップから前記判定ステップに至る一連の処理を、軌跡を生成す る軌跡生成時間に達するまで繰り返し行うことを特徴とする請求項 10〜: 16のいずれ か一項記載の物体進路予測方法。
[18] 前記操作選択ステップは、前記複数の操作の各々に付与された操作選択確率にし たがって操作を選択し、
前記判定ステップで判定した結果、前記物体の位置および内部状態が前記制御 条件および前記移動条件を満たしている場合には、時間を進めて前記操作選択ス テツプに戻ることを特徴とする請求項 17記載の物体進路予測方法。
[19] 前記操作選択確率は、乱数を用いて定義されることを特徴とする請求項 18記載の 物体進路予測方法。
[20] 前記軌跡生成ステップで生成すべき軌跡の数が予め定められていることを特徴と する請求項 18または 19記載の物体進路予測方法。
[21] 前記干渉度算出ステップで算出した干渉度に応じた情報を出力する出力ステップ をさらに有することを特徴とする請求項 10〜20のいずれか一項記載の物体進路予 測方法。
[22] 前記干渉度算出ステップで算出した干渉度に応じて、前記複数の物体に含まれる 特定の物体が取るべき進路を選択する進路選択ステップ
をさらに有することを特徴とする請求項 10記載の物体進路予測方法。
[23] 前記干渉度は、前記特定の物体が取りうる進路と前記その他の物体が取りうる進路 との干渉の程度が小さいほど小さい値を有し、 前記進路選択ステップは、前記干渉度が最小の進路を選択することを特徴とする 請求項 22記載の物体進路予測方法。
[24] 前記進路選択ステップは、
前記干渉度が最小の進路が複数ある場合、この複数の進路の中から所定の付加 選択基準に最も適合する進路を選択することを特徴とする請求項 23記載の物体進 路予測方法。
[25] 前記干渉度は、前記特定の物体が取りうる進路と前記その他の物体が取りうる進路 との干渉の程度が小さいほど大きい値を有し、
前記進路選択ステップは、前記干渉度が最大の進路を選択することを特徴とする 請求項 22記載の物体進路予測方法。
[26] 前記進路選択ステップは、
前記干渉度が最大の進路が複数ある場合、この複数の進路の中から所定の付加 選択基準に最も適合する進路を選択することを特徴とする請求項 25記載の物体進 路予測方法。
[27] 前記進路選択ステップで選択した進路の位置の履歴および当該進路を実現する 操作系列に応じた操作信号を生成し、この生成した操作信号を外部に送信する操作 信号送信ステップをさらに有することを特徴とする請求項 23〜26のいずれか一項記 載の物体進路予測方法。
[28] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的な距離で ある干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の物体の各 々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴とする請 求項 22〜27のいずれか一項記載の物体進路予測方法。
[29] 前記干渉度算出ステップは、
前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和を取るこ とを特徴とする請求項 22〜28のいずれか一項記載の物体進路予測方法。
[30] 前記軌跡生成ステップは、
前記物体に対する操作を複数の操作から選択する操作選択ステップと、 前記操作選択ステップで選択した操作を所定時間動作させる物体操作ステップと、 前記物体操作ステップで前記選択した操作を動作させた後の前記物体の位置およ び内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域 に関する移動条件を満たしているか否力 ^判定する判定ステップと、
を含み、
前記操作選択ステップから前記判定ステップに至る一連の処理を、軌跡を生成す る軌跡生成時間に達するまで繰り返し行うことを特徴とする請求項 22〜29のいずれ か一項記載の物体進路予測方法。
[31] 前記進路選択ステップで選択した進路に関する情報を出力する出力ステップをさら に有することを特徴とする請求項 22〜30のいずれか一項記載の物体進路予測方法
[32] 物体の位置と当該物体の速度を含む内部状態とを少なくとも記憶する記憶手段と、 前記物体の位置および内部状態を前記記憶手段から読み出し、この読み出した前 記物体の位置および内部状態に基づいて、前記物体が時間の経過とともに取りうる 位置の変化を時間および空間から構成される時空間上での軌跡として生成する軌跡 生成手段と、
前記軌跡生成手段で生成した軌跡を用いることによって前記物体の進路の確率的 な予測を行う予測手段と、
を備えたことを特徴とする物体進路予測装置。
[33] 前記軌跡生成手段は、
前記物体に対する操作を複数の操作から選択する操作選択手段と、
前記操作選択手段で選択した操作を所定時間動作させる物体操作手段と、 前記物体操作手段で前記選択した操作を動作させた後の前記物体の位置および 内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域に 関する移動条件を満たしているか否かを判定する判定手段と、
を含み、
前記操作選択手段による操作選択処理から前記判定手段による判定処理に至る 一連の処理を、軌跡を生成する軌跡生成時間に達するまで繰り返し行うことを特徴と する請求項 32記載の物体進路予測装置。
[34] 前記操作選択手段は、前記複数の操作の各々に付与された操作選択確率にした 力 Sつて操作を選択し、
前記判定手段で判定した結果、前記物体の位置および内部状態が前記制御条件 および前記移動条件を満たしている場合には、時間を進めて前記操作選択手段に よる操作選択処理に戻ることを特徴とする請求項 33記載の物体進路予測装置。
[35] 前記操作選択確率は、乱数を用いて定義されることを特徴とする請求項 34記載の 物体進路予測装置。
[36] 前記軌跡生成手段で生成すべき軌跡の数が予め定められていることを特徴とする 請求項 34または 35記載の物体進路予測装置。
[37] 前記判定手段で判定した結果、前記制御条件および前記移動条件を満たしてレ、る 場合には、時間を進めて再帰呼出を行うことにより、選択可能な全ての操作を動作さ せることを特徴とする請求項 33記載の物体進路予測装置。
[38] 前記記憶手段は、複数の物体の位置および内部状態を記憶し、
前記軌跡生成手段は、前記複数の物体の前記時空間における軌跡をそれぞれ生 成することを特徴とする請求項 32〜37のいずれか一項記載の物体進路予測装置。
[39] 前記予測手段は、前記複数の物体の中から一つの物体を特定し、この特定した物 体以外の物体の前記時空間における存在確率を算出することを特徴とする請求項 3
8記載の物体進路予測装置。
[40] 前記予測手段による予測結果を含む情報を出力する出力手段をさらに備えたこと を特徴とする請求項 32〜39のいずれか一項記載の物体進路予測装置。
[41] 複数の物体の位置と各物体の速度を含む内部状態とを少なくとも記憶する記憶手 段と、
前記複数の物体の位置および内部状態を前記記憶手段から読み出し、この読み 出した前記物体の位置および内部状態に基づいて、前記複数の物体の各々が時間 の経過とともに取りうる位置の変化を時間および空間力 構成される時空間上での軌 跡としてそれぞれ生成する軌跡生成手段と、
前記軌跡生成手段で生成した軌跡を用いることによって前記複数の物体の進路の 確率的な予測をそれぞれ行う予測手段と、
前記予測手段で予測した結果に基づいて、前記特定の物体が取りうる進路と前記 その他の物体が取りうる進路との干渉の程度を定量的に示す干渉度を算出する干渉 度算出手段と、
を備えたことを特徴とする物体進路予測装置。
[42] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的な距離で ある干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の物体の各 々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴とする請 求項 41記載の物体進路予測装置。
[43] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記干渉 距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両物体の 前記時空間上での衝突確率に比例して増加させることを特徴とする請求項 42記載 の物体進路予測装置。
[44] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記干渉 距離よりも近づいたとき、この近づいた両物体間の前記干渉度の値を当該両物体が 近づいた時点での相対速度の大きさに比例して増加させることを特徴とする請求項 4 2記載の物体進路予測装置。
[45] 前記記憶手段は、異なる物体間の衝突時の相対速度の大きさと当該衝突によって 生じる被害の規模を評価する被害規模評価値または当該衝突によって生じる被害損 失額とを対応付けて記憶し、
前記干渉度算出手段は、前記特定の物体と前記その他の物体のうちのいずれか 一つの物体とが前記干渉距離よりも近づいたとき、この両物体が近づいた時点での 相対速度の大きさに応じた前記被害規模評価値または前記被害損失額を前記記憶 手段から読み出し、当該両物体間の前記干渉度を前記被害規模評価値または前記 被害損失額に比例して増加させることを特徴とする請求項 42記載の物体進路予測 装置。
[46] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体のうちのいずれか一つの物体とが前記干渉 距離よりも近づくまでに各物体の初期位置力 要した時間が当該両物体間の前記干 渉度の値よりも小さい場合には、前記初期位置から要した時間を前記干渉度の値と することを特徴とする請求項 42記載の物体進路予測装置。
[47] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和を取るこ とを特徴とする請求項 42〜46のいずれか一項記載の物体進路予測装置。
[48] 前記軌跡生成手段は、
前記物体に対する操作を複数の操作から選択する操作選択手段と、
前記操作選択手段で選択した操作を所定時間動作させる物体操作手段と、 前記物体操作手段で前記選択した操作を動作させた後の前記物体の位置および 内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域に 関する移動条件を満たしているか否かを判定する判定手段と、
を含み、
前記操作選択手段による操作選択処理から前記判定手段による判定処理に至る 一連の処理を、軌跡を生成する軌跡生成時間に達するまで繰り返し行うことを特徴と する請求項 41〜47のいずれか一項記載の物体進路予測装置。
[49] 前記操作選択手段は、前記複数の操作の各々に付与された操作選択確率にした 力 Sつて操作を選択し、
前記判定手段で判定した結果、前記物体の位置および内部状態が前記制御条件 および前記移動条件を満たしている場合には、時間を進めて前記操作選択手段に よる操作選択処理に戻ることを特徴とする請求項 48記載の物体進路予測装置。
[50] 前記操作選択確率は、乱数を用いて定義されることを特徴とする請求項 49記載の 物体進路予測装置。
[51] 前記軌跡生成手段で生成すべき軌跡の数が予め定められていることを特徴とする 請求項 49または 50記載の物体進路予測装置。
[52] 前記干渉度算出手段で算出した干渉度に応じた情報を出力する出力手段をさらに 備えたことを特徴とする請求項 41〜51のいずれか一項記載の物体進路予測装置。
[53] 前記干渉度算出手段で算出した干渉度に応じて前記特定の物体が取るべき進路 を選択する進路選択手段
をさらに備えたことを特徴とする請求項 41記載の物体進路予測装置。
[54] 前記干渉度は、前記特定の物体が取りうる進路と前記その他の物体が取りうる進路 との干渉の程度が小さいほど小さい値を有し、
前記進路選択手段は、前記干渉度が最小の進路を選択することを特徴とする請求 項 53記載の物体進路予測装置。
[55] 前記進路選択手段は、
前記干渉度が最小の進路が複数ある場合、この複数の進路の中から所定の付加 選択基準に最も適合する進路を選択することを特徴とする請求項 54記載の物体進 路予測装置。
[56] 前記干渉度は、前記特定の物体が取りうる進路と前記その他の物体が取りうる進路 との干渉の程度が小さいほど大きい値を有し、
前記進路選択手段は、前記干渉度が最大の進路を選択することを特徴とする請求 項 53記載の物体進路予測装置。
[57] 前記進路選択手段は、
前記干渉度が最大の進路が複数ある場合、この複数の進路の中から所定の付加 選択基準に最も適合する進路を選択することを特徴とする請求項 56記載の物体進 路予測装置。
[58] 前記進路選択手段で選択した進路の位置の履歴および当該進路を実現する操作 系列に応じた操作信号を生成し、この生成した操作信号を外部に送信する操作信号 送信手段をさらに備えたことを特徴とする請求項 54〜57のいずれか一項記載の物 体進路予測装置。
[59] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体の各々とが互いに干渉しあう空間的な距離で ある干渉距離よりも近づく回数に応じて、前記特定の物体と前記その他の物体の各 々との間の前記干渉度の値を所定量だけ増加または減少させることを特徴とする請 求項 53〜58のいずれか一項記載の物体進路予測装置。
[60] 前記干渉度算出手段は、
前記特定の物体と前記その他の物体との各干渉度の値を重み付けして和を取るこ とを特徴とする請求項 53〜59のいずれか一項記載の物体進路予測装置。
[61] 前記軌跡生成手段は、
前記物体に対する操作を複数の操作から選択する操作選択手段と、
前記操作選択手段で選択した操作を所定時間動作させる物体操作手段と、 前記物体操作手段で前記選択した操作を動作させた後の前記物体の位置および 内部状態が当該物体の制御に関する制御条件および当該物体の移動可能領域に 関する移動条件を満たしているか否かを判定する判定手段と、
を含み、
前記操作選択手段による操作選択処理から前記判定手段による判定処理に至る 一連の処理を、軌跡を生成する軌跡生成時間に達するまで繰り返し行うことを特徴と する請求項 53〜60のいずれか一項記載の物体進路予測装置。
[62] 前記進路選択手段で選択した進路に関する情報を出力する出力手段をさらに有 することを特徴とする請求項 53〜61のいずれか一項記載の物体進路予測装置。
[63] 請求項:!〜 31のいずれか一項記載の物体進路予測方法を前記コンピュータに実 行させることを特徴とする物体進路予測プログラム。
[64] 車両に搭載されて当該車両を自動的に運転する自動運転システムであって、 請求項 53〜62のいずれか一項記載の物体進路予測装置と、
前記物体進路予測装置が備える前記進路選択手段で選択された進路を実現する 操作信号に応じて当該車両を操作するァクチユエータ装置と、
を備えたことを特徴とする自動運転システム。
PCT/JP2007/053760 2006-02-28 2007-02-28 物体進路予測方法、装置、プログラム、および自動運転システム WO2007102367A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP07715050.6A EP1990786B1 (en) 2006-02-28 2007-02-28 Object path prediction method and apparatus
US12/224,176 US8805601B2 (en) 2006-02-28 2007-02-28 Object path prediction method, apparatus, and program, and automatic operation system
CN2007800070159A CN101395647B (zh) 2006-02-28 2007-02-28 物体路线预测方法、装置和程序以及自动操作系统
US14/312,028 US10102750B2 (en) 2006-02-28 2014-06-23 Object path prediction method, apparatus, and program, and automatic operation system

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2006-053878 2006-02-28
JP2006-053879 2006-02-28
JP2006053878A JP4211794B2 (ja) 2006-02-28 2006-02-28 干渉評価方法、装置、およびプログラム
JP2006053879A JP4396653B2 (ja) 2006-02-28 2006-02-28 物体進路予測方法、装置、およびプログラム
JP2006-056874 2006-03-02
JP2006056874A JP4353192B2 (ja) 2006-03-02 2006-03-02 進路設定方法、装置、プログラム、および自動運転システム

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/224,176 A-371-Of-International US8805601B2 (en) 2006-02-28 2007-02-28 Object path prediction method, apparatus, and program, and automatic operation system
US14/312,028 Division US10102750B2 (en) 2006-02-28 2014-06-23 Object path prediction method, apparatus, and program, and automatic operation system

Publications (1)

Publication Number Publication Date
WO2007102367A1 true WO2007102367A1 (ja) 2007-09-13

Family

ID=38474799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/053760 WO2007102367A1 (ja) 2006-02-28 2007-02-28 物体進路予測方法、装置、プログラム、および自動運転システム

Country Status (3)

Country Link
US (2) US8805601B2 (ja)
EP (1) EP1990786B1 (ja)
WO (1) WO2007102367A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008308152A (ja) * 2007-05-11 2008-12-25 Nissan Motor Co Ltd 車両の走行制御方法及び走行制御装置
WO2009071370A2 (de) * 2007-12-06 2009-06-11 Robert Bosch Gmbh Verfahren zum kontrollieren einer gefahrensituation im verkehr
DE102008046348A1 (de) * 2008-09-09 2010-03-11 Siemens Aktiengesellschaft Verfahren, Gerät und ein entsprechendes Computerprogrammprodukt zur rechnergestützten Bahnplanung eines bewegbaren Geräts, insbesondere eines medizinischen Geräts
JP2010076504A (ja) * 2008-09-24 2010-04-08 Fuji Heavy Ind Ltd 車両の運転支援装置
WO2010110109A1 (ja) * 2009-03-23 2010-09-30 本田技研工業株式会社 車両用情報提供装置
US20110010046A1 (en) * 2009-07-10 2011-01-13 Toyota Jidosha Kabushiki Kaisha Object detection device
EP2298626A1 (en) * 2008-07-11 2011-03-23 Toyota Jidosha Kabushiki Kaisha Travel supporting control system
JP2011131838A (ja) * 2009-12-25 2011-07-07 Toyota Motor Corp 走行支援装置
JP2013079068A (ja) * 2007-05-11 2013-05-02 Nissan Motor Co Ltd 車両の走行制御方法及び走行制御装置
WO2013186988A1 (ja) * 2012-06-13 2013-12-19 日本電気株式会社 移動体異常接近検知システムおよび移動体異常接近検知方法
WO2013186989A1 (ja) * 2012-06-13 2013-12-19 日本電気株式会社 移動計画処理システム、移動計画処理方法および移動計画処理プログラム
WO2014156169A1 (ja) * 2013-03-29 2014-10-02 日本電気株式会社 管制支援システム、管制支援方法および管制支援プログラム
US9495873B2 (en) 2011-06-09 2016-11-15 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
US10745004B2 (en) 2017-01-19 2020-08-18 Toyota Jidosha Kabushiki Kaisha Object recognizing device and collision avoidance system
US10877482B2 (en) 2017-04-06 2020-12-29 Toyota Jidosha Kabushiki Kaisha Trajectory setting device and trajectory setting method

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9043016B2 (en) * 2005-10-21 2015-05-26 Deere & Company Versatile robotic control module
EP1990786B1 (en) * 2006-02-28 2021-05-19 Toyota Jidosha Kabushiki Kaisha Object path prediction method and apparatus
JP4254844B2 (ja) * 2006-11-01 2009-04-15 トヨタ自動車株式会社 走行制御計画評価装置
JP2010071767A (ja) * 2008-09-17 2010-04-02 Kousokuya Inc ネットワーク経路探索装置、方法及びプログラム
JP4853525B2 (ja) * 2009-02-09 2012-01-11 トヨタ自動車株式会社 移動領域予測装置
US8364442B2 (en) * 2009-02-17 2013-01-29 Schlumberger Technology Corporation Automated structural interpretation
CN102449672B (zh) * 2009-06-02 2013-05-01 丰田自动车株式会社 车辆用周边监视装置
JP4877360B2 (ja) * 2009-06-12 2012-02-15 トヨタ自動車株式会社 進路評価装置および進路評価方法
JP4957752B2 (ja) * 2009-06-12 2012-06-20 トヨタ自動車株式会社 進路評価装置
JP2011048470A (ja) * 2009-08-25 2011-03-10 Toyota Motor Corp 環境予測装置
JP5407764B2 (ja) * 2009-10-30 2014-02-05 トヨタ自動車株式会社 運転支援装置
US9355144B2 (en) * 2009-12-10 2016-05-31 Nokia Technologies Oy Method and apparatus for recycling information fragments in information spaces
WO2012024840A1 (en) 2010-08-27 2012-03-01 Empire Technology Development Llc Head up display
EP2626847B1 (en) 2010-10-05 2018-11-21 Toyota Jidosha Kabushiki Kaisha Collision determination device
US8717192B2 (en) * 2010-10-08 2014-05-06 Navteq B.V. Method and system for using intersecting electronic horizons
JP5189157B2 (ja) * 2010-11-30 2013-04-24 株式会社豊田中央研究所 可動物の目標状態決定装置及びプログラム
JP5793868B2 (ja) * 2011-01-12 2015-10-14 トヨタ自動車株式会社 走行支援装置
JP2012144157A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 走行支援装置
CN102685382B (zh) * 2011-03-18 2016-01-20 安尼株式会社 图像处理装置和方法、及移动体防碰撞装置
DE102012202916A1 (de) * 2012-02-27 2013-08-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US8457827B1 (en) * 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
US8825265B1 (en) * 2012-03-16 2014-09-02 Google Inc. Approach for consolidating observed vehicle trajectories into a single representative trajectory
DE102012208712A1 (de) * 2012-05-24 2013-11-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Vermeiden oder Abmildern einer Kollision eines Fahrzeugs mit einem Hindernis
US20140055339A1 (en) * 2012-08-22 2014-02-27 David Stanasolovich Adaptive visual output based on motion compensation of a mobile device
US9690334B2 (en) 2012-08-22 2017-06-27 Intel Corporation Adaptive visual output based on change in distance of a mobile device to a user
US20140218482A1 (en) * 2013-02-05 2014-08-07 John H. Prince Positive Train Control Using Autonomous Systems
KR20140104610A (ko) * 2013-02-20 2014-08-29 한국전자통신연구원 조명 통신을 이용한 실시간 이동 경로 추정 장치 및 방법
US8989998B2 (en) * 2013-03-27 2015-03-24 The Boeing Company Predicted position and heading/track indicators for navigation display
GB2518187A (en) * 2013-09-12 2015-03-18 Ford Global Tech Llc Collision warning for a driver controlled vehicle
US9707942B2 (en) 2013-12-06 2017-07-18 Elwha Llc Systems and methods for determining a robotic status of a driving vehicle
US9164507B2 (en) * 2013-12-06 2015-10-20 Elwha Llc Systems and methods for modeling driving behavior of vehicles
US10431099B2 (en) * 2014-02-21 2019-10-01 FLIR Belgium BVBA Collision avoidance systems and methods
WO2015155833A1 (ja) 2014-04-08 2015-10-15 三菱電機株式会社 衝突防止装置
CN106164998B (zh) 2014-04-10 2019-03-15 三菱电机株式会社 路径预测装置
EP2942250B1 (en) * 2014-05-08 2017-02-01 Volvo Car Corporation Method for determining an evasive path for a host vehicle
EP2942251B1 (en) * 2014-05-08 2017-04-05 Volvo Car Corporation Method for providing an object prediction representation
EP2950114B1 (en) * 2014-05-30 2020-03-04 Honda Research Institute Europe GmbH Method for assisting a driver in driving a vehicle, a driver assistance system, a computer software program product and vehicle
US9540118B2 (en) 2014-11-10 2017-01-10 Federal Express Corporation Risk assessment framework
DE112014007241T5 (de) * 2014-12-09 2017-09-28 Mitsubishi Electric Corporation Kollisionsrisikoberechnungseinrichtung, Kollisionsrisikoanzeigeeinrichtung und Fahrzeugkarosseriesteuereinrichtung
EP3240711B1 (en) * 2014-12-31 2020-09-02 Robert Bosch GmbH Autonomous maneuver notification for autonomous vehicles
US9786177B2 (en) 2015-04-10 2017-10-10 Honda Motor Co., Ltd. Pedestrian path predictions
WO2017002258A1 (ja) * 2015-07-02 2017-01-05 三菱電機株式会社 経路予測装置
CN105109485B (zh) * 2015-08-24 2018-02-16 奇瑞汽车股份有限公司 一种驾驶方法及系统
CN112363507A (zh) * 2015-09-08 2021-02-12 苹果公司 意图识别
US9517767B1 (en) * 2015-11-04 2016-12-13 Zoox, Inc. Internal safety systems for robotic vehicles
CN105427586B (zh) * 2015-12-16 2018-06-12 武汉烽火众智数字技术有限责任公司 一种基于多轨迹碰撞的车辆落脚点分析方法
JP6323473B2 (ja) 2016-02-25 2018-05-16 トヨタ自動車株式会社 走行制御装置
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US10829116B2 (en) 2016-07-01 2020-11-10 nuTonomy Inc. Affecting functions of a vehicle based on function-related information about its environment
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10246090B2 (en) * 2016-11-07 2019-04-02 Ford Global Technologies, Llc Vehicle collision severity mitigation
JP6616275B2 (ja) * 2016-12-15 2019-12-04 株式会社Soken 運転支援装置
US10281920B2 (en) 2017-03-07 2019-05-07 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10234864B2 (en) * 2017-03-07 2019-03-19 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
US10095234B2 (en) 2017-03-07 2018-10-09 nuTonomy Inc. Planning for unknown objects by an autonomous vehicle
EP3389026A1 (en) * 2017-04-12 2018-10-17 Volvo Car Corporation Apparatus and method for road vehicle driver assistance
CN107491495B (zh) * 2017-07-25 2019-11-12 南京师范大学 空间属性优先的时空轨迹数据文件在辅助存储设备中的存储方法
US10649458B2 (en) 2017-09-07 2020-05-12 Tusimple, Inc. Data-driven prediction-based system and method for trajectory planning of autonomous vehicles
DE102017215844A1 (de) * 2017-09-08 2019-03-14 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrzeugs
US10717384B2 (en) 2017-10-25 2020-07-21 Pony Ai Inc. System and method for projecting trajectory path of an autonomous vehicle onto a road surface
US10739775B2 (en) * 2017-10-28 2020-08-11 Tusimple, Inc. System and method for real world autonomous vehicle trajectory simulation
JP6888538B2 (ja) 2017-12-18 2021-06-16 トヨタ自動車株式会社 車両制御装置
US11257372B2 (en) * 2017-12-27 2022-02-22 Intel Corporation Reverse-facing anti-collision system
US11011056B2 (en) * 2018-01-29 2021-05-18 Fujitsu Limited Fragmentation-aware intelligent autonomous intersection management using a space-time resource model
US10766487B2 (en) * 2018-08-13 2020-09-08 Denso International America, Inc. Vehicle driving system
JP7115270B2 (ja) 2018-12-07 2022-08-09 トヨタ自動車株式会社 自動運転システム
JP7135808B2 (ja) 2018-12-07 2022-09-13 トヨタ自動車株式会社 衝突回避支援装置
JP7151495B2 (ja) 2019-01-16 2022-10-12 トヨタ自動車株式会社 自動運転システム
US10535207B1 (en) 2019-03-29 2020-01-14 Toyota Motor North America, Inc. Vehicle data sharing with interested parties
US10726642B1 (en) 2019-03-29 2020-07-28 Toyota Motor North America, Inc. Vehicle data sharing with interested parties
CN113196290A (zh) * 2019-09-26 2021-07-30 松下电器(美国)知识产权公司 信息处理方法、程序以及信息处理装置
WO2021077446A1 (en) * 2019-10-25 2021-04-29 Psa Automobiles Sa Prediction method for trajectory of vehicle, prediction system and vehicle
JP7230777B2 (ja) * 2019-11-11 2023-03-01 トヨタ自動車株式会社 車両制御システム
JP7464425B2 (ja) * 2020-03-31 2024-04-09 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
CN113643167A (zh) * 2020-05-11 2021-11-12 台达电子工业股份有限公司 具备轨迹追踪暨预测以及停留时间监视的安防监控方法
WO2022035602A2 (en) * 2020-07-28 2022-02-17 Waymo Llc Agent trajectory prediction using target locations
US11733054B2 (en) 2020-12-11 2023-08-22 Motional Ad Llc Systems and methods for implementing occlusion representations over road features
CN112650064B (zh) * 2021-01-05 2022-01-18 南京航空航天大学 一种适应于混杂道路的智能汽车汇入控制系统及方法
US11950567B2 (en) 2021-03-04 2024-04-09 Sky View Environmental Service Llc Condor monitoring systems and related methods

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126294A (ja) * 1997-10-23 1999-05-11 Toyota Motor Corp 移動体交通制御システム
JP2000076581A (ja) * 1998-09-01 2000-03-14 Toyota Motor Corp 経路決定方法及び移動体交通制御システム
JP2000207691A (ja) * 1999-01-12 2000-07-28 Toyota Motor Corp 車両用走行制御装置
JP2000276696A (ja) * 1999-03-26 2000-10-06 Toyota Motor Corp 車両衝突回避制御装置
JP2002140786A (ja) * 2000-11-01 2002-05-17 Nec Corp 危険度評価装置
JP2003058999A (ja) * 2001-08-13 2003-02-28 Pioneer Electronic Corp 移動体用ナビゲーションシステム及び方法並びにコンピュータプログラム
JP2003123185A (ja) * 2001-10-11 2003-04-25 Hitachi Ltd 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置
JP2003205804A (ja) * 2002-01-16 2003-07-22 Denso Corp 車両用衝突被害軽減装置
JP2004199389A (ja) * 2002-12-18 2004-07-15 Toyota Motor Corp 運転補助システム及び装置

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4379497A (en) * 1980-09-02 1983-04-12 Bell & Howell, Company Vehicle collision avoidance system
JP2909106B2 (ja) 1989-09-29 1999-06-23 マツダ株式会社 移動車の走行制御装置
US5179514A (en) * 1990-08-08 1993-01-12 The Research Foundation Of State University Of New York Method and apparatus for trajectory control of robot manipulators or the like
JP3214122B2 (ja) 1993-01-19 2001-10-02 三菱電機株式会社 危険状況警報装置
JPH07225612A (ja) 1994-02-15 1995-08-22 Fujitsu Ltd 時間軸を探索空間に取り入れた経路探索方法,及び装置
JP3218865B2 (ja) 1994-06-28 2001-10-15 富士通株式会社 時間軸を探索空間に取り入れた経路探索装置
US7058617B1 (en) * 1996-05-06 2006-06-06 Pavilion Technologies, Inc. Method and apparatus for training a system model with gain constraints
JP3424834B2 (ja) * 1997-02-20 2003-07-07 株式会社小松製作所 車両の監視装置
US6275231B1 (en) * 1997-08-01 2001-08-14 American Calcar Inc. Centralized control and management system for automobiles
US6445308B1 (en) 1999-01-12 2002-09-03 Toyota Jidosha Kabushiki Kaisha Positional data utilizing inter-vehicle communication method and traveling control apparatus
JP4193266B2 (ja) 1999-02-22 2008-12-10 株式会社エクォス・リサーチ 周辺車両報知装置
US6611737B1 (en) * 1999-04-23 2003-08-26 Canadian Space Agency Advanced ship autopilot system
JP2000339029A (ja) * 1999-05-31 2000-12-08 Komatsu Ltd 車両の干渉防止装置
US6278907B1 (en) * 1999-11-24 2001-08-21 Xerox Corporation Apparatus and method of distributing object handling
SE515655C2 (sv) * 1999-12-22 2001-09-17 Saab Ab "System och metod för kollisionsundvikning mellan farkoster
DE10036276A1 (de) 2000-07-26 2002-02-07 Daimler Chrysler Ag Automatisches Brems- und Lenksystem für ein Fahrzeug
JP2004508627A (ja) * 2000-09-08 2004-03-18 レイセオン・カンパニー 経路予測システムおよび方法
US6650948B1 (en) * 2000-11-28 2003-11-18 Applied Generics Limited Traffic flow monitoring
JP3785445B2 (ja) * 2000-12-05 2006-06-14 株式会社ジェイテクト 電動パワーステアリング制御装置の制御パラメータ調整教示装置、及び制御パラメータ調整教示システム
US20040254729A1 (en) * 2003-01-31 2004-12-16 Browne Alan L. Pre-collision assessment of potential collision severity for road vehicles
KR20070054758A (ko) * 2001-01-24 2007-05-29 텔레비게이션 인크 이동 환경을 위한 실시간 항법 시스템
EP1409311B1 (de) * 2001-07-11 2006-05-03 Robert Bosch Gmbh Verfahren und vorrichtung zum auslösen und durchführen einer verzögerung eines fahrzeugs
US6542111B1 (en) * 2001-08-13 2003-04-01 Yazaki North America, Inc. Path prediction for vehicular collision warning system
JP2003215241A (ja) 2002-01-28 2003-07-30 Matsushita Electric Works Ltd 車載用レーダ装置
WO2003096068A1 (de) 2002-05-07 2003-11-20 Robert Bosch Gmbh Verfahren zur bestimmung einer unfallgefahr eines ersten objekts mit wenigstens einem zweiten objekt
JP2004145479A (ja) 2002-10-22 2004-05-20 Aisin Seiki Co Ltd 周辺車両情報提供装置
JP3849650B2 (ja) * 2003-01-28 2006-11-22 トヨタ自動車株式会社 車両
FR2857468B1 (fr) * 2003-07-08 2005-09-30 Airbus France Systeme d'aide a la commande de la deceleration d'un aeronef roulant sur le sol
US7797107B2 (en) * 2003-09-16 2010-09-14 Zvi Shiller Method and system for providing warnings concerning an imminent vehicular collision
US7447593B2 (en) * 2004-03-26 2008-11-04 Raytheon Company System and method for adaptive path planning
EP1741079B1 (en) * 2004-04-08 2008-05-21 Mobileye Technologies Limited Collision warning system
US8594370B2 (en) 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
US7974778B2 (en) * 2004-09-17 2011-07-05 Honda Motor Co., Ltd. Vehicular control object determination system and vehicular travel locus estimation system
WO2006070865A1 (ja) * 2004-12-28 2006-07-06 Kabushiki Kaisha Toyota Chuo Kenkyusho 車両運動制御装置
FR2884020B1 (fr) * 2005-04-04 2011-06-10 Airbus France Procede et dispositif d'aide a la navigation au sol d'un avion sur un aeroport
US7451004B2 (en) * 2005-09-30 2008-11-11 Fisher-Rosemount Systems, Inc. On-line adaptive model predictive control in a process control system
EP1990786B1 (en) * 2006-02-28 2021-05-19 Toyota Jidosha Kabushiki Kaisha Object path prediction method and apparatus
FR2924830B1 (fr) * 2007-12-11 2010-11-19 Airbus France Procede et dispositif de generation d'un profil de vitesse pour un aeronef roulant au sol
US8346468B2 (en) * 2008-07-08 2013-01-01 Sky-Trax Incorporated Method and apparatus for collision avoidance

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11126294A (ja) * 1997-10-23 1999-05-11 Toyota Motor Corp 移動体交通制御システム
JP2000076581A (ja) * 1998-09-01 2000-03-14 Toyota Motor Corp 経路決定方法及び移動体交通制御システム
JP2000207691A (ja) * 1999-01-12 2000-07-28 Toyota Motor Corp 車両用走行制御装置
JP2000276696A (ja) * 1999-03-26 2000-10-06 Toyota Motor Corp 車両衝突回避制御装置
JP2002140786A (ja) * 2000-11-01 2002-05-17 Nec Corp 危険度評価装置
JP2003058999A (ja) * 2001-08-13 2003-02-28 Pioneer Electronic Corp 移動体用ナビゲーションシステム及び方法並びにコンピュータプログラム
JP2003123185A (ja) * 2001-10-11 2003-04-25 Hitachi Ltd 危険情報集配信装置、警報発生装置、車両危険情報送信装置および経路探索装置
JP2003205804A (ja) * 2002-01-16 2003-07-22 Denso Corp 車両用衝突被害軽減装置
JP2004199389A (ja) * 2002-12-18 2004-07-15 Toyota Motor Corp 運転補助システム及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A. BROADHURST; S. BAKER; T. KANADE: "Monte Carlo Road Safety Reasoning", IEEE INTELLIGENT VEHICLE SYMPOSIUM (IV2005), IEEE, June 2005 (2005-06-01)
See also references of EP1990786A4

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8423277B2 (en) 2007-05-11 2013-04-16 Nissan Motor Co., Ltd. Vehicle running control method for avoiding that a vehicle collides with an obstacle
JP2008308152A (ja) * 2007-05-11 2008-12-25 Nissan Motor Co Ltd 車両の走行制御方法及び走行制御装置
JP2013079068A (ja) * 2007-05-11 2013-05-02 Nissan Motor Co Ltd 車両の走行制御方法及び走行制御装置
WO2009071370A2 (de) * 2007-12-06 2009-06-11 Robert Bosch Gmbh Verfahren zum kontrollieren einer gefahrensituation im verkehr
WO2009071370A3 (de) * 2007-12-06 2009-08-13 Bosch Gmbh Robert Verfahren zum kontrollieren einer gefahrensituation im verkehr
EP2298626A1 (en) * 2008-07-11 2011-03-23 Toyota Jidosha Kabushiki Kaisha Travel supporting control system
EP2298626A4 (en) * 2008-07-11 2014-04-16 Toyota Motor Co Ltd CIRCULATION ASSISTANCE CONTROL SYSTEM
DE102008046348B4 (de) * 2008-09-09 2015-08-20 Siemens Aktiengesellschaft Verfahren, Gerät und ein entsprechendes Computerprogrammprodukt zur rechnergestützten Bahnplanung eines bewegbaren Geräts, insbesondere eines medizinischen Geräts
DE102008046348A1 (de) * 2008-09-09 2010-03-11 Siemens Aktiengesellschaft Verfahren, Gerät und ein entsprechendes Computerprogrammprodukt zur rechnergestützten Bahnplanung eines bewegbaren Geräts, insbesondere eines medizinischen Geräts
JP2010076504A (ja) * 2008-09-24 2010-04-08 Fuji Heavy Ind Ltd 車両の運転支援装置
JP2010224762A (ja) * 2009-03-23 2010-10-07 Honda Motor Co Ltd 車両用情報提供装置
CN102362301A (zh) * 2009-03-23 2012-02-22 本田技研工业株式会社 车用信息提供装置
WO2010110109A1 (ja) * 2009-03-23 2010-09-30 本田技研工業株式会社 車両用情報提供装置
US8548643B2 (en) 2009-03-23 2013-10-01 Honda Motor Co., Ltd. Information providing device for vehicle
US20110010046A1 (en) * 2009-07-10 2011-01-13 Toyota Jidosha Kabushiki Kaisha Object detection device
US9626868B2 (en) * 2009-07-10 2017-04-18 Toyota Jidosha Kabushiki Kaisha Object detection device
JP2011131838A (ja) * 2009-12-25 2011-07-07 Toyota Motor Corp 走行支援装置
US9495873B2 (en) 2011-06-09 2016-11-15 Toyota Jidosha Kabushiki Kaisha Other-vehicle detection device and other-vehicle detection method
US9530317B2 (en) 2012-06-13 2016-12-27 Nec Corporation Movement-measurement-processing system, movement-measurement-processing method, and movement-measurement-processing program
JPWO2013186988A1 (ja) * 2012-06-13 2016-02-04 日本電気株式会社 移動体異常接近検知システムおよび移動体異常接近検知方法
JPWO2013186989A1 (ja) * 2012-06-13 2016-02-04 日本電気株式会社 移動計画処理システム、移動計画処理方法および移動計画処理プログラム
WO2013186989A1 (ja) * 2012-06-13 2013-12-19 日本電気株式会社 移動計画処理システム、移動計画処理方法および移動計画処理プログラム
WO2013186988A1 (ja) * 2012-06-13 2013-12-19 日本電気株式会社 移動体異常接近検知システムおよび移動体異常接近検知方法
JPWO2014156169A1 (ja) * 2013-03-29 2017-02-16 日本電気株式会社 管制支援システム、管制支援方法および管制支援プログラム
WO2014156169A1 (ja) * 2013-03-29 2014-10-02 日本電気株式会社 管制支援システム、管制支援方法および管制支援プログラム
US9520067B2 (en) 2013-03-29 2016-12-13 Nec Corporation Air traffic control assistance system, air traffic control assistance method, and storage medium
US10745004B2 (en) 2017-01-19 2020-08-18 Toyota Jidosha Kabushiki Kaisha Object recognizing device and collision avoidance system
US10877482B2 (en) 2017-04-06 2020-12-29 Toyota Jidosha Kabushiki Kaisha Trajectory setting device and trajectory setting method
US11204607B2 (en) 2017-04-06 2021-12-21 Toyota Jidosha Kabushiki Kaisha Trajectory setting device and trajectory setting method
US11662733B2 (en) 2017-04-06 2023-05-30 Toyota Jidosha Kabushiki Kaisha Trajectory setting device and trajectory setting method
US11932284B2 (en) 2017-04-06 2024-03-19 Toyota Jidosha Kabushiki Kaisha Trajectory setting device and trajectory setting method

Also Published As

Publication number Publication date
US20090024357A1 (en) 2009-01-22
EP1990786A1 (en) 2008-11-12
US10102750B2 (en) 2018-10-16
EP1990786B1 (en) 2021-05-19
US8805601B2 (en) 2014-08-12
EP1990786A4 (en) 2017-08-16
US20140303883A1 (en) 2014-10-09

Similar Documents

Publication Publication Date Title
WO2007102367A1 (ja) 物体進路予測方法、装置、プログラム、および自動運転システム
JP4353192B2 (ja) 進路設定方法、装置、プログラム、および自動運転システム
JP4211794B2 (ja) 干渉評価方法、装置、およびプログラム
JP4743275B2 (ja) 自車進路決定方法および自車進路決定装置
JP4807385B2 (ja) 干渉評価方法、装置、およびプログラム
US10960891B2 (en) Method, apparatus and program of predicting obstacle course
EP3361466B1 (en) Risk-based driver assistance for approaching intersections of limited visibility
JP4396653B2 (ja) 物体進路予測方法、装置、およびプログラム
JP4946739B2 (ja) 移動体進路取得方法、および、移動体進路取得装置
JP6917878B2 (ja) 移動体挙動予測装置
JP5082433B2 (ja) 移動体周囲危険度判定方法、装置、およびプログラム
JP4730137B2 (ja) 移動体安全性評価方法および移動体安全性評価装置
JP2015228204A (ja) 先進運転者支援システムによりリスクベースの交通シーン分析を行う方法、及び当該分析を行う当該システムを備える乗り物
JP2011227582A (ja) 車両用衝突予測装置
WO2023149003A1 (ja) 車両制御装置
EP4372715A1 (en) Vehicle collision threat assessment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 12224176

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2007715050

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200780007015.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE