WO2018003056A1 - 物体追跡方法及び物体追跡装置 - Google Patents

物体追跡方法及び物体追跡装置 Download PDF

Info

Publication number
WO2018003056A1
WO2018003056A1 PCT/JP2016/069420 JP2016069420W WO2018003056A1 WO 2018003056 A1 WO2018003056 A1 WO 2018003056A1 JP 2016069420 W JP2016069420 W JP 2016069420W WO 2018003056 A1 WO2018003056 A1 WO 2018003056A1
Authority
WO
WIPO (PCT)
Prior art keywords
object tracking
objects
concealment
unit
positional relationship
Prior art date
Application number
PCT/JP2016/069420
Other languages
English (en)
French (fr)
Inventor
芳 方
邦昭 野田
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to BR112018077393-0A priority Critical patent/BR112018077393A2/pt
Priority to KR1020197002533A priority patent/KR102091363B1/ko
Priority to CN201680087002.6A priority patent/CN109313804B/zh
Priority to US16/311,608 priority patent/US10482612B2/en
Priority to RU2019102418A priority patent/RU2699583C1/ru
Priority to MX2018015701A priority patent/MX2018015701A/es
Priority to PCT/JP2016/069420 priority patent/WO2018003056A1/ja
Priority to EP16907289.9A priority patent/EP3480788A4/en
Priority to CA3029395A priority patent/CA3029395A1/en
Priority to JP2018524655A priority patent/JP6677297B2/ja
Publication of WO2018003056A1 publication Critical patent/WO2018003056A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to an object tracking method and an object tracking apparatus.
  • Patent Document 1 determines whether or not an object has reappeared based on prediction information of a concealed object, and assigns the same identification number to the reappearing object.
  • Patent Document 1 causes a shift in the prediction information, and the object that reappears is erroneous. There is a risk of assigning an identification number.
  • the present invention has been made in view of the above problems, and its purpose is to give erroneous identification information before and after being concealed even when a plurality of objects enter the concealment area and disappear temporarily. It is an object of the present invention to provide an object tracking method and an object tracking apparatus that can prevent the above.
  • the positional relationship of the plurality of objects in the concealment region is estimated, and when the object comes out of the concealment region, the estimated position Based on the relationship, object identification information is determined.
  • the present invention even when a plurality of objects enter the concealment area and disappear temporarily, it is possible to prevent erroneous identification information from being added before and after the concealment.
  • FIG. 1 is a configuration diagram of an object tracking apparatus according to the first embodiment of the present invention.
  • FIG. 2A is a diagram for explaining an object tracking method according to the first embodiment of the present invention.
  • FIG. 2B is a diagram for explaining an object tracking method according to the first embodiment of the present invention.
  • FIG. 2C is a diagram for explaining an object tracking method according to the first embodiment of the present invention.
  • FIG. 3 is a diagram for explaining a concealment area according to the first embodiment of the present invention.
  • FIG. 4A is a diagram illustrating a method for determining object identification information according to the first embodiment of the present invention.
  • FIG. 4B is a diagram illustrating a method for determining object identification information according to the first embodiment of the present invention.
  • FIG. 4A is a diagram illustrating a method for determining object identification information according to the first embodiment of the present invention.
  • FIG. 4B is a diagram illustrating a method for determining object identification information according to the first embodiment of the present invention.
  • FIG. 4C is a diagram illustrating a method for determining object identification information according to the first embodiment of the present invention.
  • FIG. 4D is a diagram illustrating a method for determining object identification information according to the first embodiment of the present invention.
  • FIG. 5 is a diagram for explaining the tracker of the object that has come out of the concealment area according to the first embodiment of the present invention.
  • FIG. 6 is a flowchart for explaining an operation example of the object tracking apparatus according to the first embodiment of the present invention.
  • FIG. 7A is a diagram illustrating a method for determining object identification information according to the second embodiment of the present invention.
  • FIG. 7B is a diagram illustrating a method for determining object identification information according to the second embodiment of the present invention.
  • FIG. 7C is a diagram illustrating a method for determining object identification information according to the second embodiment of the present invention.
  • FIG. 7D is a diagram illustrating a method for determining object identification information according to the second embodiment of the present invention.
  • FIG. 8A is a diagram for explaining an object identification information determination method according to the second embodiment of the present invention.
  • FIG. 8B is a diagram illustrating a method for determining object identification information according to the second embodiment of the present invention.
  • FIG. 8C is a diagram illustrating a method for determining object identification information according to the second embodiment of the present invention.
  • FIG. 9 is a diagram for explaining a tracker of an object that has come out of the concealment area according to the second embodiment of the present invention.
  • FIG. 9 is a diagram for explaining a tracker of an object that has come out of the concealment area according to the second embodiment of the present invention.
  • FIG. 10 is a flowchart for explaining an operation example of the object tracking apparatus according to the second embodiment of the present invention.
  • FIG. 11A is a diagram illustrating a method for determining object identification information according to the third embodiment of the present invention.
  • FIG. 11B is a diagram for explaining an object identification information determination method according to the third embodiment of the present invention.
  • FIG. 11C is a diagram illustrating a method for determining object identification information according to the third embodiment of the present invention.
  • FIG. 12A is a diagram for explaining an object identification information determination method according to the third embodiment of the present invention.
  • FIG. 12B is a diagram illustrating a method for determining object identification information according to the third embodiment of the present invention.
  • FIG. 13 is a flowchart for explaining an operation example of the object tracking apparatus according to the third embodiment of the present invention.
  • the object tracking device 100 includes an object detection unit 10, a map information acquisition unit 20, and a controller 30.
  • the object detection unit 10 is a sensor that periodically detects an object around a moving body (vehicle), and is, for example, a laser range finder.
  • the laser range finder detects objects (pedestrians, bicycles, two-wheeled vehicles, other vehicles, etc.) existing around the host vehicle (for example, within 30 m) that is a moving body. More specifically, the laser range finder scans the laser light within a certain angle range, receives the reflected light at that time, and detects the time difference between the time of laser emission and the time of receiving the reflected light. Thereby, the laser range finder detects the relative distance and relative speed of the object with respect to the host vehicle, the moving direction of the object, and the like.
  • the object detection unit 10 outputs information on the detected object to the controller 30. Note that an infrared sensor, an ultrasonic sensor, a camera, or the like may be used as the object detection unit 10.
  • the object detection unit 10 outputs the detection result to the controller 30.
  • the map information acquisition unit 20 is a device that acquires map information, for example, a navigation device.
  • the map information is, for example, the number of road lanes, junction points, traffic rules, and the like.
  • the map information acquisition unit 20 outputs the acquired map information to the controller 30.
  • the map information acquisition part 20 may acquire map information from a storage medium, and may acquire map information from a server.
  • the controller 30 is a circuit that processes data acquired from the object detection unit 10 and the map information acquisition unit 20, and is configured by an IC, an LSI, or the like, for example. When the controller 30 grasps this functionally, the controller 30 can classify the object tracking unit 31, a concealment region calculation unit 32, a positional relationship estimation unit 33, a route calculation unit 34, and an identification number assigning unit 35. it can.
  • the object tracking unit 31 tracks the object by associating the parameter of the currently detected object with the parameter of the object detected in the past.
  • the parameters of the object are the position of the object, the speed of the object, the size of the object, the moving direction of the object, the color of the object, and the like. If the object tracking unit 31 cannot associate the parameters of the object, the object tracking unit 31 determines that the object has disappeared. Further, when the object disappears within the detection range of the sensor, the object tracking unit 31 determines that the object has entered the hidden area.
  • the hidden area calculation unit 32 calculates a hidden area.
  • the hidden area is an area where the object is hidden by an obstacle and the object detection unit 10 cannot detect the object. Details of the hidden area will be described later.
  • the positional relationship estimation unit 33 estimates the positional relationship of the plurality of concealed objects using the parameters of the plurality of objects before the disappearance. .
  • the route calculation unit 34 calculates lanes and routes that can change the course of the concealed object based on the map information acquired from the map information acquisition unit 20.
  • the identification number assigning unit 35 assigns an identification number to the object detected by the object detecting unit 10. Further, the identification number assigning unit 35 continuously assigns the same identification number to the object associated by the object tracking unit 31, and assigns a new identification number to the newly detected object. Further, the identification number assigning unit 35 assigns an identification number to the object that has come out of the concealment region based on the positional relationship of the plurality of objects acquired from the positional relationship estimation unit 33 and the route calculation unit 34, a route that can be changed, and the like. Give.
  • the object tracking unit 31 sets trackers T1 to T3 for the objects 11 to 13.
  • a tracker is information indicating the position and speed of an object.
  • the identification number assigning unit 35 assigns identification numbers ID1 to ID3 to the objects 11 to 13.
  • the tracker and the identification number are identification information for tracking an object.
  • the object tracking unit 31 predicts the positions of the objects 11 to 13 at the time t + 1 based on the position information and speed information of the objects 11 to 13.
  • the object tracking unit 31 changes the trackers T1 to T3 based on the predicted position.
  • the object tracking unit 31 matches the information of the objects 11 to 12 and 14 detected at the time t + 1 with the trackers T1 to T3 which are changed at the time t.
  • the object tracking unit 31 sets a new tracker T4 for the object 14 for which no corresponding tracker is found within a certain distance (for example, 6 m).
  • the object tracking unit 31 sets a flag from 0 to 1 for a tracker T3 in which a corresponding object does not exist within a certain distance and exists more than a certain number of times. And the object tracking part 31 continues prediction using the positional information and speed information which tracker T3 has.
  • a flag of 1 means a state in which no object exists within a certain distance of the tracker.
  • a flag of 0 means a state in which an object exists within a certain distance of the tracker.
  • the flags of the trackers T1 and T2 are 0.
  • the detection range of the object detection unit 10 is 160 ° in front of the host vehicle. This detection range is an example, and the detection range is widened by attaching the sensor to the side or rear of the vehicle.
  • the hidden area calculation unit 32 calculates the hidden area R. Specifically, when the object detection unit 10 detects the other vehicle M1 on the left front side of the own vehicle, the concealment area calculation unit 32 is a straight line extending from the own vehicle M0 toward the corners P1 and P2 of the other vehicle M1. Of the regions formed by the above, the region concealed by the other vehicle M1 is calculated as the concealment region R.
  • the corners P1, P2 of the other vehicle M1 are two points that are farthest from the host vehicle M0.
  • FIGS. 4A to 4D a method for determining identification information when a plurality of objects enter the concealment region R will be described with reference to FIGS. 4A to 4D and FIG.
  • the arrows in FIGS. 4A to 4D indicate the traveling direction of each vehicle.
  • the object tracking unit 31 sets trackers T1 to T3 for other vehicles M1 to M3 existing around the host vehicle M0.
  • the identification number assigning unit 35 assigns identification numbers ID1 to ID3 to the other vehicles M1 to M3.
  • the concealment area calculation unit 32 calculates the concealment area R concealed by the other vehicle M3.
  • illustration of the trackers T1 to T3 is omitted. Also, the illustration of the tracker is omitted in the subsequent drawings.
  • the route calculation unit 34 calculates a zone where the other vehicles M1 and M2 may come out of the concealment region R based on the map information.
  • zones where the other vehicles M1 and M2 may come out of the concealment region R are zones X and Y.
  • the positional relationship estimation unit 33 estimates the positional relationship between the other vehicles M1 and M2 in the concealment region R.
  • the positional relationship of the plurality of objects in the concealment region R includes not only the positional relationship in the concealment region R but also the order of coming out from the zone.
  • the positional relationship between the other vehicles M1 and M2 is that the other vehicle M2 exists in front of the other vehicle M1.
  • the positional relationship estimation unit 33 can estimate the positional relationship shown in FIG. 4B from the positional information of the other vehicles M1 and M2 at time t.
  • the positional relationship estimation unit 33 estimates the order in which the other vehicles M1 and M2 come out of the concealed region R into the zones X and Y.
  • the order of coming out from the concealment area R to the zone X is the order of the other vehicles M1 and M2. Further, the order of coming out from the concealment region R to the zone Y is the order of the other vehicles M2 and M1.
  • the positional relationship estimation part 33 produces the table shown in FIG. 5 using the estimated order.
  • the first zone Y indicates that the tracker T2 comes out first from the zone Y.
  • the second zone Y indicates that the tracker T1 comes out of the zone Y second after the first object coming out of the zone Y is detected.
  • the object detection unit 10 detects an object coming out of the concealment region R.
  • the object tracking unit 31 collates the table shown in FIG. The information of the tracker T2 is continued. Then, the object tracking unit 31 sets the flag of the tracker T2 to 0. Moreover, the identification number provision part 35 continues identification number ID2 with respect to the other vehicle M2.
  • the object tracking unit 31 collates the table shown in FIG.
  • the information of the tracker T1 is continued for M1, and the flag of the tracker T1 is set to 0.
  • the identification number provision part 35 continues identification number ID1 with respect to the other vehicle M1.
  • step S101 the object detection unit 10 detects objects around the host vehicle.
  • step S103 the object tracking unit 31 sets a tracker on the object and tracks the object.
  • the identification number assigning unit 35 assigns an identification number to the object.
  • step S105 the object tracking unit 31 determines whether or not a plurality of objects have disappeared. If a plurality of objects have disappeared (Yes in step S105), the process proceeds to step S107. On the other hand, when the plurality of objects have not disappeared (No in step S105), the process returns to step S103. Further, when the object tracking unit 31 determines that the plurality of objects have disappeared, the object tracking unit 31 sets the tracker flags of the plurality of objects to 1.
  • step S107 the hidden area calculation unit 32 calculates a hidden area.
  • step S109 the map information acquisition unit 20 acquires map information.
  • step S111 the route calculation unit 34 calculates a zone where an object may come out of the concealment area based on the map information.
  • step S113 the positional relationship estimation unit 33 estimates the positional relationship of a plurality of objects in the hidden area. In addition, the positional relationship estimation unit 33 estimates the order in which a plurality of objects come out of the concealment area into the zone based on the estimated positional relationship.
  • step S115 if the object detection unit 10 detects an object that has come out of the concealment area (Yes in step S115), the process proceeds to step S117. On the other hand, if no object is detected (No in step S115), the process waits.
  • step S117 the object tracking unit 31 collates the table generated by the positional relationship estimation unit 33.
  • step S119 the object tracking unit 31 continues the tracker information based on the collation result of the table.
  • step S121 the object tracking unit 31 sets the flag of the continued tracker to 0.
  • step S123 the identification number assigning unit 35 determines the identification number of the object.
  • step S125 the object tracking device 100 determines whether or not the ignition switch is off. If the ignition switch is on (No in step S125), the process returns to step S101. If the ignition switch is off (Yes in step S125), the object tracking device 100 ends a series of processes.
  • the object tracking device 100 estimates the positional relationship of the plurality of objects in the concealment area when a plurality of objects enter the concealment area, and based on the estimated positional relation when the object comes out of the concealment area, Determine the identification information. As a result, even when a plurality of objects enter the concealment region and disappear temporarily, the object tracking device 100 can prevent erroneous identification information from being added before and after being concealed, and improve the object tracking performance. Can do.
  • the object tracking device 100 can estimate the positional relationship of a plurality of objects in the concealment area, the object tracking device 100 continues the identification information before entering the concealment area when the object leaves the concealment area. As a result, even when a plurality of objects enter the concealment region and disappear temporarily, the object tracking device 100 can prevent erroneous identification information from being added before and after being concealed, and improve the object tracking performance. Can do.
  • the object tracking device 100 has the same configuration as that of the first embodiment.
  • the positional relationship between a plurality of objects is different.
  • the positional relationship estimation unit 33 can estimate the positional relationship of a plurality of objects in the concealment region has been described.
  • the positional relationship estimation part 33 demonstrates the case where the positional relationship of the several object in a concealment area cannot be estimated.
  • the object tracking unit 31 sets trackers T1 to T3 for other vehicles M1 to M3 existing around the host vehicle M0.
  • the identification number assigning unit 35 assigns identification numbers ID1 to ID3 to the other vehicles M1 to M3.
  • the route calculation unit 34 calculates zones X, Y, and Z as zones where the other vehicles M1 and M2 may come out of the concealment region R based on the map information.
  • the positional relationship estimation unit 33 estimates the positional relationship between the other vehicles M1 and M2 in the concealment region R.
  • the positional relationship estimation unit 33 estimates the order in which the other vehicles appearing in the zones X, Y, and Z from the concealment region R and the other vehicles M1 and M2 appear in the zone Z from the concealment region R. It is the other vehicle M1 that comes out from the concealment region R to the zone X. In addition, the other vehicle M2 comes out from the concealment region R to the zone Y.
  • the positional relationship estimation unit 33 cannot estimate the order of coming out of the concealment region R into the zone Z. The reason is that the other vehicle M1 or M2 may change the lane and come out from the concealment region R.
  • the positional relationship estimation unit 33 creates the table shown in FIG. 9 using the estimated positional relationship.
  • the object detection unit 10 detects an object coming out of the concealment region R.
  • the object tracking unit 31 collates the table shown in FIG.
  • the information on the tracker T1 is continued, and the flag of the tracker T1 is set to 0.
  • the identification number provision part 35 continues identification number ID1 with respect to the other vehicle M1.
  • the object tracking unit 31 checks the table shown in FIG. The information of the tracker T2 is continued for M2, and the flag of the tracker T2 is set to 0. Moreover, the identification number provision part 35 continues identification number ID2 with respect to the other vehicle M2.
  • the object tracking unit 31 determines that the object 11 It cannot be determined whether the vehicle is M1 or another vehicle M2. Therefore, the object tracking unit 31 collates the table shown in FIG. 9 and sets a new tracker T4 for the object 11. Further, the identification number giving unit 35 gives a new identification number ID4 to the object 11. At this time, the object tracking unit 31 holds the information on the trackers T1 and T2 without deleting them.
  • the object tracking unit 31 collates the table shown in FIG. 9 and sets a new tracker T5 for the object 12. Further, the identification number giving unit 35 gives a new identification number ID5 to the object 12. At this time, since the new identification number is assigned by the number of objects (two) that were in the concealment region R, the object tracking unit 31 determines that there is no object in the concealment region R and has retained the tracker. The information of T1 and T2 is deleted. That is, the object tracking unit 31 deletes the retained information when new identification numbers are assigned as many as the number of objects that have entered the concealment region R.
  • the object tracking unit 31 uses the table shown in FIG. By collating, it can be determined that the object 12 is the other vehicle M2. Thereby, the object tracking part 31 can judge that the object 11 is the other vehicle M1. Therefore, the object tracking unit 31 continues the information on the trackers T1 and T2 with respect to the other vehicles M1 and M2, and sets the flags of the trackers T1 and T2 to 0. Moreover, the identification number provision part 35 deletes identification number ID4 newly provided to the other vehicle M1 at the time t + 2, and gives identification number ID1 continuously. Moreover, the identification number provision part 35 continues identification number ID2 with respect to the other vehicle M2.
  • Step S201 to Step S217, Step S221 to Step S223, and Step S233 are the same as the operations of Step S101 to 117, Step S121 to Step S123, and Step S125 of FIG. Only the differences will be described.
  • step S219 the object tracking unit 31 determines whether or not to continue tracker information.
  • the process proceeds to step S221.
  • the process proceeds to step S225.
  • step S225 the identification number assigning unit 35 assigns a new identification number to the object that has come out of the concealment area.
  • step S227 when all the objects that have entered the concealment area R are detected (Yes in step S227), the process proceeds to step S229. On the other hand, when there is an object that is not detected among the objects that have entered the concealment region R (No in step S227), the process returns to step S225.
  • step S229 the object tracking unit 31 determines whether or not to continue tracker information again. Depending on the order of coming out of the hidden area, the object tracking unit 31 can continue the tracker information. If the object tracking unit 31 can continue the tracker information (Yes in step S229), the process proceeds to step S221. On the other hand, when the object tracking unit 31 cannot continue the tracker information (No in step S229), the process proceeds to step S231.
  • step S231 the object tracking unit 31 deletes the tracker information held.
  • the object tracking apparatus 100 When the object tracking apparatus 100 cannot estimate the positional relationship of a plurality of objects in the concealment area, the object tracking apparatus 100 gives new identification information to the object when the object exits the concealment area. Thereby, the object tracking device 100 can prevent erroneous identification information from being added before and after being concealed even when a plurality of objects enter the concealment area and disappear temporarily.
  • Patent Document 1 there is a possibility that it may be determined that the other vehicle M2 has come out from the concealed region R first, despite the other vehicle M1. In this case, it is determined that the host vehicle M0 can pass the other vehicle M3 and change the lane to the left lane. This is because it is determined that the other vehicle M2 has come out of the concealment region R.
  • the object tracking device 100 gives new identification information to the object 11 that comes out, and does not delete the information of the other vehicles M1 and M2. Thereby, the object tracking device 100 can take a reliable driving action.
  • the object tracking device 100 determines that an object exists in the concealment area until new identification information is given as many as the number of objects in the concealment area. Then, the object tracking device 100 deletes the old identification information when new identification information is given by the number of objects in the hidden area. As a result, even when a plurality of objects enter the concealment region and disappear temporarily, the object tracking device 100 can prevent erroneous identification information from being added before and after being concealed, and improve the object tracking performance. Can do.
  • the object tracking device 100 according to the third embodiment has the same configuration as that of the first embodiment.
  • the traveling scene is different.
  • a straight road without a branch has been described as a travel scene.
  • a road where a collision point exists will be described.
  • the collision point is a collision position on the locus of the other vehicles M1 and M2.
  • the object tracking unit 31 sets trackers T1 to T3 for other vehicles M1 to M3 existing around the host vehicle M0.
  • the identification number assigning unit 35 assigns identification numbers ID1 to ID3 to the other vehicles M1 to M3.
  • the route calculation unit 34 calculates a collision point P where the other vehicle M1 and the other vehicle M2 may collide based on the map information.
  • the positional relationship estimation unit 33 estimates the time T until the other vehicles M1 and M2 reach the collision point P. This time T is expressed by equation (1).
  • the positional relationship between the plurality of objects includes not only the positional relationship within the concealment region R but also the time until the plurality of objects reach the collision point.
  • the object tracking unit 31 uses the time T to determine whether or not to continue the tracker. Assuming that the time until the other vehicle M1 reaches the collision point P is time TM1, and the time until the other vehicle M2 reaches the collision point P is time TM2, the time difference until the other vehicle M2 reaches the collision point P is time TM2. -Time TM1. The object tracking unit 31 determines whether this time difference is equal to or longer than a predetermined time (for example, 2 seconds). When the time difference is equal to or longer than the predetermined time, the object tracking unit 31 determines that the other vehicle M2 in the priority lane reaches the collision point P first. That is, as illustrated in FIG.
  • the object tracking unit 31 determines that the object that has come out of the concealment region R is the other vehicle M2.
  • the object tracking unit 31 continues the tracker T2 information for the other vehicle M2, and sets the tracker T2 flag to 0.
  • the identification number provision part 35 continues identification number ID2 with respect to the other vehicle M2.
  • the object tracking unit 31 determines whether the object 11 is the other vehicle M1. It cannot be determined whether the vehicle M2. The reason is that the object tracking unit 31 cannot determine which vehicle has given way. Therefore, the object tracking unit 31 sets a new tracker T4 for the object 11. Further, the identification number giving unit 35 gives a new identification number ID4 to the object 11. At this time, the object tracking unit 31 holds the information on the trackers T1 and T2 without deleting them.
  • the object tracking unit 31 determines that the object 12 is the other vehicle M1. Or other vehicle M2. Therefore, the object tracking unit 31 sets a new tracker T5 for the object 12. Further, the identification number giving unit 35 gives a new identification number ID5 to the object 12. At this time, since the new identification number is assigned by the number of objects (two) that were in the concealment region R, the object tracking unit 31 determines that there is no object in the concealment region R and has retained the tracker. The information of T1 and T2 is deleted.
  • step S311 the positional relationship estimation unit 33 estimates the time until a plurality of objects reach the collision point.
  • step S313 the object tracking unit 31 determines whether a time difference until a plurality of objects reach the collision point is equal to or longer than a predetermined time. If the time difference is equal to or greater than the predetermined time (Yes in step S313), the process proceeds to step S321. On the other hand, when the time difference is less than the predetermined time (No in step S313), the process proceeds to step S315.
  • step S315 the identification number assigning unit 35 assigns a new identification number to the object that has come out of the concealment area.
  • step S317 when all the objects that have entered the concealment region R are detected (Yes in step S317), the process proceeds to step S319. On the other hand, when there is an object that is not detected among the objects entering the concealment region R (No in step S317), the process returns to step S315.
  • step S319 the object tracking unit 31 deletes the tracker information held.
  • the object tracking device 100 estimates the time difference to the collision point, and when the time difference is smaller than the predetermined time, the object tracking device 100 gives new identification information to the object when the object leaves the concealment region. Thereby, the object tracking device 100 can prevent erroneous identification information from being added before and after being concealed even when a plurality of objects enter the concealment area and disappear temporarily. Further, in the example shown in FIG. 12A, in Patent Document 1, there is a possibility that it may be determined that the other vehicle M2 has come out despite the other vehicle M1 coming out of the concealment region R first. In this case, it is determined that the host vehicle M0 can pass the other vehicle M3 and change the lane to the left lane.
  • the object tracking device 100 gives new identification information to the object 11 that comes out, and does not delete the information of the other vehicles M1 and M2. Thereby, the object tracking device 100 can take a reliable driving action.
  • the processing circuit includes a programmed processing device such as a processing device including an electrical circuit.
  • the processing circuitry also includes devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.
  • ASICs application specific integrated circuits
  • the present invention can be applied to an automatically driven vehicle that automatically travels along a travel route.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

物体検出部(10)によって検出された複数の物体が、隠蔽領域算出部(32)によって算出された隠蔽領域に入った場合、位置関係推定部(33)は、複数の物体の情報や、ルート算出部(34)によって算出された物体が進路変更可能な車線や経路に基づいて隠蔽領域内での複数の物体の位置関係を推定する。隠蔽領域から物体が出てきたとき、識別番号付与部(35)は、位置関係推定部(33)によって推定された位置関係に基づいて、物体の識別情報を決定する。

Description

物体追跡方法及び物体追跡装置
 本発明は、物体追跡方法及び物体追跡装置に関する。
 従来より、物体が他の物体と重なって隠蔽された場合の追跡方法が知られている(特許文献1)。特許文献1は、隠蔽された物体の予測情報に基づいて物体が再出現したか否かを判断し、再出現した物体に同じ識別番号を付与する。
特開2007-334631号公報
 しかしながら、複数の物体が同時に隠蔽され、かつ隠蔽されている間に複数の物体の状態が変化した場合、特許文献1の技術では、予測情報にズレが生じてしまい、再出現した物体に誤った識別番号を付与するおそれがある。
 本発明は、上記問題に鑑みて成されたものであり、その目的は、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報が付与されることを防止できる物体追跡方法及び物体追跡装置を提供することにある。
 本発明の一態様に係る物体追跡方法は、複数の物体が隠蔽領域に入った場合、隠蔽領域での複数の物体の位置関係を推定し、隠蔽領域から物体が出てきたとき、推定した位置関係に基づいて、物体の識別情報を決定する。
 本発明によれば、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報を付与することを防止できる。
図1は、本発明の第1実施形態に係る物体追跡装置の構成図である。 図2Aは、本発明の第1実施形態に係る物体の追跡方法を説明する図である。 図2Bは、本発明の第1実施形態に係る物体の追跡方法を説明する図である。 図2Cは、本発明の第1実施形態に係る物体の追跡方法を説明する図である。 図3は、本発明の第1実施形態に係る隠蔽領域を説明する図である。 図4Aは、本発明の第1実施形態に係る物体の識別情報の決定方法について説明する図である。 図4Bは、本発明の第1実施形態に係る物体の識別情報の決定方法について説明する図である。 図4Cは、本発明の第1実施形態に係る物体の識別情報の決定方法について説明する図である。 図4Dは、本発明の第1実施形態に係る物体の識別情報の決定方法について説明する図である。 図5は、本発明の第1実施形態に係る隠蔽領域から出てきた物体のトラッカーを説明する図である。 図6は、本発明の第1実施形態に係る物体追跡装置の一動作例を説明するフローチャートである。 図7Aは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図7Bは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図7Cは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図7Dは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図8Aは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図8Bは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図8Cは、本発明の第2実施形態に係る物体の識別情報の決定方法について説明する図である。 図9は、本発明の第2実施形態に係る隠蔽領域から出てきた物体のトラッカーを説明する図である。 図10は、本発明の第2実施形態に係る物体追跡装置の一動作例を説明するフローチャートである。 図11Aは、本発明の第3実施形態に係る物体の識別情報の決定方法について説明する図である。 図11Bは、本発明の第3実施形態に係る物体の識別情報の決定方法について説明する図である。 図11Cは、本発明の第3実施形態に係る物体の識別情報の決定方法について説明する図である。 図12Aは、本発明の第3実施形態に係る物体の識別情報の決定方法について説明する図である。 図12Bは、本発明の第3実施形態に係る物体の識別情報の決定方法について説明する図である。 図13は、本発明の第3実施形態に係る物体追跡装置の一動作例を説明するフローチャートである。
 以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。
[第1実施形態]
 図1を参照して、第1実施形態に係る物体追跡装置100について説明する。図1に示すように、物体追跡装置100は、物体検出部10と、地図情報取得部20と、コントローラ30とを備える。
 物体検出部10は、周期的に移動体(車両)の周囲の物体を検出するセンサであって、例えばレーザレンジファインダーである。レーザレンジファインダーは、移動体である自車両の周囲(例えば30m以内)に存在する物体(歩行者、自転車、二輪車、他車両など)を検出する。より詳しくは、レーザレンジファインダーは、レーザ光をある角度範囲内で走査し、その時の反射光を受光して、レーザ発射時点と反射光の受光時点との時間差を検出する。これにより、レーザレンジファインダーは、自車両に対する物体の相対距離や相対速度、物体の移動方向などを検出する。物体検出部10は、検出した物体の情報をコントローラ30に出力する。なお、物体検出部10として、赤外線センサや超音波センサ、カメラなどを用いてもよい。物体検出部10は、検出結果をコントローラ30に出力する。
 地図情報取得部20は、地図情報を取得する装置であり、例えばナビゲーション装置である。地図情報とは、例えば道路の車線数、合流地点、交通ルールなどである。地図情報取得部20は、取得した地図情報をコントローラ30に出力する。なお、地図情報取得部20は、記憶媒体から地図情報を取得してもよいし、サーバから地図情報を取得してもよい。
 コントローラ30は、物体検出部10と地図情報取得部20から取得したデータを処理する回路であり、例えばIC、LSI等により構成される。コントローラ30は、これを機能的に捉えた場合、物体追跡部31と、隠蔽領域算出部32と、位置関係推定部33と、ルート算出部34と、識別番号付与部35とに分類することができる。
 物体追跡部31は、現在検出された物体のパラメータと、過去に検出された物体のパラメータとを対応付けして、物体を追跡する。物体のパラメータは、物体の位置、物体の速度、物体の大きさ、物体の移動方向、物体の色などである。物体追跡部31は、物体のパラメータの対応付けができない場合、その物体は消滅したと判断する。また、物体追跡部31は、センサの検出範囲内で物体が消滅した場合、その物体は隠蔽領域に入ったと判断する。
 隠蔽領域算出部32は、隠蔽領域を算出する。隠蔽領域とは、障害物によって物体が隠蔽されてしまい、物体検出部10がその物体を検出できない領域である。隠蔽領域の詳細については後述する。
 位置関係推定部33は、物体追跡部31によって複数の物体が消滅したと判断された場合、消滅する前における複数の物体のパラメータを用いて、隠蔽されている複数の物体の位置関係を推定する。
 ルート算出部34は、地図情報取得部20から取得した地図情報に基づいて、隠蔽されている物体が進路変更可能な車線や経路を算出する。
 識別番号付与部35は、物体検出部10によって検出された物体に識別番号を付与する。また、識別番号付与部35は、物体追跡部31によって対応付けされた物体には継続して同じ識別番号を付与し、新たに検出された物体には新しい識別番号を付与する。また、識別番号付与部35は、位置関係推定部33及びルート算出部34から取得した複数の物体の位置関係や進路変更可能な経路などに基づいて、隠蔽領域から出てきた物体に識別番号を付与する。
 次に、図2A~2Cを参照して、物体の追跡方法や物体が消滅した場合の処理を説明する。図2Aに示すように、時刻tにおいて物体検出部10が物体11~13を検出した場合、物体追跡部31は物体11~13にトラッカーT1~T3を設定する。トラッカーとは、物体の位置や速度を示す情報である。また、識別番号付与部35は物体11~13に識別番号ID1~ID3を付与する。なお、第1実施形態において、トラッカー及び識別番号は、物体を追跡するための識別情報である。
 続いて、図2Bに示すように、物体追跡部31は、物体11~13の位置情報や速度情報に基づいて、時刻t+1における物体11~13の位置を予測する。次に、図2Cに示すように、物体追跡部31は、予測した位置に基づいてトラッカーT1~T3を遷移させる。そして、物体追跡部31は、時刻t+1で検出した物体11~12、14の情報と、時刻tで遷移させたトラッカーT1~T3をマッチングする。物体追跡部31は、一定距離(例えば6m)以内に対応するトラッカーが見つからない物体14に対して、新たなトラッカーT4を設定する。また、物体追跡部31は、一定距離内に対応する物体が存在せず、一定回数以上存在しているトラッカーT3に対し、フラグを0から1に設定する。そして、物体追跡部31は、トラッカーT3が有する位置情報や速度情報を用いて予測を続ける。第1実施形態において、トラッカーに設定されるフラグには0と1の2種類がある。フラグが1とは、そのトラッカーの一定距離内に物体が存在しない状態をいう。また、フラグが0とは、そのトラッカーの一定距離内に物体が存在する状態をいう。図2Cに示す例において、トラッカーT1及びT2のフラグは0である。
 次に、図3を参照して、隠蔽領域について説明する。図3に示すように、第1実施形態において、物体検出部10の検出範囲は、自車両の前方の160°である。なお、この検出範囲は一例であり、センサを車両側方や後方に取り付けることにより検出範囲は広がる。図3に示す検出範囲において、隠蔽領域算出部32は、隠蔽領域Rを算出する。具体的には、物体検出部10が自車両の左前方に他車両M1を検出した場合、隠蔽領域算出部32は、自車両M0から他車両M1の角部P1,P2に向けて伸ばした直線によって形成された領域のうち、他車両M1によって隠蔽された領域を隠蔽領域Rとして算出する。なお、他車両M1の角部P1,P2は、自車両M0から一番離れている2点である。
 次に、図4A~4D、図5を参照して、複数の物体が隠蔽領域Rに入った場合における識別情報の決定方法について説明する。図4A~4Dの矢印は、各車両の進行方向を示す。
 図4Aに示すように、時刻tにおいて、物体追跡部31は、自車両M0の周囲に存在する他車両M1~M3に対し、トラッカーT1~T3を設定する。また、識別番号付与部35は、他車両M1~M3に対し識別番号ID1~ID3を付与する。また、隠蔽領域算出部32は、他車両M3によって隠蔽された隠蔽領域Rを算出する。なお、図4AではトラッカーT1~T3の図示は省略する。また、以後の図面においてもトラッカーの図示は省略する。
 次に、図4Bに示すように、時刻t+1において、他車両M1及びM2が隠蔽領域Rに入り、物体追跡部31が他車両M1及びM2を追跡できなくなった場合、物体追跡部31は、他車両M1及びM2に設定したトラッカーT1及びT2に対し、フラグを1に設定する。次に、ルート算出部34は、地図情報に基づいて他車両M1及びM2が隠蔽領域Rから出てくる可能性のあるゾーンを算出する。図4Bに示す例では、他車両M1とM2が隠蔽領域Rから出てくる可能性のあるゾーンは、ゾーンX,Yである。
 次に、位置関係推定部33は、隠蔽領域R内での他車両M1及びM2の位置関係を推定する。第1実施形態において、隠蔽領域R内の複数の物体の位置関係とは、隠蔽領域R内の位置の関係だけでなく、ゾーンから出てくる順番も含む。図4Bに示す例では、他車両M1及びM2の位置関係は、他車両M1の前方に他車両M2が存在している。位置関係推定部33は、時刻tにおける他車両M1及びM2の位置情報から、図4Bに示す位置関係を推定できる。次に、位置関係推定部33は、他車両M1及びM2が隠蔽領域RからゾーンX,Yに出てくる順番を推定する。隠蔽領域RからゾーンXに出てくる順番は、他車両M1、M2の順である。また、隠蔽領域RからゾーンYに出てくる順番は、他車両M2、M1の順である。位置関係推定部33は、推定した順番を用いて図5に示すテーブルを作成する。図5に示すテーブルにおいて、1番目ゾーンYとは、1番目にゾーンYから出てくるのはトラッカーT2であることを示す。また、2番目ゾーンY(1番目ゾーンY)とは、1番目にゾーンYから出てきた物体を検出した後に2番目にゾーンYから出てくるのはトラッカーT1であることを示す。
 次に、物体検出部10は、隠蔽領域Rから出てくる物体を検出する。図4Cに示すように、時刻t+2において、他車両M2が1番目に隠蔽領域RからゾーンYに出てきた場合、物体追跡部31は、図5に示すテーブルを照合し、他車両M2に対しトラッカーT2の情報を継続する。そして物体追跡部31は、トラッカーT2のフラグを0に設定する。また、識別番号付与部35は、他車両M2に対し識別番号ID2を継続する。
 次に、図4Dに示すように、時刻t+3において、他車両M1が2番目に隠蔽領域RからゾーンYに出てきた場合、物体追跡部31は、図5に示すテーブルを照合し、他車両M1に対しトラッカーT1の情報を継続し、トラッカーT1のフラグを0に設定する。また、識別番号付与部35は、他車両M1に対し識別番号ID1を継続する。
 次に、図6に示すフローチャートを参照して、第1実施形態に係る物体追跡装置100の一動作例について説明する。このフローチャートは、イグニッションスイッチがオンされたときに開始する。
 ステップS101において、物体検出部10は、自車両の周囲の物体を検出する。
 ステップS103において、物体追跡部31は、物体にトラッカーを設定し、物体を追跡する。また、識別番号付与部35は物体に識別番号を付与する。
 ステップS105において、物体追跡部31は、複数の物体が消滅したか否かを判断する。複数の物体が消滅した場合(ステップS105でYes)、処理がステップS107に進む。一方、複数の物体が消滅していない場合(ステップS105でNo)、処理がステップS103に戻る。また、物体追跡部31は、複数の物体が消滅したと判断した場合、複数の物体のトラッカーのフラグを1に設定する。
 ステップS107において、隠蔽領域算出部32は、隠蔽領域を算出する。
 ステップS109において、地図情報取得部20は、地図情報を取得する。
 ステップS111において、ルート算出部34は、地図情報に基づいて物体が隠蔽領域から出てくる可能性のあるゾーンを算出する。
 ステップS113において、位置関係推定部33は、隠蔽領域内における複数の物体の位置関係を推定する。また、位置関係推定部33は、推定した位置関係に基づいて、複数の物体が隠蔽領域からゾーンに出てくる順番を推定する。
 ステップS115において、物体検出部10によって隠蔽領域から出てきた物体が検出された場合(ステップS115でYes)、処理がステップS117に進む。一方、物体が検出されない場合(ステップS115でNo)、処理は待機する。
 ステップS117において、物体追跡部31は、位置関係推定部33が生成したテーブルを照合する。
 ステップS119において、物体追跡部31は、テーブルの照合結果に基づいてトラッカーの情報を継続する。
 ステップS121において、物体追跡部31は、継続したトラッカーのフラグを0に設定する。
 ステップS123において、識別番号付与部35は、物体の識別番号を決定する。
 ステップS125において、物体追跡装置100は、イグニッションスイッチがオフか否かを判定する。イグニッションスイッチがオンの場合(ステップS125でNo)、ステップS101に処理が戻る。イグニッションスイッチがオフの場合(ステップS125でYes)、物体追跡装置100は、一連の処理を終了する。
 以上説明したように、第1実施形態に係る物体追跡装置100によれば、以下の作用効果が得られる。
 物体追跡装置100は、複数の物体が隠蔽領域に入った場合、隠蔽領域内での複数の物体の位置関係を推定し、隠蔽領域から物体が出たとき、推定した位置関係に基づいて、物体の識別情報を決定する。これにより、物体追跡装置100は、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報を付与することを防止でき、物体追跡の性能向上を図ることができる。
 また、物体追跡装置100は、隠蔽領域内での複数の物体の位置関係を推定できる場合、隠蔽領域に入る前の識別情報を、物体が隠蔽領域から出たときに継続する。これにより、物体追跡装置100は、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報を付与することを防止でき、物体追跡の性能向上を図ることができる。
[第2実施形態]
 次に、本発明の第2実施形態について説明する。第2実施形態に係る物体追跡装置100は、第1実施形態と構成は同一である。第2実施形態では、複数の物体の位置関係が相違する。第1実施形態では、位置関係推定部33が隠蔽領域内の複数の物体の位置関係を推定できる場合を説明した。一方、第2実施形態では、位置関係推定部33が隠蔽領域内の複数の物体の位置関係を推定できない場合を説明する。
 図7Aに示すように、時刻tにおいて、物体追跡部31は、自車両M0の周囲に存在する他車両M1~M3に対し、トラッカーT1~T3を設定する。また、識別番号付与部35は、他車両M1~M3に対し識別番号ID1~ID3を付与する。
 次に、図7Bに示すように、時刻t+1において、他車両M1及びM2が隠蔽領域Rに入り、物体追跡部31が他車両M1及びM2を追跡できなくなった場合、物体追跡部31は、他車両M1及びM2に設定したトラッカーT1及びT2に対し、フラグを1に設定する。次に、ルート算出部34は、地図情報に基づいて他車両M1及びM2が隠蔽領域Rから出てくる可能性のあるゾーンとして、ゾーンX,Y,Zを算出する。
 次に、位置関係推定部33は、隠蔽領域R内での他車両M1及びM2の位置関係を推定する。位置関係推定部33は、隠蔽領域RからゾーンX,Y,Zに出てくる他車両や、他車両M1及びM2が隠蔽領域RからゾーンZに出てくる順番を推定する。隠蔽領域RからゾーンXに出てくるのは、他車両M1である。また、隠蔽領域RからゾーンYに出てくるのは、他車両M2である。ここで図7Bに示す例では、位置関係推定部33は、隠蔽領域RからゾーンZに出てくる順番を推定できない。その理由は、他車両M1またはM2が車線変更して隠蔽領域Rから出てくる可能性があるからである。位置関係推定部33は、推定した位置関係を用いて図9に示すテーブルを作成する。
 次に、物体検出部10は、隠蔽領域Rから出てくる物体を検出する。図7Cに示すように、時刻t+2において、他車両M1が1番目に隠蔽領域RからゾーンXに出てきた場合、物体追跡部31は、図9に示すテーブルを照合し、他車両M1に対しトラッカーT1の情報を継続し、トラッカーT1のフラグを0に設定する。また、識別番号付与部35は、他車両M1に対し識別番号ID1を継続する。
 次に、図7Dに示すように、時刻t+3において、他車両M2が2番目に隠蔽領域RからゾーンZに出てきた場合、物体追跡部31は、図9に示すテーブルを照合し、他車両M2に対しトラッカーT2の情報を継続し、トラッカーT2のフラグを0に設定する。また、識別番号付与部35は、他車両M2に対し識別番号ID2を継続する。
 一方、図8Aに示すように、時刻t+2において、物体検出部10が1番目に隠蔽領域RからゾーンZに出てきた物体11を検出した場合、物体追跡部31は、この物体11が他車両M1なのか他車両M2なのか判断できない。そこで、物体追跡部31は、図9に示すテーブルを照合し、物体11に対し新たなトラッカーT4を設定する。また、識別番号付与部35は、物体11に対し新たな識別番号ID4を付与する。このとき、物体追跡部31は、トラッカーT1及びT2の情報を削除せずに保持する。
 次に、図8Bに示すように、時刻t+3において、物体検出部10が2番目に隠蔽領域RからゾーンZに出てきた物体12を検出した場合、物体追跡部31は、この物体12が他車両M1なのか他車両M2なのか判断できない。そこで、物体追跡部31は、図9に示すテーブルを照合し、物体12に対し新たなトラッカーT5を設定する。また、識別番号付与部35は、物体12に対し新たな識別番号ID5を付与する。このとき、新しい識別番号が隠蔽領域R内にいた物体の数(2つ)だけ付与されたため、物体追跡部31は、隠蔽領域R内には物体が存在しないと判断し、保持していたトラッカーT1及びT2の情報を削除する。つまり、物体追跡部31は、隠蔽領域R内に入った物体の数だけ新しい識別番号が付与された場合、保持情報を削除する。
 一方、図8Cに示すように、時刻t+3において、物体検出部10が2番目に隠蔽領域RからゾーンYに出てきた物体12を検出した場合、物体追跡部31は、図9に示すテーブルを照合することにより、物体12が他車両M2であると判断できる。これにより、物体追跡部31は、物体11は他車両M1であると判断できる。よって、物体追跡部31は、他車両M1及びM2に対しトラッカーT1及びT2の情報を継続し、トラッカーT1及びT2のフラグを0に設定する。また、識別番号付与部35は、時刻t+2において、他車両M1に新たに付与した識別番号ID4を削除し、識別番号ID1を継続して付与する。また、識別番号付与部35は、他車両M2に対し識別番号ID2を継続する。
 次に、図10に示すフローチャートを参照して、第2実施形態に係る物体追跡装置100の一動作例について説明する。このフローチャートは、イグニッションスイッチがオンされたときに開始する。ただし、ステップS201~ステップS217,ステップS221~ステップS223,ステップS233の動作はそれぞれ、図6のステップS101~117,ステップS121~ステップS123,ステップS125の動作と同じであるため詳細な説明を省略し、相違点のみ説明する。
 ステップS219において、物体追跡部31は、トラッカーの情報を継続するか否かを判断する。物体追跡部31がトラッカーの情報を継続できる場合(ステップS219でYes)、処理がステップS221に進む。一方、物体追跡部31がトラッカーの情報を継続できない場合(ステップS219でNo)、処理がステップS225に進む。
 ステップS225において、識別番号付与部35は、隠蔽領域から出てきた物体に対し、新しい識別番号を付与する。
 ステップS227において、隠蔽領域Rに入ったすべての物体が検出された場合(ステップS227でYes)、処理がステップS229に進む。一方、隠蔽領域Rに入った物体のうち、検出されない物体が存在する場合(ステップS227でNo)、処理はステップS225に戻る。
 ステップS229において、物体追跡部31は、再度トラッカーの情報を継続するか否かを判断する。隠蔽領域から出てくる順番によっては、物体追跡部31は、トラッカーの情報を継続できる。物体追跡部31がトラッカーの情報を継続できる場合(ステップS229でYes)、処理がステップS221に進む。一方、物体追跡部31がトラッカーの情報を継続できない場合(ステップS229でNo)、処理がステップS231に進む。
 ステップS231において、物体追跡部31は、保持していたトラッカーの情報を削除する。
 以上説明したように、第2実施形態に係る物体追跡装置100によれば、以下の作用効果が得られる。
 物体追跡装置100は、隠蔽領域内での複数の物体の位置関係を推定できない場合、物体が隠蔽領域を出たときに新しい識別情報を物体に付与する。これにより、物体追跡装置100は、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報を付与することを防止できる。また、図8Aに示す例において、特許文献1では、1番目に隠蔽領域Rから出てきたのが他車両M1にもかかわらず、他車両M2が出てきたと判断するおそれがある。この場合、自車両M0は、他車両M3を追い越して左側車線に車線変更できると判断する。他車両M2は隠蔽領域Rから出たと判断しているからである。しかし、実際には他車両M2は隠蔽領域R内にいて、他車両M2が右側車線に車線変更しようとすると、自車両M0の進路と交錯するおそれがある。一方、第2実施形態に係る物体追跡装置100は、出てきた物体11に対し、新しい識別情報を付与し、他車両M1及びM2の情報は削除しない。これにより、物体追跡装置100は、確実な運転行動をとることができる。
 また、物体追跡装置100は、隠蔽領域内にいた物体の数だけ新しい識別情報を付与するまで隠蔽領域内に物体が存在すると判定する。そして、物体追跡装置100は、隠蔽領域内にいた物体の数だけ新しい識別情報を付与すると、古い識別情報を削除する。これにより、物体追跡装置100は、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報を付与することを防止でき、物体追跡の性能向上を図ることができる。
[第3実施形態]
 次に、本発明の第3実施形態について説明する。第3実施形態に係る物体追跡装置100は、第1実施形態と構成は同一である。第3実施形態では、走行シーンが相違する。第1実施形態では走行シーンとして分岐がない直線道路を説明したが、第3実施形態では衝突ポイントが存在する道路について説明する。
 図11A~11Cを参照して、合流地点のように衝突ポイントがある道路での物体追跡を説明する。なお、第3実施形態において、衝突ポイントとは、他車両M1及びM2の軌跡の衝突位置である。
 図11Aに示すように、時刻tにおいて、物体追跡部31は、自車両M0の周囲に存在する他車両M1~M3に対し、トラッカーT1~T3を設定する。また、識別番号付与部35は、他車両M1~M3に対し識別番号ID1~ID3を付与する。
 次に、図11Bに示すように、時刻t+1において、他車両M1及びM2が隠蔽領域Rに入り、物体追跡部31が他車両M1及びM2を追跡できなくなった場合、物体追跡部31は、他車両M1及びM2に設定したトラッカーT1及びT2に対し、フラグを1に設定する。次に、ルート算出部34は、地図情報に基づいて他車両M1と他車両M2とが衝突する可能性のある衝突ポイントPを算出する。次に、位置関係推定部33は、他車両M1及びM2が衝突ポイントPに到達するまでの時間Tを推定する。この時間Tは、(1)式で表される。
 T=L/V・・・(1)
 ここで、Lは衝突ポイントPまでの距離であり、Vは隠蔽領域Rに入る前の物体の速度である。なお、第3実施形態において複数の物体の位置関係は、隠蔽領域R内の位置の関係だけでなく、複数の物体が衝突ポイントに到達するまでの時間も含む。
 物体追跡部31は、時間Tを用いてトラッカーを継続するか否かを判断する。他車両M1が衝突ポイントPに到達するまでの時間を時間TM1とし、他車両M2が衝突ポイントPに到達するまでの時間を時間TM2とすると、衝突ポイントPに到達するまでの時間差は、時間TM2-時間TM1となる。物体追跡部31は、この時間差が所定時間(例えば2秒)以上か否かを判断する。時間差が所定時間以上の場合、物体追跡部31は、優先車線にいる他車両M2が先に衝突ポイントPへ到達すると判断する。すなわち、図11Cに示すように、時刻t+2において、物体追跡部31は、隠蔽領域Rから出てきた物体は、他車両M2と判断する。物体追跡部31は、他車両M2に対しトラッカーT2の情報を継続し、トラッカーT2のフラグを0に設定する。また、識別番号付与部35は、他車両M2に対し識別番号ID2を継続する。
 一方、時間差が所定時間より小さい場合、図12Aに示すように、1番目に隠蔽領域Rから出てきた物体11が検出されたとき、物体追跡部31は、物体11が他車両M1なのか他車両M2なのか判断できない。その理由は、物体追跡部31は、どちらの車両が道を譲ったのか判断できないからである。そこで、物体追跡部31は、物体11に対し新たなトラッカーT4を設定する。また、識別番号付与部35は、物体11に対し新たな識別番号ID4を付与する。このとき、物体追跡部31は、トラッカーT1及びT2の情報を削除せずに保持する。
 次に、図12Bに示すように、時刻t+3において、物体検出部10が2番目に隠蔽領域Rから出てきた物体12を検出した場合、物体追跡部31は、この物体12が他車両M1なのか他車両M2なのか判断できない。そこで、物体追跡部31は、物体12に対し新たなトラッカーT5を設定する。また、識別番号付与部35は、物体12に対し新たな識別番号ID5を付与する。このとき、新しい識別番号が隠蔽領域R内にいた物体の数(2つ)だけ付与されたため、物体追跡部31は、隠蔽領域R内には物体が存在しないと判断し、保持していたトラッカーT1及びT2の情報を削除する。
 次に、図13に示すフローチャートを参照して、第3実施形態に係る物体追跡装置100の一動作例について説明する。このフローチャートは、イグニッションスイッチがオンされたときに開始する。ただし、ステップS301~ステップS309,ステップS321~ステップS327の動作はそれぞれ、図6のステップS101~109,ステップS119~ステップS125の動作と同じであるため詳細な説明を省略し、相違点のみ説明する。
 ステップS311において、位置関係推定部33は、複数の物体が衝突ポイントに到達するまでの時間を推定する。
 ステップS313において、物体追跡部31は、複数の物体が衝突ポイントに到達するまでの時間差が所定時間以上か否かを判断する。時間差が所定時間以上の場合(ステップS313でYes)、処理がステップS321に進む。一方、時間差が所定時間未満の場合(ステップS313でNo)、処理がステップS315に進む。
 ステップS315において、識別番号付与部35は、隠蔽領域から出てきた物体に対し、新しい識別番号を付与する。
 ステップS317において、隠蔽領域Rに入ったすべての物体が検出された場合(ステップS317でYes)、処理がステップS319に進む。一方、隠蔽領域Rに入った物体のうち、検出されない物体が存在する場合(ステップS317でNo)、処理はステップS315に戻る。
 ステップS319において、物体追跡部31は、保持していたトラッカーの情報を削除する。
 以上説明したように、第3実施形態に係る物体追跡装置100によれば、以下の作用効果が得られる。
 物体追跡装置100は、衝突ポイントまでの時間差を推定し、時間差が所定時間より小さい場合、物体が隠蔽領域を出たときに新しい識別情報を物体に付与する。これにより、物体追跡装置100は、複数の物体が隠蔽領域に入り一時的に消滅した場合でも、隠蔽される前後において誤った識別情報を付与することを防止できる。また、図12Aに示す例において、特許文献1では、1番目に隠蔽領域Rから出てきたのが他車両M1にもかかわらず、他車両M2が出てきたと判断するおそれがある。この場合、自車両M0は、他車両M3を追い越して左側車線に車線変更できると判断する。他車両M2は隠蔽領域Rから出たと判断しているからである。しかし、実際には他車両M2は隠蔽領域Rにいて、他車両M2が右側車線に車線変更しようとすると、自車両M0の進路と交錯するおそれがある。一方、第3実施形態に係る物体追跡装置100は、出てきた物体11に対し、新しい識別情報を付与し、他車両M1及びM2の情報は削除しない。これにより、物体追跡装置100は、確実な運転行動をとることができる。
 上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 なお、上述の実施形態の各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。
 また、本発明は、走行経路に沿って自動的に走行する自動運転車両に適用することができる。
100 物体追跡装置
10 物体検出部
20 地図情報取得部
30 コントローラ
31 物体追跡部
32 隠蔽領域算出部
33 位置関係推定部
34 ルート算出部
35 識別番号付与部

Claims (6)

  1.  移動体の周囲の物体を検出するセンサと、前記物体の検出結果に基づいて前記物体を追跡するコントローラと、を備えた物体追跡装置の物体追跡方法であって、
     前記センサの検出範囲で、複数の物体が隠蔽領域に入った場合、前記隠蔽領域内での前記複数の物体の位置関係を推定し、前記隠蔽領域から前記物体が出たとき、推定した前記位置関係に基づいて、前記物体の識別情報を決定することを特徴とする物体追跡方法。
  2.  前記隠蔽領域内での前記複数の物体の位置関係を推定できる場合、前記物体が前記隠蔽領域に入る前の識別情報を前記物体が前記隠蔽領域から出たときに継続することを特徴とする請求項1に記載の物体追跡方法。
  3.  前記隠蔽領域内での前記複数の物体の位置関係を推定できない場合、前記物体が前記隠蔽領域を出たときに新しい識別情報を前記物体に付与することを特徴とする請求項1または2に記載の物体追跡方法。
  4.  前記複数の物体の軌跡の衝突位置までに到達する時間差が所定時間より小さい場合、前記物体が前記隠蔽領域を出てきたときに新しい識別情報を前記物体に付与することを特徴とする請求項3に記載の物体追跡方法。
  5.  前記新しい識別情報が前記隠蔽領域内にいた物体の数だけ付与されるまで前記隠蔽領域内に物体が存在すると判定することを特徴とする請求項3または4に記載の物体追跡方法。
  6.  移動体の周囲の物体を検出するセンサと、
     前記センサによって検出された結果に基づいて前記物体を追跡するコントローラと、を備え、
     前記コントローラは、前記センサの検出範囲で、複数の物体が隠蔽領域に入った場合、前記隠蔽領域内での前記複数の物体の位置関係を推定し、前記隠蔽領域から前記物体が出たとき、推定した前記位置関係に基づいて、前記物体の識別情報を決定することを特徴とする物体追跡装置。
PCT/JP2016/069420 2016-06-30 2016-06-30 物体追跡方法及び物体追跡装置 WO2018003056A1 (ja)

Priority Applications (10)

Application Number Priority Date Filing Date Title
BR112018077393-0A BR112018077393A2 (pt) 2016-06-30 2016-06-30 método de rastreio de objeto e aparelho de rastreio de objeto
KR1020197002533A KR102091363B1 (ko) 2016-06-30 2016-06-30 물체 추적 방법 및 물체 추적 장치
CN201680087002.6A CN109313804B (zh) 2016-06-30 2016-06-30 物体追踪方法及物体追踪装置
US16/311,608 US10482612B2 (en) 2016-06-30 2016-06-30 Object tracking method and object tracking apparatus
RU2019102418A RU2699583C1 (ru) 2016-06-30 2016-06-30 Способ отслеживания объектов и устройство отслеживания объектов
MX2018015701A MX2018015701A (es) 2016-06-30 2016-06-30 Metodo de rastreo de objetos y aparato de rastreo de objetos.
PCT/JP2016/069420 WO2018003056A1 (ja) 2016-06-30 2016-06-30 物体追跡方法及び物体追跡装置
EP16907289.9A EP3480788A4 (en) 2016-06-30 2016-06-30 METHOD AND DEVICE FOR TRACKING OBJECTS
CA3029395A CA3029395A1 (en) 2016-06-30 2016-06-30 Object tracking method and object tracking apparatus
JP2018524655A JP6677297B2 (ja) 2016-06-30 2016-06-30 物体追跡方法及び物体追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/069420 WO2018003056A1 (ja) 2016-06-30 2016-06-30 物体追跡方法及び物体追跡装置

Publications (1)

Publication Number Publication Date
WO2018003056A1 true WO2018003056A1 (ja) 2018-01-04

Family

ID=60786130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/069420 WO2018003056A1 (ja) 2016-06-30 2016-06-30 物体追跡方法及び物体追跡装置

Country Status (10)

Country Link
US (1) US10482612B2 (ja)
EP (1) EP3480788A4 (ja)
JP (1) JP6677297B2 (ja)
KR (1) KR102091363B1 (ja)
CN (1) CN109313804B (ja)
BR (1) BR112018077393A2 (ja)
CA (1) CA3029395A1 (ja)
MX (1) MX2018015701A (ja)
RU (1) RU2699583C1 (ja)
WO (1) WO2018003056A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3832261A1 (en) * 2018-04-03 2021-06-09 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
JP2022535194A (ja) * 2019-05-31 2022-08-05 ウェイモ エルエルシー 自立型車両の視界から出た対象の追跡

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200180638A1 (en) * 2017-05-26 2020-06-11 Honda Motor Co., Ltd. Vehicle control system and vehicle control method
TWI736083B (zh) 2019-12-27 2021-08-11 財團法人工業技術研究院 動作預測的方法及系統
DE102022113001A1 (de) 2022-05-24 2023-11-30 Bayerische Motoren Werke Aktiengesellschaft Lichtassistenzsystem, Fahrzeug und Verfahren zum Steuern eines Scheinwerfers eines Fahrzeuges

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334631A (ja) 2006-06-15 2007-12-27 Sony Corp 画像監視システムおよび物体領域追跡方法
JP2010176302A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp 車両検知装置、車両検知システム、車両検知装置の車両検知方法および車両検知プログラム
JP2012221452A (ja) * 2011-04-14 2012-11-12 Isuzu Motors Ltd 車両の物体検出装置
JP2016001463A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7394916B2 (en) * 2003-02-10 2008-07-01 Activeye, Inc. Linking tracked objects that undergo temporary occlusion
WO2007147171A2 (en) * 2006-06-16 2007-12-21 Verificon Corporation Scalable clustered camera system and method for multiple object tracking
US20090002489A1 (en) * 2007-06-29 2009-01-01 Fuji Xerox Co., Ltd. Efficient tracking multiple objects through occlusion
US8116527B2 (en) * 2009-10-07 2012-02-14 The United States Of America As Represented By The Secretary Of The Army Using video-based imagery for automated detection, tracking, and counting of moving objects, in particular those objects having image characteristics similar to background
GB2477793A (en) * 2010-02-15 2011-08-17 Sony Corp A method of creating a stereoscopic image in a client device
CN101799985B (zh) 2010-03-18 2011-10-26 招商局重庆交通科研设计院有限公司 一种公路隧道交通识别方法
JP5685906B2 (ja) * 2010-11-29 2015-03-18 富士通株式会社 シミュレーション装置およびシミュレーションプログラム
US10109065B2 (en) * 2011-01-25 2018-10-23 Qualcomm Incorporated Using occlusions to detect and track three-dimensional objects
AU2012246152B2 (en) * 2011-04-21 2015-05-28 Konecranes Global Corporation Techniques for positioning a vehicle
US8908915B2 (en) * 2012-02-13 2014-12-09 National Tsing Hua University Devices and methods for tracking moving objects
JP6100581B2 (ja) * 2013-03-29 2017-03-22 株式会社デンソーウェーブ 監視装置
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
US9390328B2 (en) * 2014-04-25 2016-07-12 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007334631A (ja) 2006-06-15 2007-12-27 Sony Corp 画像監視システムおよび物体領域追跡方法
JP2010176302A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp 車両検知装置、車両検知システム、車両検知装置の車両検知方法および車両検知プログラム
JP2012221452A (ja) * 2011-04-14 2012-11-12 Isuzu Motors Ltd 車両の物体検出装置
JP2016001463A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3480788A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3832261A1 (en) * 2018-04-03 2021-06-09 Mobileye Vision Technologies Ltd. Systems and methods for determining navigational parameters
JP2022535194A (ja) * 2019-05-31 2022-08-05 ウェイモ エルエルシー 自立型車両の視界から出た対象の追跡
US11643115B2 (en) 2019-05-31 2023-05-09 Waymo Llc Tracking vanished objects for autonomous vehicles
JP7315714B2 (ja) 2019-05-31 2023-07-26 ウェイモ エルエルシー 自律運転モードを有する車両を制御する方法

Also Published As

Publication number Publication date
US20190244368A1 (en) 2019-08-08
KR102091363B1 (ko) 2020-03-19
EP3480788A1 (en) 2019-05-08
JP6677297B2 (ja) 2020-04-08
CN109313804A (zh) 2019-02-05
RU2699583C1 (ru) 2019-09-06
CA3029395A1 (en) 2018-01-04
KR20190021430A (ko) 2019-03-05
CN109313804B (zh) 2021-06-15
BR112018077393A2 (pt) 2019-04-09
EP3480788A4 (en) 2019-05-08
US10482612B2 (en) 2019-11-19
JPWO2018003056A1 (ja) 2019-04-04
MX2018015701A (es) 2019-05-27

Similar Documents

Publication Publication Date Title
WO2018003056A1 (ja) 物体追跡方法及び物体追跡装置
JP6493545B2 (ja) 情報提示装置及び情報提示方法
CN108290577B (zh) 车辆控制装置
CN107953884B (zh) 用于自主车辆的行驶控制设备和方法
WO2018134973A1 (ja) 車両挙動予測方法及び車両挙動予測装置
CN109328376B (zh) 物体跟踪方法及物体跟踪装置
US9676412B2 (en) Driving assistance apparatus and method
CN106064626A (zh) 车辆行驶控制装置
JP2018106486A (ja) 車両用衝突回避支援装置および車両の衝突回避支援方法
JP2007232594A (ja) 物体検出装置
CN106347365A (zh) 车道变更控制设备、包括该设备的车辆和该控制方法
JP2008256593A (ja) 車載用ナビゲーション装置
JP2018197966A (ja) 走行支援方法及び走行支援装置
JP2020160560A (ja) 運転支援装置、運転支援方法、およびプログラム
JP7037956B2 (ja) 車両進路予測方法、車両走行支援方法及び車両進路予測装置
JP3931760B2 (ja) 車両用障害物検知装置
WO2017013692A1 (ja) 走行車線判定装置及び走行車線判定方法
JP2020179731A (ja) 車両制御装置
JP2004082912A (ja) 車間距離計測装置
JPWO2017216856A1 (ja) 車間距離推定方法及び車間距離推定装置
JP7223588B2 (ja) 運転特性推定方法及び運転特性推定装置
JP2002228748A (ja) 先行車両認識方法及び装置
JP2021059275A (ja) 車両運転支援方法及び車両運転支援装置
JP2020042340A (ja) 移動体検知システム
JP2003121181A (ja) コーナー開始点・道路分岐点検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16907289

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018524655

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3029395

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112018077393

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 20197002533

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2016907289

Country of ref document: EP

Effective date: 20190130

ENP Entry into the national phase

Ref document number: 112018077393

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20181228