WO2024004113A1 - 目標追尾装置、目標追尾方法、および目標追尾プログラム - Google Patents

目標追尾装置、目標追尾方法、および目標追尾プログラム Download PDF

Info

Publication number
WO2024004113A1
WO2024004113A1 PCT/JP2022/026133 JP2022026133W WO2024004113A1 WO 2024004113 A1 WO2024004113 A1 WO 2024004113A1 JP 2022026133 W JP2022026133 W JP 2022026133W WO 2024004113 A1 WO2024004113 A1 WO 2024004113A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracks
same target
target
detection points
track
Prior art date
Application number
PCT/JP2022/026133
Other languages
English (en)
French (fr)
Inventor
康 小幡
洋志 亀田
將 白石
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/026133 priority Critical patent/WO2024004113A1/ja
Publication of WO2024004113A1 publication Critical patent/WO2024004113A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems

Definitions

  • the present disclosure relates to target tracking technology.
  • Patent Document 1 describes a sensor that clusters detected positions obtained from a target, and a processing unit (position correlation processing unit, cell number correlation processing unit, correlation arbitration processing unit) that tracks the target based on the clustering result by the sensor. , a position clustering processing section, an integrated cell number observed value monitoring processing section, an integrated cell number update prediction processing section, a position speed update prediction processing section, a delay processing section, and a display processing section).
  • a processing unit position correlation processing unit, cell number correlation processing unit, correlation arbitration processing unit
  • target tracking is performed based on the result of clustering of detected positions, so if clustering of detected positions is not performed appropriately, target tracking is performed appropriately accordingly.
  • the problem is that I can't.
  • the present disclosure has been made to solve such problems, and aims to provide a target tracking technique that can perform target tracking when target detection points are not appropriately clustered.
  • One aspect of the target tracking device includes a clustering processing unit that clusters a plurality of detection points obtained from sensors into a plurality of clusters and calculates a representative point of each cluster; a tracking processing unit that processes representative points in time series to track a plurality of tracks; and a same target determination unit that determines whether the plurality of tracks relate to the same target based on the state of distribution of the plurality of detection points. and a track integration unit that integrates the plurality of tracks as one tracked track when it is determined that the plurality of tracks relate to the same target.
  • target tracking can be performed when target detection points are not appropriately clustered.
  • FIG. 1 is a diagram showing a configuration example of a target tracking device and a target tracking system.
  • FIG. 2 is a diagram showing an example of a hardware configuration of a target tracking device.
  • FIG. 2 is a diagram showing an example of a hardware configuration of a target tracking device.
  • 3 is a flowchart showing the operation of the target tracking device.
  • FIG. 3 is a diagram for explaining the operation of the target tracking device.
  • FIG. 3 is a diagram for explaining the operation of the target tracking device.
  • FIG. 3 is a diagram for explaining the operation of the target tracking device.
  • FIG. 3 is a diagram for explaining the operation of the target tracking device.
  • FIG. 3 is a diagram for explaining the operation of the target tracking device.
  • FIG. 1 is a diagram showing a target tracking system including a target tracking device 2 according to the first embodiment.
  • the target tracking system includes a sensor 1, a target tracking device 2, a tracking track storage section 3, and a display device 4.
  • the target tracking system is mounted on, for example, a vehicle (not shown) and used as a collision prevention system.
  • the sensor 1 is, for example, a radar or an optical camera, and the sensor 1 observes a target around the vehicle on which the sensor 1 is mounted at a specified time, and outputs the observation information as a detection point.
  • the following will explain the case where the sensor 1 is a radar.
  • the target tracking device 2 clusters a plurality of detection points obtained from the sensor 1 into a plurality of clusters, calculates a representative point of each cluster, processes the calculated representative points in time series, and generates a plurality of tracks. is tracked, and from the state of the distribution of multiple detection points before clustering, it is determined whether the multiple tracks relate to the same target. If it is determined that the multiple tracks relate to the same target, multiple tracks are Combine the tracks into one tracked track.
  • the tracking track storage unit 3 stores the tracking track at the current time as an existing track.
  • the saved existing track is used for further track tracking processing at a subsequent time by the target tracking device 2.
  • the display device 4 outputs information on the estimated motion specifications of the updated track.
  • the possibility of a collision can be determined based on the proximity between the predicted position obtained by extrapolating the estimated movement parameters of the track and the predicted position based on the own vehicle movement.
  • the target tracking device 2 includes a clustering processing section 21, a tracking processing section 22, a same target determination section 23, and a track integration section 24 in order to realize the above-mentioned functions.
  • a clustering processing section 21 a tracking processing section 22 a same target determination section 23
  • a track integration section 24 a track integration section 24 in order to realize the above-mentioned functions.
  • the clustering processing unit 21 clusters a plurality of detection points obtained from the radar into a plurality of clusters, calculates a representative point of each cluster, and outputs data of the calculated representative point. More specifically, the clustering processing unit 21 receives a detection point group including a plurality of detection points from the radar, and selects one detection point group from the received detection point group that can be considered to be detection points of the same object. The received detection point group is clustered into at least one cluster by combining the detected points into one cluster. After clustering, the clustering processing unit 21 calculates a representative point representing the cluster, and outputs data of the calculated representative point. When a plurality of clusters are generated by clustering, the clustering processing unit 21 calculates a representative point representing each cluster.
  • the clustering processing unit 21 outputs data of a detection point group including a plurality of detection points before clustering to the same target determination unit 23.
  • the clustering processing unit 21 may output the data of the plurality of detection points to a control unit (not shown), and the data of the plurality of detection points received by the control unit (not shown) may be output to the clustering processing unit 21.
  • the tracking processing unit 22 processes the plurality of representative points calculated by the clustering processing unit 21 in time series, and tracks the plurality of tracks. More specifically, a plurality of tracks are tracked by acquiring existing tracking tracks from the tracking track storage unit 3 and associating the representative points calculated by the clustering processing unit 21 with the existing tracks.
  • the same target determination unit 23 uses data of a plurality of detection points received directly from the clustering processing unit 21 or indirectly through a control unit (not shown) to perform tracking based on the state of distribution of the plurality of detection points. It is determined whether the plurality of tracks tracked by the processing unit 22 relate to the same target. The same target determining unit 23 outputs a set of tracks determined to be related to the same target.
  • the track integration unit 24 integrates the set of tracks output from the same target determination unit 23 as one tracked track, and outputs the integrated tracked track.
  • the tracking track is displayed on the display device 4, and is also stored in the tracking track storage unit 3, and is used for further tracking processing by the tracking processing unit 22 at a subsequent time.
  • Each functional unit of the target tracking device 2 is realized by a processing circuitry.
  • Processing circuitry even dedicated processing circuitry 101 as shown in FIG. 2A, executes a program stored in memory 103 as shown in FIG. 2B. It may be the processor 102.
  • the dedicated processing circuit 101 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an application specific integrated circuit (ASIC). , FPGA (field-programmable gate array), or a combination of these.
  • the plurality of functional parts of the target tracking device 2 may be realized by a plurality of separate processing circuits, or the plurality of functional parts may be realized by a single processing circuit. .
  • the functional units of the target tracking device 2 are realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are written as programs and stored in memory 103.
  • the processor 102 implements each functional unit by reading and executing a program (target tracking program) stored in the memory 103.
  • Examples of the memory 103 include non-volatile or Includes volatile semiconductor memory, magnetic disks, flexible disks, optical disks, compact disks, minidisks, and DVDs.
  • FIG. 3 is a flowchart showing the operation of the target tracking device 2.
  • the flow of FIG. 3 is a flow of processing for one periodic observation time, and the entire processing of FIG. 3 is performed once every observation.
  • Step ST1 is a step in which the clustering processing unit 21 clusters a plurality of detection points obtained from the radar into a plurality of clusters and calculates a representative point of each cluster.
  • Step ST2 is a step in which the tracking processing unit 22 processes the plurality of calculated representative points in time series to track a plurality of tracks.
  • Step ST3 is a step in which the same target determination unit 23 determines whether or not the plurality of tracks relate to the same target from the distribution state of the plurality of detection points.
  • Step ST4 is a step of integrating the plurality of tracks into one tracked track when the track integration unit 24 determines that the plurality of tracks relate to the same target. The processing in each step will be explained in more detail below.
  • step ST1 the clustering processing unit 21 performs clustering processing on a group of radar observation values at the same time. Clustering allows multiple reflections of the same vehicle to be combined into one. By performing clustering in this manner, it is possible to suppress the occurrence of duplicate tracks and continue tracking the target.
  • the clustering process can be roughly divided into three steps: clustering distance calculation, clustering determination matrix calculation, and representative point calculation.
  • clustering step A the calculation of the clustering distance
  • the calculation of the clustering determination matrix will be referred to as “clustering step B”
  • the calculation of the representative point will be referred to as “clustering step C.”
  • Clustering Step A Clustering Distance Calculation
  • a square matrix is generated in which each row and column corresponds to a detection point at the current sampling time.
  • ⁇ R , ⁇ Az , and ⁇ R (dots) are the standard deviations of the observation errors of distance, azimuth, and Doppler velocity, respectively, and are the parameters used to calculate the observation error covariance matrix in the subsequent tracking process. is the same as
  • the clustering processing unit 21 calculates this statistical distance for all combinations of detection points, and generates a matrix expressed by the following equation (3). In this disclosure, this matrix is referred to as a clustering distance matrix.
  • Clustering Step B Calculation of Clustering Judgment Matrix Based on the clustering distance matrix D calculated in the clustering step A described above, a clustering judgment matrix for determining detection points to be identified as the same is calculated.
  • the calculation procedure follows [Procedure 1] to [Procedure 4] below.
  • a matrix CL is generated for the clustering distance matrix D, in which elements less than or equal to the threshold d 0 are set to 1, and elements larger than the threshold d 0 are set to 0.
  • Step 3 Update the matrix CL by the following process. (1) Update N'cr and create CL 2 . (2) For CL 2 , generate a matrix CL in which one or more elements are set to 1 and other elements are set to 0.
  • a clustering determination matrix M is generated by comparing each column of the matrix CL and deleting columns having the same elements. For example, in the matrix CL expressed by the following equation (10), the first column and the second column have the same elements, so for example, the second column is deleted. Similarly, since the first and fourth columns have the same elements, for example, delete the fourth column.
  • this clustering determination matrix M correspond to detection point numbers, and the columns correspond to cluster numbers.
  • the same detection points are grouped together based on the clustering determination matrix M.
  • the above example of M is expressed by the following equation (12) when the corresponding detection points are assigned and shown.
  • the clustering processing unit 21 clusters the first, second, and fourth detection points into the same cluster, and clusters the third detection point into another cluster.
  • Clustering Step C Representative Point Calculation Based on the clustering determination matrix M, detection points that fall into the same cluster are represented by one point. For example, the detection point closest to the radar is retained as a representative, and the other detection points within the same cluster are deleted. The center of gravity of the positions of the detection points forming the cluster may be used as the representative point.
  • the clustering processing unit 21 outputs the representative point of each cluster as an observed value to the tracking processing unit 22.
  • the tracking processing unit 22 acquires the plurality of representative points calculated by the clustering processing unit 21 and performs target tracking processing.
  • the tracking processing unit 22 first obtains an existing track from the tracking track storage unit 3, and performs a correlation determination process that associates the obtained existing track with observed values (representative points).
  • the purpose of the correlation determination process is to make the statistical distance between the predicted position of the existing track and the observed value associated with this predicted position as small as possible as a whole.
  • Known determining methods include NN (Nearest Neighbor), GNN (Global Nearest Neighbor), and MHT (Multiple Hypothesis Tracking), and any of them may be used.
  • the tracking processing unit 22 executes tracking filter processing. In tracking filter processing, noise is removed from the observed values associated with the existing track, and the motion specifications of the target are updated from the predicted values. More detailed steps regarding target tracking processing are shown below.
  • k-1 be the smoothed value of the wake before processing using observed values
  • k-1 be the error covariance matrix that is a covariance matrix of errors in the smoothed value of the wake.
  • the tracking processing unit 22 first performs prediction processing using equations (13) and (14).
  • ⁇ k in equations (13) and (14) is a transition matrix
  • Q k in equation (14) is a drive noise covariance matrix.
  • the tracking processing unit 22 determines whether a new observed value can be associated with the trajectory predicted at time k based on the observed values up to this time k-1. Let the observation value obtained by radar be z k,j . If the following equation (15) holds true, the tracking processing unit 22 determines that it is possible to associate the observed value with the predicted trajectory.
  • d is a gate size parameter used in the chi-square test.
  • H k is an observation matrix.
  • S k is a residual covariance matrix and is calculated according to the following equation (16).
  • R k is an observation error covariance matrix
  • the conversion from polar coordinates to rectangular coordinates is expressed as a matrix whose diagonal terms are the squares of the radar distance observation error standard deviation and angle observation error standard deviation. Calculated by multiplying Jacobian matrices.
  • the tracking processing unit 22 performs smoothing processing according to the following equations (17) and (18) to obtain the latest x k
  • Kk is the Kalman gain, which is calculated as in the following equation (19).
  • the tracking processing section 22 outputs x k
  • the same target determining section 23 determines whether the plurality of tracks output from the tracking processing section 22 are tracks related to the same target. In order to make such a determination, the same target determination unit 23 performs a process of summarizing the track outputs based on the similarity of smooth vectors including the estimated value of the position vector and the estimated value of the velocity vector. To this end, the same target determining unit 23 first extracts combinations of tracks that satisfy the following two conditions as integrated candidates.
  • Velocity difference of smooth vector is within threshold
  • the estimated positions of the tracking tracks of the large target are the same target, so they are sufficiently close together, and the velocity vectors are considered to be almost parallel within the estimation error. Therefore, as shown in FIG. 6, the same target determination unit 23 extracts tracks in which the position difference between the smoothed vectors is within the threshold value and the speed difference between the smoothed vectors is within the threshold value.
  • the specific value of the threshold can be determined based on the expected value of the tracking error. That is, it is determined as follows.
  • the vector difference between the smoothed vectors of the two tracks to be compared is given by the following equation (20).
  • the positional difference is defined as the following equation (21).
  • This Jacobian matrix is expressed as the following equation (22).
  • Equation (23) is calculated by setting the error covariance matrix, which is the expected value of the tracking error, to Pk . Let this be the expected value of the position difference.
  • the threshold value is a constant multiple of this value.
  • the threshold value can be similarly determined for the speed difference.
  • the speed difference is defined as the following equation (24).
  • the threshold value is a constant multiple of this value.
  • the maximum value of the speed difference that may occur between two points within the same vehicle when the vehicle is considered as a rigid body may be used as the threshold value.
  • the determination may be made based on the degree of coincidence only in direction.
  • a plurality of tracks can be extracted as integrated candidates from a group of small targets running in parallel. For example, as shown in FIG. 5, tracks are extracted for each of a plurality of vehicles that are traveling close to each other. Therefore, in order to avoid determining that a group of small targets running in parallel are related to the same target, the same target determination unit 23 uses the number of observed values before clustering to determine whether multiple tracks are related to a single target. , determine whether the target is related to multiple goals. More specifically, for the combination candidates of the tracks extracted above, the same target determination unit 23 performs any of the following processes (a) to (c) to determine whether multiple tracks relate to one target. or multiple targets that are translated.
  • a threshold value is set for the number of detection points, and if the number of detection points exceeds the threshold value, it is determined that there is one target, and if not, it is determined that there are multiple translational targets. In other words, it can be expected that the number of observed values before clustering for a series of targets is greater than the number of observed values before clustering for multiple small targets, so a threshold is set for the number of detection points to determine whether it is one target or multiple translational targets. Make a judgment. (b) Test the hypothesis that "the detection point group is uniformly distributed" using the sample variance and the ideal value (width/12). If the hypothesis holds true, it is determined that there is one target, and if the hypothesis does not hold, it is determined that there are multiple translational targets.
  • (c) Determine bias by detecting blanks (absence of detection points). A minute window with a certain fixed width is set, and the minute window is moved in the state space as shown in FIG. 7. If the minute window always intersects with the detection point, it is determined to be one target. If the minute window does not always intersect with the detection point, it is determined that the target is a translational multiple target. Note that the width of the minute window is a parameter that is set in advance depending on the application.
  • step ST4 the track integration unit 24 performs a process of integrating the track groups to be integrated, which were identified as the same in step ST3.
  • the track reliability is the sum of the reliability of the hypotheses that adopt the relevant track when MHT is used to determine the correlation, and the normalized value of the likelihood of the track when other methods are used. Can be used.
  • a value obtained by normalizing the likelihood of the track with respect to the observed value at the latest time, or a value obtained by integrating the likelihood of the track with respect to the observed value at each time can be used.
  • the integrated smoothing dimensions after integrating these tracks are calculated as in the following equations (27) and (28).
  • Embodiment 1 it is determined whether to execute track integration using information on the number of detection points before clustering of observed values of tracking input. Therefore, it is possible to prevent the generation of multiple tracks from one target while avoiding the side effect of grouping the tracks of small group targets together.
  • the target tracking device (2) of Appendix 1 includes a clustering processing unit (21) that clusters a plurality of detection points obtained from sensors into a plurality of clusters and calculates a representative point of each cluster, and A tracking processing unit (22) that processes representative points in time series to track a plurality of tracks, and determines whether the plurality of tracks relate to the same target based on the state of distribution of the plurality of detection points. It includes a same target determining unit (23) and a track integrating unit (24) that integrates the plurality of tracks as one tracked track when it is determined that the plurality of tracks relate to the same target.
  • the target tracking device of Supplementary note 2 is the target tracking device described in Supplementary note 1, in which the same target determination unit determines that the plurality of tracks are different from each other when the number of the plurality of detection points is larger than a predetermined threshold. If the number of the plurality of detection points is less than or equal to the threshold value for the same target, it is determined that the plurality of tracks do not relate to the same target.
  • the target tracking device according to appendix 3 is the target tracking device described in appendix 1, and the same target determination unit is based on a hypothesis that the spatial distribution of the plurality of detection points is uniform. If the hypothesis holds true, it is determined that the plurality of tracks relate to the same target, and if the hypothesis does not hold, it is determined that the plurality of tracks do not relate to the same target.
  • the target tracking device according to appendix 4 is the target tracking device described in appendix 1, in which the same target determination section moves a fixed-width window in the state space, and the target tracking device according to appendix 4 is configured to If the window always includes one detection point, the plurality of tracks relate to the same target, and if the window does not always include one of the plurality of detection points, the plurality of tracks relate to the same target. It is determined that they are not related to the same goal.
  • a step (ST2) of tracking the same target a step (ST3) of determining whether the plurality of tracks relate to the same target from the state of distribution of the plurality of detection points by the same target determination unit; If the track integration unit determines that the plurality of tracks relate to the same target, a step (ST4) of integrating the plurality of tracks as one tracked track is provided.
  • the target tracking program in Appendix 6 has a clustering processing function that clusters multiple detection points obtained from sensors into multiple clusters and calculates a representative point for each cluster, and processes the calculated representative points in time series.
  • a tracking processing function for tracking a plurality of tracks; a same target determination function for determining whether or not the plurality of tracks relate to the same target from the distribution state of the plurality of detection points; If it is determined that the tracks relate to the same target, the computer is caused to execute a track integration function of integrating the plurality of tracks as one tracked track.
  • the target tracking device of the present disclosure can be used in a vehicle collision prevention system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

目標追尾装置は、センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するクラスタリング処理部(21)と、その生成された複数の代表点を時系列処理して、複数の航跡を追尾する追尾処理部(22)と、前記複数の検出点の分布より、前記複数の航跡が同一の目標に係るか否かを判定する同一目標判定部(23)と、前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの航跡に統合する航跡統合部(24)と、を備える。

Description

目標追尾装置、目標追尾方法、および目標追尾プログラム
 本開示は目標追尾技術に関する。
 特許文献1には、目標から得られた検出位置をクラスタリングするセンサと、センサによるクラスタリングの結果に基づいて、目標を追尾する処理部(位置相関処理部、セル数相関処理部、相関調停処理部、位置クラスタリング処理部、統合セル数観測値監視処理部、統合セル数更新予測処理部、位置速度更新予測処理部、遅延処理部、および表示処理部)とを備える追尾装置が開示されている。
特許第5610825号公報
 特許文献1の追尾装置によれば、目標追尾は検出位置のクラスタリングの結果に基づいて行われるので、検出位置のクラスタリングが適切に行われない場合には、これに応じて目標追尾を適切に行うことができないという問題がある。
 本開示は、このような問題を解決するためになされたものであり、目標の検出点が適切にクラスタリングされない場合に目標追尾を行うことができる目標追尾技術を提供することを目的とする。
 本開示の実施形態による目標追尾装置の一側面は、センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するクラスタリング処理部と、その算出された複数の代表点を時系列処理して、複数の航跡を追尾する追尾処理部と、前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定する同一目標判定部と、前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合する航跡統合部と、を備える。
 本開示の実施形態による目標追尾装置によれば、目標の検出点が適切にクラスタリングされない場合に目標追尾を行うことができる。
目標追尾装置および目標追尾システムの構成例を示す図である。 目標追尾装置のハードウェアの構成例を示す図である。 目標追尾装置のハードウェアの構成例を示す図である。 目標追尾装置の動作を示すフローチャートである。 目標追尾装置の動作を説明するための図である。 目標追尾装置の動作を説明するための図である。 目標追尾装置の動作を説明するための図である。 目標追尾装置の動作を説明するための図である。
 以下、添付の図面を参照して、本開示における種々の実施形態について詳細に説明する。なお、図面において同一または類似の符号を付された構成要素は、同一または類似の構成または機能を有するものであり、そのような構成要素についての重複する説明は省略する。
実施の形態1.
<構成>
 図1および図2を参照して、本開示の実施の形態1による目標追尾装置2について説明する。図1は、実施の形態1による目標追尾装置2を含む目標追尾システムを示す図である。図1に示されているように、目標追尾システムは、センサ1と、目標追尾装置2と、追尾航跡保存部3と、表示装置4とを備える。目標追尾システムは、例えば不図示の車両に搭載されて、衝突防止システムとして用いられる。
 センサ1は例えばレーダまたは光学カメラであり、センサ1は指定された時刻にセンサ1を搭載している車両周辺の目標を観測し、その観測情報を検出点として出力する。以下、センサ1がレーダの場合に即して説明をする。
 目標追尾装置2は、センサ1から得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出し、その算出した複数の代表点を時系列処理して、複数の航跡を追尾し、そのクラスタリング前の複数の検出点の分布の状態から、複数の航跡が同一の目標に係るか否かを判定し、複数の航跡が同一の目標に係ると判定した場合、複数の航跡を1つの追尾航跡として統合する。
 追尾航跡保存部3は、現在の時刻の追尾航跡を既存航跡として保存する。保存された既存航跡は、目標追尾装置2による後続する時刻における更なる航跡追尾処理に用いられる。
 表示装置4は、更新された航跡の推定運動諸元の情報をその情報を出力する。衝突防止システムの場合は、この航跡の推定運動諸元を予測外挿した位置と自車運動による予測位置との近さから衝突の可能性を判定することができる。
 目標追尾装置2は、上述の機能を実現するため、クラスタリング処理部21と、追尾処理部22と、同一目標判定部23と、航跡統合部24とを備える。以下、目標追尾装置2のこれらの機能部についてより詳細に説明をする。
(クラスタリング処理部)
 クラスタリング処理部21は、レーダから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出し、算出した代表点のデータを出力する。より詳しくは、クラスタリング処理部21は、レーダから複数の検出点を含む検出点群を受け取り、受け取った検出点群のうち同一対象の検出点であると見做すことができる検出点群を1つのクラスタに纏めることによって、受け取った検出点群を少なくとも1つのクラスタにクラスタリングする。クラスタリングを行った後、クラスタリング処理部21は、クラスタを代表する代表点を算出し、算出した代表点のデータを出力する。クラスタリングにより複数のクラスタが生成される場合、クラスタリング処理部21は、各クラスタを代表する代表点を算出する。
 また、一例として、クラスタリング処理部21は、クラスタリングを行う前の複数の検出点を含む検出点群のデータを同一目標判定部23に出力する。複数の検出点のデータは、クラスタリング処理部21が不図示の制御部に出力して、不図示の制御部が受信した複数の検出点のデータをクラスタリング処理部21へ出力してもよい。
(追尾処理部)
 追尾処理部22は、クラスタリング処理部21により算出された複数の代表点を時系列処理して、複数の航跡を追尾する。より詳しくは、追尾航跡保存部3から既存の追尾航跡を取得するとともに、クラスタリング処理部21により算出された代表点と既存航跡との対応付けを行うことにより複数の航跡を追尾する。
(同一目標判定部)
 同一目標判定部23は、クラスタリング処理部21から直接的に又は不図示の制御部を介して間接的に受け付けた複数の検出点のデータを用いて、複数の検出点の分布の状態から、追尾処理部22により追尾される複数の航跡が同一の目標に係るか否かを判定する。同一目標判定部23は、同一の目標に係ると判定した航跡の組を出力する。
(航跡統合部24)
 航跡統合部24は、同一目標判定部23から出力された航跡の組を1つの追尾航跡として統合し、統合した追尾航跡を出力する。追尾航跡は、表示装置4に表示されるとともに、追尾航跡保存部3に保存されて、追尾処理部22による後続時刻における更なる追尾処理に用いられる。
<ハードウェア構成>
 次に、図2Aおよび図2Bを参照して、目標追尾装置2のハードウェアの構成例について説明する。目標追尾装置2の各機能部は処理回路(processing circuitry)により実現される。処理回路(processing circuitry)は、図2Aに示されているような専用の処理回路(processing circuit)101であっても、図2Bに示されているようなメモリ103に格納されるプログラムを実行するプロセッサ102であってもよい。
 処理回路(processing circuitry)が専用の処理回路101である場合、専用の処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(application specific integrated circuit)、FPGA(field-programmable gate array)、またはこれらを組み合わせたものが該当する。目標追尾装置2の複数の機能部を別個の複数の処理回路(processing circuits)で実現してもよいし、複数の機能部をまとめて単一の処理回路(processing circuit)で実現してもよい。
 処理回路(processing circuitry)がプロセッサ102の場合、目標追尾装置2の機能部は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアおよびファームウェアはプログラムとして記述され、メモリ103に格納される。プロセッサ102は、メモリ103に記憶されたプログラム(目標追尾プログラム)を読み出して実行することにより、各機能部を実現する。メモリ103の例には、RAM(random access memory)、ROM(read-only memory)、フラッシュメモリ、EPROM(erasable programmable read only memory)、EEPROM(electrically erasable programmable read-only memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDが含まれる。
<動作>
 次に、図3を参照して、目標追尾装置2の動作について説明をする。図3は目標追尾装置2の動作を示すフローチャートである。図3のフローは定期的な1観測時刻分の処理の流れであり、観測の度に図3の全体の処理を1回行う。ステップST1は、クラスタリング処理部21により、レーダから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するステップである。ステップST2は、追尾処理部22により、算出された複数の代表点を時系列処理して、複数の航跡を追尾するステップである。ステップST3は、同一目標判定部23により、複数の検出点の分布の状態から、複数の航跡が同一の目標に係るか否かを判定するステップである。ステップST4は、航跡統合部24により、複数の航跡が同一の目標に係ると判定された場合、複数の航跡を1つの追尾航跡として統合するステップである。以下、各ステップにおける処理についてより詳細に説明をする。
 ステップST1において、クラスタリング処理部21は、同一時刻のレーダ観測値群のクラスタリング処理を行う。クラスタリングにより、同一車両の多点反射を1つにまとめることができる。このようにクラスタリングを行うことにより、重複航跡の発生を抑制し、目標の追尾継続が可能となる。クラスタリング処理は、大別すると、クラスタリング距離算出、クラスタリング判定行列算出、および代表点算出の3つのステップからなる。以下、クラスタリング距離算出を「クラスタリングステップA」、クラスタリング判定行列算出を「クラスタリングステップB」、および代表点算出を「クラスタリングステップC」と称して説明をする。
 クラスタリングステップA:クラスタリング距離算出
 本処理では各行、各列が現サンプリング時刻の検出点に相当する正方行列を生成する。i番目の検出点の観測諸元ベクトルをzk,i (POLin)とする(i=1,…,m)。このベクトルは、以下の式(1)のように、時刻、距離、方位角、ドップラ速度(距離変化率)、および通し番号からなるとする。

Figure JPOXMLDOC01-appb-I000001
 行列の(l,m)要素の値はl番目の検出点とm番目の検出点との統計距離であり、以下の式(2)に従って算出する。

Figure JPOXMLDOC01-appb-I000002
 ここで、σ、σAz、およびσR(ドット)は、それぞれ距離、方位角、およびドップラ速度の観測誤差の標準偏差であり、後段の追尾処理において観測誤差共分散行列の計算に用いるパラメータと同一である。クラスタリング処理部21は、この統計距離を全ての検出点の組み合わせについて計算し、以下の式(3)で表される行列を生成する。本開示において、この行列をクラスタリング距離行列と呼ぶ。

Figure JPOXMLDOC01-appb-I000003
クラスタリングステップB:クラスタリング判定行列算出
 上述のクラスタリングステップAで算出したクラスタリング距離行列Dを基に、同一視する検出点を決定するクラスタリング判定行列を算出する。算出の手順は以下の[手順1]~[手順4]に従う。
[手順1]以下のように、クラスタリング距離行列Dに対して、閾値d以下の要素を1、閾値dより大きい要素を0とする行列CLを生成する。閾値dは事前に設定されるパラメータである。
  (1)d(l,m)≦dの場合
       cl(l,m)=1
  (2)d(l,m)>dの場合
       cl(l,m)=0
 以下[手順2]~[手順3]の処理を繰り返す。
[手順2]式(4)で表される行列CLの要素の和NcrがN'crと等しくなった場合、処理を終了する。ただし、N'crの初期値は0とする。

Figure JPOXMLDOC01-appb-I000004
  (1)N'cr=Ncrの場合
     [手順3]以降の処理を実施しない。
  (2)(1)以外の場合
     [手順3]以降の処理を実施する。
[手順3]行列CLを以下の処理によって更新する。
  (1)N'crを更新し,CLを作成する。

Figure JPOXMLDOC01-appb-I000005

Figure JPOXMLDOC01-appb-I000006

Figure JPOXMLDOC01-appb-I000007
  (2)CLに対して、1以上の要素を1、それ以外の要素を0とする行列CLを生成する。

Figure JPOXMLDOC01-appb-I000008

Figure JPOXMLDOC01-appb-I000009
[手順4]行列CLの各列どうしを比較し、同じ要素を持つ列を削除することで、クラスタリング判定行列Mを生成する。例えば,以下の式(10)で表される行列CLについて、第1列および第2列は同じ要素を持つので、例えば第2列を削除する。同様に、第1列および第4列は同じ要素を持つので、例えば第4列を削除する。

Figure JPOXMLDOC01-appb-I000010

Figure JPOXMLDOC01-appb-I000011
 このクラスタリング判定行列Mの行は検出点の番号、列はクラスタ番号に相当する。クラスタリング判定行列Mを基に同一となる検出点をまとめる。上記のMの例は、該当する検出点を付与して示すと以下の式(12)のとおり表される。

Figure JPOXMLDOC01-appb-I000012
 この行列は第1番目、第2番目、および第4番目の検出点が同一であり、第3番目の検出点が別である。そこで、クラスタリング処理部21は、第1番目、第2番目、および第4番目の検出点を同一のクラスタにクラスタリングし、第3番目の検出点を別のクラスタにクラスタリングする。
クラスタリングステップC:代表点算出
 クラスタリング判定行列Mを基に、同一クラスタに入った検出点を一点に代表させる。例えば、レーダからの距離が最も近い検出点を代表として残し、同一クラスタ内のそれ以外の検出点を削除する。クラスタを構成する検出点群の位置の重心を代表点としてもよい。クラスタリング処理部21は、各クラスタの代表点を観測値として追尾処理部22に出力する。
 ステップST2において、追尾処理部22は、クラスタリング処理部21により算出された複数の代表点を取得して目標追尾処理を行う。追尾処理部22は、先ず、追尾航跡保存部3から既存航跡を取得して、取得した既存航跡と観測値(代表点)を対応付ける相関決定処理を行う。相関決定処理は、既存航跡の予測位置と、この予測位置に対応付けられた観測値との間の統計距離を、全体的にできるだけ小さくすることを目的とする。決定方法はNN(Nearest Neighbor)、GNN(Global Nearest Neighbor)、MHT(Multiple Hypothesis Tracking)等が知られており、その何れを用いてもよい。相関決定処理の後、追尾処理部22は、追尾フィルタ処理を実行する。追尾フィルタ処理では既存航跡と対応付けられた観測値から雑音を除去して目標の運動諸元を予測値から更新計算する。目標追尾処理に関するより詳細な手順を以下に示す。
 観測値による処理前の航跡の平滑値をxk-1|k-1、航跡の平滑値の誤差の共分散行列である誤差共分散行列をPk-1|k-1とする。追尾処理部22は、式(13)および式(14)により、まず予測処理を行う。式(13)および式(14)におけるΦは推移行列であり、式(14)におけるQは駆動雑音共分散行列である.
予測処理計算:

Figure JPOXMLDOC01-appb-I000013

Figure JPOXMLDOC01-appb-I000014
 次に、追尾処理部22は、この時刻k-1までの観測値に基づいて時刻kにおいて予測される航跡に、新たな観測値を対応付けることが可能かを判定する。レーダによって得られる観測値をzk,jとする。次の式(15)が成立する場合、追尾処理部22は、観測値と予測航跡の対応付けは可能であると判定する。

Figure JPOXMLDOC01-appb-I000015
 式(15)において、dはカイ平方検定で利用するゲートサイズパラメータである。また、Hは観測行列である。また、Sは残差共分散行列であり、以下の式(16)に従って計算される。

Figure JPOXMLDOC01-appb-I000016
 式(16)において、Rは観測誤差共分散行列であり、レーダの距離の観測誤差標準偏差と角度の観測誤差標準偏差の自乗を対角項とする行列に極座標から直交座標への変換のヤコビ行列を積算することにより算出する。
 式(15)が成り立ってかつ相関決定処理により航跡と観測値の対応付けが決定された場合、追尾処理部22は、以下の式(17)および式(18)に従う平滑処理を行い、最新の目標の運動諸元の推定値であるxk|kと、推定値xk|kの誤差共分散であるPk|kとを得る。

Figure JPOXMLDOC01-appb-I000017

Figure JPOXMLDOC01-appb-I000018
 ここでKkはカルマンゲインであり、以下の式(19)のように計算する。

Figure JPOXMLDOC01-appb-I000019
 追尾処理部22は、xk|kとPk|kを同一目標判定部23および航跡統合部24に最新の航跡として出力する。
 次に、ステップST3において、同一目標判定部23は、追尾処理部22より出力された複数の航跡が同一の目標に係る航跡か否かを判定する。このような判定を行うため、同一目標判定部23は、航跡出力を、位置ベクトルの推定値と速度ベクトルの推定値とを含む平滑ベクトルの類似性でまとめる処理を行う。そのために、同一目標判定部23は、まず以下の2つの条件を満たす航跡の組み合わせを統合候補として抽出する。
条件1)平滑ベクトルの位置差が閾値以内
条件2)平滑ベクトルの速度差が閾値以内
 大型目標の追尾航跡の推定位置は同一目標なので十分接近し、かつ速度ベクトルは推定誤差の範囲内でほぼ平行と考えられる。そこで、同一目標判定部23は、図6に示されているように、平滑ベクトルの位置差が閾値以内であって、平滑ベクトルの速度差が閾値以内の航跡を抽出する。
 閾値の具体的な値については、追尾誤差の期待値によって決定することができる。すなわち、以下のようにして決定する。
 比較する2航跡の平滑ベクトルのベクトル差を以下の式(20)のとおりとする。

Figure JPOXMLDOC01-appb-I000020

 位置差を次の式(21)のとおり定義する。

Figure JPOXMLDOC01-appb-I000021

 このヤコビ行列は次の式(22)のとおりとなる。

Figure JPOXMLDOC01-appb-I000022

 追尾誤差の期待値である誤差共分散行列をPとして、式(23)の計算をする。

Figure JPOXMLDOC01-appb-I000023

 これを位置差の期待値とする。閾値はこれの定数倍とする。
 速度差についても同様にして閾値を決定できる。
 速度差を次の式(24)のとおり定義する。

Figure JPOXMLDOC01-appb-I000024

 ヤコビ行列は次の式(25)のとおりとなる。

Figure JPOXMLDOC01-appb-I000025

 追尾誤差の期待値である誤差共分散行列をPとして、式(26)の計算をする。

Figure JPOXMLDOC01-appb-I000026

 これを速度差の期待値とする。閾値はこれの定数倍とする。
 速度については、車両の旋回時に、車両を剛体と見做した場合の同一車両内の2点間で発生する可能性のある速度差の最大値、
  剛体の長さ×角速度の最大値
を閾値としてもよい。あるいは、方向のみの一致度合による判定でもよい。
 以上の処理により、平滑ベクトルの位置差および速度差が閾値以内の航跡の組合せを統合候補として抽出する。
 このようにして航跡の組合せを抽出する場合、並走する小目標の集団から複数の航跡が統合候補として抽出されうる。例えば、図5に示されたように、互いに接近して走行する複数の車両のそれぞれについて航跡が抽出される。そこで、並走する小目標の集団が同一目標に係ると判定しないようにするため、同一目標判定部23は、クラスタリング前の観測値数を用いて、複数の航跡が単一の目標に係るのか、複数の目標に係るのかを判定する。より具体的には、上記で抽出された航跡の組み合わせ候補について、同一目標判定部23は、以下の(a)~(c)の何れかの処理を行って、複数の航跡が1目標に係るか、並進する複数の目標に係るかを判定する。
(a)検出点数に閾値を設け、検出点数が閾値を上回れば1目標、そうでなければ並進複数目標と判定する。すなわち、一続きの目標のクラスタリング前の観測値数は、小型の複数の目標のクラスタリング前の観測値数よりも多いと予想できるので、検出点数に閾値を設けて、1目標か並進複数目標かの判定を行う。
(b)「検出点群が一様分布」との仮説を標本の分散と理想値(幅/12)により検定する。仮説成立ならば1目標と判定し、仮説不成立ならば並進複数目標と判定する。
(c)空白(検出点の不存在)の検出により偏りを判定する。ある固定幅の微小ウインドウを設定して、図7で示すように微小ウインドウを状態空間内で移動させ、微小ウインドウが検出点と常に交わる場合には1目標と判定する。微小ウインドウが検出点と常に交わるのでない場合には並進複数目標であると判定する。なお、微小ウインドウの幅は、アプリケーションに応じて事前に設定されるパラメータである。
 次に、ステップST4において、航跡統合部24は、ステップST3で同一視された統合対象の航跡群の統合処理を行う。統合対象の航跡群G={Ti}(i=1,2,・・・,M)中の航跡Tiの航跡信頼度をβk,i(i=1,2,・・・,M)とし、航跡の平滑ベクトルを k,i(+)、平滑誤差共分散行列をPk,i(+)とする。航跡信頼度としては、相関決定にMHTを用いている場合は該当航跡を採択している仮説の信頼度の和、その他の方式を用いている場合には航跡の尤度を正規化した値を用いることができる。例えば、最新時刻の観測値に対する航跡の尤度を正規化した値、あるいは各時刻の観測値に対する航跡の尤度を積算した値を用いることができる。これらの航跡を統合した後の統合平滑諸元は、以下の式(27)および式(28)のように計算する。

Figure JPOXMLDOC01-appb-I000027


Figure JPOXMLDOC01-appb-I000028
 以上のように,この実施の形態1で説明した開示によれば、追尾入力の観測値のクラスタリング前の検出点数の情報を用いて航跡統合の実行の有無を判定する。このため小型集団目標の航跡群を纏めてしまう副作用を回避しつつ、1目標から複数の航跡が生成されることを防止することができる。
<付記>
 以上で説明した種々の実施形態のいくつかの側面について、以下のとおりまとめる。
(付記1)
 付記1の目標追尾装置(2)は、センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するクラスタリング処理部(21)と、その算出された複数の代表点を時系列処理して、複数の航跡を追尾する追尾処理部(22)と、前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定する同一目標判定部(23)と、前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合する航跡統合部(24)と、を備える。
(付記2)
 付記2の目標追尾装置は、付記1に記載された目標追尾装置であって、前記同一目標判定部は、前記複数の検出点の数が予め定められた閾値より大きい場合は前記複数の航跡が同一の目標に係り、前記複数の検出点の数が前記閾値以下である場合は前記複数の航跡が同一の目標に係らないと判定する。
(付記3)
 付記3の目標追尾装置は、付記1に記載された目標追尾装置であって、前記同一目標判定部は、前記複数の検出点について、前記複数の検出点の空間的分布が一様との仮説を検定し、前記仮説が成立する場合は前記複数の航跡が同一の目標に係り、前記仮説が成立しない場合は前記複数の航跡が同一の目標に係らないと判定する。
(付記4)
 付記4の目標追尾装置は、付記1に記載された目標追尾装置であって、前記同一目標判定部は、固定幅のウインドウを状態空間内で移動させ、前記ウインドウが前記複数の検出点のいずれか1つの検出点を常に包含する場合は前記複数の航跡が同一の目標に係り、前記ウインドウが前記複数の検出点のいずれか1つの検出点を常に包含するのでない場合は前記複数の航跡が同一の目標に係らないと判定する。
(付記5)
 付記5の目標追尾方法は、クラスタリング処理部、追尾処理部、同一目標判定部、および航跡統合部を備える目標追尾装置が行う目標追尾方法であって、前記クラスタリング処理部により、センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するステップ(ST1)と、前記追尾処理部により、その算出された複数の代表点を時系列処理して、複数の航跡を追尾するステップ(ST2)と、前記同一目標判定部により、前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定するステップ(ST3)と、前記航跡統合部により、前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合するステップ(ST4)と、を備える。
(付記6)
 付記6の目標追尾プログラムは、センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するクラスタリング処理機能と、その算出された複数の代表点を時系列処理して、複数の航跡を追尾する追尾処理機能と、前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定する同一目標判定機能と、前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合する航跡統合機能と、をコンピュータに実行させる。
 なお、実施形態を組み合わせたり、各実施形態を適宜、変形、省略したりすることが可能である。
 本開示の目標追尾装置は、車両の衝突防止システムにおいて用いることができる。
 1 センサ、2 目標追尾装置、3 追尾航跡保存部、4 表示装置、21 クラスタリング処理部、22 追尾処理部、23 同一目標判定部、24 航跡統合部、101 処理回路、102 プロセッサ、103 メモリ。

Claims (6)

  1.  センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するクラスタリング処理部と、
     その算出された複数の代表点を時系列処理して、複数の航跡を追尾する追尾処理部と、
     前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定する同一目標判定部と、
     前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合する航跡統合部と、
    を備える目標追尾装置。
  2.  前記同一目標判定部は、前記複数の検出点の数が予め定められた閾値より大きい場合は前記複数の航跡が同一の目標に係り、前記複数の検出点の数が前記閾値以下である場合は前記複数の航跡が同一の目標に係らないと判定する、
    請求項1に記載された目標追尾装置。
  3.  前記同一目標判定部は、前記複数の検出点について、前記複数の検出点の空間的分布が一様との仮説を検定し、前記仮説が成立する場合は前記複数の航跡が同一の目標に係り、前記仮説が成立しない場合は前記複数の航跡が同一の目標に係らないと判定する、
    請求項1に記載された目標追尾装置。
  4.  前記同一目標判定部は、固定幅のウインドウを状態空間内で移動させ、前記ウインドウが前記複数の検出点のいずれか1つの検出点を常に包含する場合は前記複数の航跡が同一の目標に係り、前記ウインドウが前記複数の検出点のいずれか1つの検出点を常に包含するのでない場合は前記複数の航跡が同一の目標に係らないと判定する、
    請求項1に記載された目標追尾装置。
  5.  クラスタリング処理部、追尾処理部、同一目標判定部、および航跡統合部を備える目標追尾装置が行う目標追尾方法であって、
     前記クラスタリング処理部により、センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するステップと、
     前記追尾処理部により、その算出された複数の代表点を時系列処理して、複数の航跡を追尾するステップと、
     前記同一目標判定部により、前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定するステップと、
     前記航跡統合部により、前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合するステップと、
    を備える目標追尾方法。
  6.  センサから得られる複数の検出点を複数のクラスタにクラスタリングして、各クラスタの代表点を算出するクラスタリング処理機能と、
     その算出された複数の代表点を時系列処理して、複数の航跡を追尾する追尾処理機能と、
     前記複数の検出点の分布の状態から、前記複数の航跡が同一の目標に係るか否かを判定する同一目標判定機能と、
     前記複数の航跡が同一の目標に係ると判定された場合、前記複数の航跡を1つの追尾航跡として統合する航跡統合機能と、
    をコンピュータに実行させる目標追尾プログラム。
PCT/JP2022/026133 2022-06-30 2022-06-30 目標追尾装置、目標追尾方法、および目標追尾プログラム WO2024004113A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/026133 WO2024004113A1 (ja) 2022-06-30 2022-06-30 目標追尾装置、目標追尾方法、および目標追尾プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/026133 WO2024004113A1 (ja) 2022-06-30 2022-06-30 目標追尾装置、目標追尾方法、および目標追尾プログラム

Publications (1)

Publication Number Publication Date
WO2024004113A1 true WO2024004113A1 (ja) 2024-01-04

Family

ID=89382369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/026133 WO2024004113A1 (ja) 2022-06-30 2022-06-30 目標追尾装置、目標追尾方法、および目標追尾プログラム

Country Status (1)

Country Link
WO (1) WO2024004113A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057339A (ja) * 2001-06-07 2003-02-26 Nissan Motor Co Ltd 物体検出装置
JP2012145444A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 歩行者検出装置
JP2013228259A (ja) * 2012-04-25 2013-11-07 Toyota Motor Corp 物体識別装置及び物体識別方法
JP2017134824A (ja) * 2015-12-30 2017-08-03 ダッソー システムズDassault Systemes 密度ベースのグラフィカルマッピング
JP2019053490A (ja) * 2017-09-14 2019-04-04 株式会社デンソー 物標認識装置、物標認識方法及び車両制御システム
CN110927742A (zh) * 2019-11-19 2020-03-27 杭州飞步科技有限公司 障碍物跟踪方法、装置、设备及存储介质
CN111226132A (zh) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 一种目标检测方法、设备、毫米波雷达及可移动平台

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057339A (ja) * 2001-06-07 2003-02-26 Nissan Motor Co Ltd 物体検出装置
JP2012145444A (ja) * 2011-01-12 2012-08-02 Toyota Motor Corp 歩行者検出装置
JP2013228259A (ja) * 2012-04-25 2013-11-07 Toyota Motor Corp 物体識別装置及び物体識別方法
JP2017134824A (ja) * 2015-12-30 2017-08-03 ダッソー システムズDassault Systemes 密度ベースのグラフィカルマッピング
JP2019053490A (ja) * 2017-09-14 2019-04-04 株式会社デンソー 物標認識装置、物標認識方法及び車両制御システム
CN111226132A (zh) * 2019-03-18 2020-06-02 深圳市大疆创新科技有限公司 一种目标检测方法、设备、毫米波雷达及可移动平台
CN110927742A (zh) * 2019-11-19 2020-03-27 杭州飞步科技有限公司 障碍物跟踪方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
EP1610152B1 (en) Tracking of a moving object for a self-defence system
CN109444932B (zh) 一种车辆定位方法、装置、电子设备及存储介质
CN110134126B (zh) 轨迹匹配方法、装置、设备和介质
JP5057858B2 (ja) 目標追尾装置、目標追尾方法、目標追尾プログラム
CN112530202B (zh) 一种车辆变道的预测方法、装置、设备及车辆
US11300663B2 (en) Method for predicting a motion of an object
KR101402206B1 (ko) 운동학 및 형상 정보를 활용한 다중 표적 추적 방법
JP2007249309A (ja) 障害物追跡装置及びその方法
CN115063454B (zh) 多目标跟踪匹配方法、装置、终端及存储介质
CN111259332B (zh) 一种杂波环境下的模糊数据关联方法及多目标跟踪方法
CN116416277A (zh) 一种基于运动方程轨迹预测的多目标跟踪方法及装置
CN114002667A (zh) 一种基于随机矩阵法的多近邻扩展目标跟踪算法
WO2024004113A1 (ja) 目標追尾装置、目標追尾方法、および目標追尾プログラム
CN111274529B (zh) 一种鲁棒的高斯逆威沙特phd多扩展目标跟踪算法
CN111504327A (zh) 一种基于航迹平滑技术的广义标签多伯努利多目标跟踪方法
CN111007880A (zh) 一种基于汽车雷达的扩展目标跟踪方法
JP2004219300A (ja) 目標追尾装置
CN114817765A (zh) 基于地图的目标航向消歧
CN111985379A (zh) 基于车载雷达的目标追踪方法、装置、设备及车辆
JP3750855B2 (ja) 目標追尾装置
US11555913B2 (en) Object recognition device and object recognition method
KR20190090604A (ko) V2v 통신과 레이다 센서 객체 번호 일치 방법 및 장치
CN113281736B (zh) 基于多假设singer模型的雷达机动交汇目标跟踪方法
JP2002286838A (ja) 目標追尾装置及び目標追尾方法
Lindenmaier et al. Comparison of sensor data fusion algorithms for automotive perception system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22949387

Country of ref document: EP

Kind code of ref document: A1