WO2017138119A1 - 目標追尾装置 - Google Patents

目標追尾装置 Download PDF

Info

Publication number
WO2017138119A1
WO2017138119A1 PCT/JP2016/053987 JP2016053987W WO2017138119A1 WO 2017138119 A1 WO2017138119 A1 WO 2017138119A1 JP 2016053987 W JP2016053987 W JP 2016053987W WO 2017138119 A1 WO2017138119 A1 WO 2017138119A1
Authority
WO
WIPO (PCT)
Prior art keywords
turning
track
processing unit
target
wake
Prior art date
Application number
PCT/JP2016/053987
Other languages
English (en)
French (fr)
Inventor
佑樹 高林
系 正義
和弘 青山
小幡 康
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2017559896A priority Critical patent/JP6279188B2/ja
Priority to PCT/JP2016/053987 priority patent/WO2017138119A1/ja
Publication of WO2017138119A1 publication Critical patent/WO2017138119A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G9/00Traffic control systems for craft where the kind of craft is irrelevant or unspecified

Definitions

  • the present invention relates to a target tracking device for estimating a wake including information on a target position from sensor observation values.
  • a target tracking device that generates a highly accurate fusion track by fusing the track estimated by itself with a track transmitted from another target tracking device is provided in the following patent document. 1 is disclosed.
  • this target tracking device for the purpose of reducing the communication capacity of the network, it is determined whether or not the error of the fusion track can be greatly reduced by fusing the estimated track with the fusion track. Only when it is determined that the error can be greatly reduced, the wake estimated by itself is transmitted to another target tracking device.
  • the conventional target tracking device is configured as described above, it is possible to reduce the communication frequency of the network by reducing the transmission frequency of the wake estimated by itself.
  • the transmission frequency of the wake may be lowered even when the target is making a turning motion. is there. If the transmission frequency of the wake is lowered while the target is making a turning motion, there is a problem that the tracking accuracy of the turning target may deteriorate due to insufficient wake data amount. It was.
  • the present invention has been made to solve the above-described problems, and an object thereof is to obtain a target tracking device capable of reducing the communication capacity while ensuring the tracking accuracy of a turning target.
  • a target tracking device includes a tracking processing unit that estimates a partial track including information on a target position from time-series data of observation values indicating target positions output from a sensor, and time-series data of observation values
  • a turn determination unit that determines whether or not the target is turning, a fusion track storage unit that stores a fusion track including information on the target position, and a time of the partial track estimated by the tracking processing unit
  • a transmission determination unit that determines whether or not to transmit the partial track estimated by the tracking processing unit from the time difference from the time of the fusion track stored in the track storage unit and the determination result of the turning determination unit; and transmission
  • the transmission / reception unit that transmits the partial track to the other target tracking device and receives the partial track transmitted from the other target tracking device; Established, the Wake Fusion Department Using the transmission or reception portions track by the receiving unit, in which so as to update the fusion track stored in the fusion track storage unit.
  • the turn determination unit that determines whether or not the target is turning from the time series data of the observation values, and the time of the partial wake estimated by the tracking processing unit and the fusion wake storage unit are stored.
  • a transmission determination unit that determines whether or not to transmit the partial track estimated by the tracking processing unit from the time difference from the time of the fusion track and the determination result of the turning determination unit is provided, and the transmission / reception unit is a transmission determination unit
  • the transmission / reception unit is a transmission determination unit
  • FIG. 1 It is a block diagram which shows the target tracking apparatus by Embodiment 1 of this invention. It is a hardware block diagram of the target tracking apparatus by Embodiment 1 of this invention. It is a hardware block diagram of a computer in case a target tracking apparatus is implement
  • 4 is a configuration diagram showing a turning start determination processing unit 71 of a turning determination unit 17.
  • FIG. FIG. 5 is a configuration diagram showing a turning end determination processing unit 73 of a turning determination unit 17.
  • 4 is a configuration diagram showing a turning level calculation processing unit 75 of the turning determination unit 17.
  • FIG. 7 is a flowchart showing processing contents of a turning start determination processing unit 71.
  • 7 is a flowchart showing processing contents of a turning end determination processing unit 73.
  • It is a flowchart which shows the processing content of the threshold value determination process part 73h.
  • It is explanatory drawing which shows the transmission determination concept in the transmission determination part 19.
  • FIG. It is a conceptual diagram which shows the time change of the fusion wake error before and during turning, and the transmission frequency of partial wakes. It is a conceptual diagram which shows the time change of the fusion wake error before the turn in the case of not using a transmission threshold value, and the turn, and the transmission frequency of a partial wake.
  • FIG. 4 is a configuration diagram showing a turning start determination processing unit 71 of a turning determination unit 17.
  • FIG. 5 is a configuration diagram showing a turning end determination processing unit 73 of a turning determination unit 17.
  • 4 is a flowchart showing processing contents of a flag update processing unit 101.
  • 5 is a flowchart showing processing contents of an erroneous determination cancellation processing unit 103.
  • 7 is a flowchart showing processing contents of a turning end determination processing unit 73. It is a flowchart which shows the processing content of the threshold value determination process part 73h.
  • FIG. 1 is a block diagram showing a target tracking device according to Embodiment 1 of the present invention
  • FIG. 2 is a hardware configuration diagram of the target tracking device according to Embodiment 1 of the present invention
  • FIG. 1 shows an example in which M (M is an integer of 2 or more) target tracking devices 1-1 to 1-M are connected to the network 2.
  • the internal configurations of the target tracking devices 1-1 to 1-M are the same. 1 and 2, for example, a radar, an optical camera, an infrared camera, or the like is assumed as the sensor 11.
  • the sensor 11 observes the position of a target to be observed, and is a sensor observation that is an observation value of that position. The value is output to the tracking processing unit 12.
  • FIG. 1 shows an example in which the target tracking devices 1-1 to 1-M are mounted with the sensor 11, but the sensor 11 is provided outside the target tracking devices 1-1 to 1-M. Also good.
  • the tracking processing unit 12 includes a sensor track storage unit 13, a sensor tracking processing unit 14, a partial track storage unit 15, and a retracking processing unit 16. From the time series data of sensor observation values output from the sensor 11, the tracking processing unit 12 As the partial track including the position information, for example, a partial track having a state vector such as the current position and speed of the target is estimated.
  • the sensor track storage unit 13 is realized by, for example, the storage processing circuit 41 of FIG. 2 and stores the sensor correlated tracked sensor observation value estimated by the sensor tracking processing unit 14 and the sensor correlated value.
  • the sensor tracking processing unit 14 is realized by, for example, the sensor tracking processing circuit 42 of FIG. 2, and the position indicated by the sensor observation value output from the sensor 11 and the sensor track stored in the sensor track storage unit 13 are determined. A process of determining whether or not the indicated position is correlated is performed. Further, when the sensor tracking processing unit 14 determines that the position indicated by the sensor observation value is correlated with the position indicated by the sensor track, the sensor tracking value is stored in the sensor track storage unit 13 as a target correlated sensor observation value. At the same time, the target correlated sensor observation value is output to the re-tracking processing unit 16 and the turning determination unit 17.
  • the sensor tracking processing unit 14 has a state vector such as the current position and speed of the target from the target correlated sensor observation value and the past target correlated sensor observation value stored in the sensor track storage unit 13.
  • the sensor wake is estimated, and the sensor wake stored in the sensor wake storage unit 13 is replaced with the estimated sensor wake.
  • the partial wake storage unit 15 is realized by, for example, the storage processing circuit 41 in FIG. 2 and stores the partial wake estimated by the re-tracking processing unit 16 and the sensor correlation sensor observation value that is a sensor observation value. .
  • the retracking processing unit 16 is realized by, for example, the retracking processing circuit 43 in FIG. 2, and is stored in the partial track storage unit 15 and the position indicated by the target correlated sensor observation value output from the sensor tracking processing unit 14. A process of determining whether or not the position indicated by the partial track is correlated is performed. When the re-tracking processing unit 16 determines that the position indicated by the target correlated sensor observation value output from the sensor tracking processing unit 14 is correlated with the position indicated by the sensor track, the target correlated sensor observation value is determined.
  • Is stored in the partial wake storage unit 15, and the current position and speed of the target are determined from the target correlated sensor observation values and the past target correlated sensor observation values stored in the partial wake storage unit 15.
  • a process of estimating a partial wake having a vector is performed. Further, the re-tracking processing unit 16 replaces the partial track stored in the partial track storage unit 15 with the estimated partial track, and the target which is the determination result of the turning determination unit 17 with respect to the estimated partial track.
  • a turning flag indicating the presence or absence of turning and a turning level indicating the target turning degree are added, and a process of outputting the turning flag and the partial track with the turning level to the transmission determination unit 19 is performed.
  • the turning determination unit 17 is realized by, for example, the turning determination processing circuit 44 of FIG. 2, and whether or not the target is turning from the time series data of the target correlated sensor observation values output from the sensor tracking processing unit 14. As a result of the determination, a process of outputting a turning flag indicating the presence or absence of the target turning to the re-tracking processing unit 16 is performed.
  • the fusion track storage unit 18 is realized by, for example, the storage processing circuit 41 in FIG. 2, and stores the fusion track estimated by the track fusion unit 21 as a fusion track including target position information.
  • the transmission determination unit 19 is realized by, for example, the transmission determination processing circuit 45 of FIG. 2, and is stored in the fusion track storage unit 18 and the time of the partial wake with the turn flag and the turn level output from the retracking processing unit 16. Based on the time difference from the time of the integrated wake and the turn flag attached to the partial wake, a process for determining whether or not to transmit the partial wake with the turn flag and the turn level is performed. At this time, the transmission determination unit 19 is more in the case where the turn flag attached to the partial track indicates that the target is turning than in the case where the target is not turning. The frequency at which the determination result indicating that the partial wake with the turning flag and the turning level is transmitted is increased.
  • the transmission / reception unit 20 is realized by, for example, the transmission / reception processing circuit 46 of FIG. 2, and when the determination result of the transmission determination unit 19 indicates that a partial track with a turning flag and a turning level is transmitted, the network 2 Then, a partial wake with a turning flag and a turning level is transmitted to the other target tracking device 1-M, and the partial wake is output to the wake fusion unit 21. In addition, when the transmission / reception unit 20 receives a partial wake transmitted from another target tracking apparatus 1-M via the network 2, the transmission / reception unit 20 performs a process of outputting the partial wake to the wake fusion unit 21.
  • the wake fusion unit 21 includes a correlation determination unit 22 and a fusion tracking processing unit 23, and is stored in the fusion wake storage unit 18 using the partial wake with the turn flag and the turn level output from the transmission / reception unit 20.
  • Implement a process to update the fusion track The correlation determination unit 22 is realized by, for example, the correlation determination processing circuit 47 of FIG. 2, and is stored in the fusion track storage unit 18 and the position indicated by the partial track with the turn flag and the turn level output from the transmission / reception unit 20.
  • the process which determines whether the position which the fusion wake which is shown correlates is implemented.
  • the fusion tracking processing unit 23 is realized by, for example, the fusion tracking processing circuit 48 of FIG. 2.
  • the correlation determination unit 22 determines that there is a correlation, the turning flag and the turning level output from the transmission / reception unit 20.
  • the fusion wake having a state vector such as the current position and speed of the target is estimated from the partial wake with and the fusion wake stored in the fusion wake storage unit 18, and the fusion wake stored in the fusion wake storage unit 18. Is replaced with the estimated fusion wake.
  • the fusion tracking processing unit 23 determines that there is no correlation by the correlation determination unit 22, the fusion track storage unit 18 uses the partial track with the turn flag and the turn level output from the transmission / reception unit 20 as a new fusion track. The process to record in is performed.
  • the display processing unit 24 is realized by, for example, the display processing circuit 49 of FIG. 2, and includes a fusion track estimated by the fusion tracking processing unit 23, a turn flag determined to be correlated by the correlation determination unit 22, and A process for displaying a partial track with a turning level on a display or the like is performed.
  • Each of the transmission determination unit 19, the transmission / reception unit 20, the correlation determination unit 22, the fusion tracking processing unit 23, and the display processing unit 24 includes dedicated hardware as illustrated in FIG. 2, that is, a storage processing circuit 41 and a sensor tracking processing circuit. 42, assuming re-tracking processing circuit 43, turning determination processing circuit 44, transmission determination processing circuit 45, transmission / reception processing circuit 46, correlation determination processing circuit 47, fusion tracking processing circuit 48 and display processing circuit 49. Yes.
  • the memory processing circuit 41 includes, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Memory), and the like.
  • a volatile semiconductor memory a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), or the like is applicable.
  • the sensor tracking processing circuit 42, the re-tracking processing circuit 43, the turning determination processing circuit 44, the transmission determination processing circuit 45, the transmission / reception processing circuit 46, the correlation determination processing circuit 47, the fusion tracking processing circuit 48, and the display processing circuit 49 are, for example, A single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination thereof.
  • the components of the target tracking device are not limited to those realized by dedicated hardware, and the target tracking device may be realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are stored as programs in the memory of the computer.
  • the computer means hardware that executes a program, and includes, for example, a CPU (Central Processing Unit), a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, a DSP (Digital Signal Processor), and the like.
  • FIG. 3 is a hardware configuration diagram of a computer when the target tracking device is realized by software, firmware, or the like.
  • the sensor track storage unit 13, the partial track storage unit 15, and the fusion track storage unit 18 are configured on the memory 61 of the computer, and the sensor tracking processing unit 14, retracking
  • a program for causing the computer to execute the processing procedures of the processing unit 16, turning determination unit 17, transmission determination unit 19, transmission / reception unit 20, correlation determination unit 22, fusion tracking processing unit 23, and display processing unit 24 is stored in the memory 61.
  • the computer processor 62 may execute a program stored in the memory 61.
  • FIG. 2 shows an example in which each component of the target tracking device is realized by dedicated hardware
  • FIG. 3 shows an example in which the target tracking device is realized by software, firmware, or the like.
  • Some components in the tracking device may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
  • the sensor 11, the transmission / reception unit 20, and the display processing unit 24 are realized by dedicated hardware
  • the fusion track storage unit 18, the transmission determination unit 19, the correlation determination unit 22, and the fusion tracking processing unit 23 can be realized by software, firmware, or the like.
  • the combination of dedicated hardware and software is arbitrary.
  • FIG. 4 is a block diagram showing the turning determination unit 17 of the target tracking device according to Embodiment 1 of the present invention.
  • the turn start determination processing unit 71 detects the target correlated sensor observation value output from the sensor tracking processing unit 14 and the target turn stored in the turn flag database (hereinafter “turn flag DB”) 72.
  • a turning start determination process for determining the start of turning is performed using the turning flag indicating presence / absence, and the turning flag stored in the turning flag DB 72 is updated.
  • the turning flag DB 72 is a memory that stores a turning flag indicating the presence or absence of a target turning. It is assumed that the initial value of the turning flag stored in the turning flag DB 72 indicates “non-turning”.
  • the turn end determination processing unit 73 performs a turn end determination process for determining the end of the turn using the target correlated sensor observation value output from the sensor tracking processing unit 14 and the turn flag stored in the turn flag DB 72. It carries out and updates the turning flag memorize
  • the turning flag output processing unit 74 performs a process of outputting the turning flag stored in the turning flag DB 72 to the turning level calculation processing unit 75 and the retracking processing unit 16.
  • the turning level calculation processing unit 75 uses the target correlated sensor observation value output from the sensor tracking processing unit 14. Then, the turning level indicating the target turning degree is calculated, and the turning level is output to the retracking processing unit 16.
  • FIG. 5 is a configuration diagram illustrating the turning start determination processing unit 71 of the turning determination unit 17.
  • an observation value database for turning start determination (hereinafter referred to as an “observation value DB for turning start determination”) 71 a stores target correlated sensor observation values for the past Nth samples output from the sensor tracking processing unit 14. Memory.
  • a speed database (hereinafter referred to as “speed DB”) 71b is a memory that accumulates smoothing speeds for the past Nth samples.
  • a smooth wake database for turning start determination hereinafter referred to as “smooth wake DB for turning start determination”
  • 71c is a memory for storing smooth wakes for the past Nth samples.
  • the initialization processing unit 71d stores the accumulated data of the turning start determination observation value DB 71a, the speed DB 71b, and the turning start determination smooth track DB 71c, that is, the target correlation. The completed sensor observation value, smooth speed and smooth track are deleted, and the turn start determination process is terminated.
  • the turning flag stored in the turning flag DB 72 is “non-turning”, the execution of the subsequent turning start determination process is permitted.
  • the linear trajectory estimation processing unit 71e assumes that the target motion state is constant-velocity linear motion, and uses the linear least square method, the Kalman filter, or the like, for example, to store the past accumulated in the observation value DB 71a for turning start determination.
  • the target smoothed position and smoothing speed are calculated from the target correlated sensor observation values for Nth samples, and the smoothing position error covariance matrix and smoothing speed error covariance matrix are calculated. Further, the linear trajectory estimation processing unit 71e stores the calculated smoothing speed in the speed DB 71b.
  • the speed re-smoothing processing unit 71f assumes that the target motion state is a constant-velocity linear motion, and uses, for example, a linear least square method or a Kalman filter to smooth the past Nth samples accumulated in the speed DB 71b. From the speed, a process of calculating a re-smoothing speed that is a re-smoothed speed and a re-smoothing speed error variance matrix is performed.
  • the speed re-smoothing processing unit 71f performs a process of replacing the speed term of the smoothing speed and smoothing error covariance matrix calculated by the linear trajectory estimation processing unit 71e with a re-smoothing speed and a re-smoothing speed error variance matrix.
  • the smooth wake is calculated and stored in the smooth wake DB 71c for turning start determination.
  • the N-step prediction processing unit 71g performs a process of calculating a predicted track having a state vector such as the current position and speed of the target from the smooth tracks for the past Nth samples accumulated in the smooth start DB 71c for turning start determination. .
  • the Mahalanobis square distance calculation processing unit 71h calculates the predicted track from the position indicated by the predicted track calculated by the N step prediction processing unit 71g and the position indicated by the target correlated sensor observation value output from the sensor tracking processing unit 14. A process of calculating the Mahalanobis square distance between the indicated position and the position indicated by the target correlated sensor observation value is performed.
  • the time direction smoothing processing unit 71i performs processing for smoothing the Mahalanobis square distance calculated by the Mahalanobis square distance calculation processing unit 71h in the time direction.
  • the threshold value determination processing unit 71j compares the Mahalanobis square distance smoothed in the time direction by the time direction smoothing processing unit 71i with a preset threshold value, and if the Mahalanobis square distance is greater than the threshold value, the turning has started. And the turning flag stored in the turning flag DB 72 is set to “turning”. If the Mahalanobis square distance is less than or equal to the threshold value, it is determined that turning has not started, and is stored in the turning flag DB 72. The process of maintaining the “non-turning” turning flag is executed.
  • FIG. 6 is a configuration diagram illustrating the turning end determination processing unit 73 of the turning determination unit 17.
  • an observation value database for turning end determination (hereinafter referred to as “turning end determination observation value DB”) 73 a stores target correlated sensor observation values for the past Nth samples output from the sensor tracking processing unit 14. Memory.
  • a smooth wake database for turning completion determination (hereinafter referred to as “smooth wake DB for turning completion determination”) 73b is a memory for accumulating smooth wakes for the past Nth samples.
  • the initialization processing unit 73c stores the accumulated data of the turning end determination observation value DB 73a and the turning end determination smooth track DB 73b, that is, the target correlated sensor. The observation value and the smooth track are deleted, and the turn end determination process ends.
  • the turning flag stored in the turning flag DB 72 is “turning”, the execution of the subsequent turning end determination process is permitted.
  • the trajectory estimation processing unit 73d assumes that the target motion state is a uniform acceleration motion, and uses, for example, a linear least square method, a Kalman filter, or the like to store the past Nth samples accumulated in the smooth wake DB 73b for turning completion determination.
  • the target smoothed position, smoothing speed and smoothing acceleration are calculated as the target smooth track from the target correlated sensor observation value of the minute, and the smoothing position error covariance matrix and smoothing speed error covariance matrix are calculated. carry out.
  • the trajectory estimation processing unit 73d stores the calculated smooth track in the smooth track DB 73b for turning completion determination.
  • the N-step prediction processing unit 73e performs a process of calculating a predicted track having a state vector such as the current position and speed of the target from the smooth tracks for the past Nth samples accumulated in the smooth track DB 73b for turning completion determination.
  • the Mahalanobis square distance calculation processing unit 73f calculates the predicted track from the position indicated by the predicted track calculated by the N-step prediction processing unit 73e and the position indicated by the target correlated sensor observation value output from the sensor tracking processing unit 14. A process of calculating the Mahalanobis square distance between the indicated position and the position indicated by the target correlated sensor observation value is performed.
  • the time direction smoothing processing unit 73g performs a process of smoothing the Mahalanobis square distance calculated by the Mahalanobis square distance calculation processing unit 73f in the time direction.
  • the threshold value determination processing unit 73h compares the Mahalanobis square distance smoothed in the time direction by the time direction smoothing processing unit 73g with a preset threshold value, and if the Mahalanobis square distance is equal to or less than the threshold value, the turning is finished. If the turning flag stored in the turning flag DB 72 is set to “non-turning” and the Mahalanobis square distance is larger than the threshold value, it is determined that the turning has not ended, and the turning flag DB 72 is set. A process of maintaining the stored “turn” turning flag is executed.
  • the threshold determination processing unit 73h compares the Mahalanobis square distance smoothed in the time direction with the threshold value.
  • the threshold determination processing unit 73h performs the smoothing Mahalanobis square distance at the current time
  • a difference value with the smoothed Mahalanobis square distance at the time may be calculated, and it may be determined that the turn is finished when the number of times that the difference value becomes negative exceeds a threshold value.
  • a difference value counter database hereinafter referred to as “difference value counter DB”
  • FIG. 7 is a configuration diagram showing the turning level calculation processing unit 75 of the turning determination unit 17.
  • the initialization processing unit 75a turns the observation value database for turning level calculation (hereinafter referred to as the “observation value DB for turning level calculation”).
  • the target correlated sensor observation value stored in 75b is deleted and the turning flag is “turn”, the target correlated sensor observation value output from the sensor tracking processing unit 14 is used for turning level calculation.
  • a process of storing in the observation value DB 75b is performed.
  • the turning level calculation observation value DB 75b is a memory for accumulating the target correlated sensor observation values output from the sensor tracking processing unit 14.
  • the turning trajectory estimation processing unit 75c assumes that the target motion state is a uniform acceleration motion, and uses, for example, the target correlation accumulated in the turning level calculation observation value DB 75b using a linear least square method, a Kalman filter, or the like.
  • the target acceleration is calculated from the measured sensor observation value, the target acceleration is converted into the turning level, and the turning level is output to the retracking processing unit 16.
  • FIG. 8 is a block diagram showing the transmission determination unit 19 of the target tracking device according to Embodiment 1 of the present invention.
  • the parameter change processing unit 81 changes the transmission determination system noise parameter and the transmission determination threshold according to the turning flag and the turning level attached to the partial track output from the retracking processing unit 16.
  • the fused track prediction processing unit 82 calculates a time difference between the time of the partial track output from the retracking processing unit 16 and the time of the fused track stored in the fused track storage unit 18, and the time difference and the parameter change processing unit 81.
  • a process for calculating a prediction error covariance matrix for transmission determination is performed using the system noise parameter changed by the above.
  • the determination error calculation processing unit 83 outputs the prediction error covariance matrix for transmission determination calculated by the fusion track prediction processing unit 82, the fusion track stored in the fusion track storage unit 18, and the retracking processing unit 16.
  • a process of calculating a fusion wake error, an updated fusion wake error, and a fusion wake error difference is performed from the obtained partial wakes.
  • the fusion track error is a spectral norm of the error covariance matrix of the fusion track.
  • the updated fusion wake error is a spectrum norm of the error covariance matrix of the fusion wake after updating with the partial wake based on the prediction error covariance matrix for transmission determination.
  • the wake error is defined by the spectrum norm of the error covariance matrix, it may be a trace norm of the error covariance matrix or a determinant.
  • the method for defining the norm is determined in advance by the user.
  • the error covariance matrix may be an error covariance matrix with only position components or an error covariance matrix with only velocity components.
  • the error covariance matrix can be defined by orthogonal coordinates or polar coordinates.
  • the determination processing unit 84 uses the fusion track error calculated by the determination error calculation processing unit 83, the updated fusion track error and the fusion track error difference, and the transmission determination threshold value changed by the parameter change processing unit 81.
  • the process for determining whether or not to transmit the partial track output from the retracking processing unit 16 is performed. At this time, the determination processing unit 84 is more in the case where the turn flag attached to the partial wake indicates that the target is turning than in the case where the target is not turning.
  • the frequency of issuing a determination result that permits transmission of the partial wake with the turning flag and the turning level is increased.
  • the sensor 11 observes the position of the target to be observed, and outputs a sensor observation value that is an observation value at that position to the tracking processing unit 12.
  • the sensor tracking processing unit 14 of the tracking processing unit 12 receives the sensor observation value from the sensor 11, for example, by executing a known correlation algorithm such as GNN (Global Nearest Neighbor), the position indicated by the sensor observation value Then, it is determined whether or not the position indicated by the sensor track stored in the sensor track storage unit 13 is correlated. That is, the sensor tracking processing unit 14 determines whether or not the sensor observation value output from the sensor 11 is observing the position of the target related to the sensor track estimated in the past.
  • GNN Global Nearest Neighbor
  • the sensor tracking processing unit 14 correlates the position indicated by the sensor observation value with the position indicated by the sensor wake stored in the sensor wake storage unit 13, and may associate the sensor observation value with the sensor wake. If it is determined that it is possible, the sensor observation value is stored in the sensor track storage unit 13 as the target correlated sensor observation value, and the target correlated sensor observation value is output to the retracking processing unit 16 and the turning determination unit 17. Further, the sensor tracking processing unit 14 executes a known tracking algorithm such as a Kalman filter, for example, so that the target correlated sensor observation value and the past target correlated sensor observation value stored in the sensor track storage unit 13 are stored. From the above, a sensor track having a state vector such as the current position and speed of the target is estimated. When the sensor tracking processing unit 14 estimates the sensor track, the sensor tracking stored in the sensor track storage unit 13 is replaced with the estimated sensor track by replacing the sensor track stored in the sensor track storage unit 13 with the estimated sensor track. Update.
  • the turning determination unit 17 determines whether or not the target is turning from the time series data of the target correlated sensor observation value, and the determination result As a result, a turn flag indicating whether or not the target is turning and a turn level indicating the degree of the target turn are output to the re-tracking processing unit 16.
  • the turning determination process by the turning determination unit 17 will be specifically described.
  • FIG. 9 is a flowchart showing the processing contents of the turning start determination processing unit 71.
  • the processing content of the turning start determination processing unit 71 will be specifically described with reference to FIG.
  • the observation value DB 71a for turning start determination of the turning start determination processing unit 71 records the target correlated sensor observation value output from the sensor tracking processing unit 14, and the observation value DB 71a for turning start determination stores past Nth samples.
  • the target correlated sensor observations are accumulated.
  • the initialization processing unit 71d performs initialization processing for turning start determination processing (step ST1 in FIG. 9). That is, when the turning flag stored in the turning flag DB 72 is “turning”, the initialization processing unit 71d is accumulated data of the turning start determination observation value DB 71a, the speed DB 71b, and the turning start determination smooth track DB 71c.
  • the target correlated sensor observation value, smoothing speed, and smooth track are deleted, and the turning start determination process is terminated.
  • the initialization processing unit 71d permits the subsequent turning start determination process to be performed. That is, the operations of the linear trajectory estimation processing unit 71e, the speed re-smoothing processing unit 71f, the N-step prediction processing unit 71g, the Mahalanobis square distance calculation processing unit 71h, the time direction smoothing processing unit 71i, and the threshold determination processing unit 71j are permitted.
  • the linear trajectory estimation processing unit 71e performs the linear trajectory estimation process when the number of target correlated sensor observation values accumulated in the turning start determination observation value DB 71a is Nth samples or more (step ST2: YES). Implement (step ST3). That is, the linear trajectory estimation processing unit 71e is accumulated in the turning start determination observation value DB 71a using, for example, a linear least square method or a Kalman filter, assuming that the target motion state is a constant velocity linear motion.
  • the smooth position and smooth speed for each axis are calculated by the linear least square method.
  • the calculation process of the linear trajectory estimation processing unit 71e will be specifically described taking the X axis as an example.
  • the linear trajectory estimation processing unit 71e calculates a smooth position p hat x, k with respect to the X axis and a smooth speed p dot hat x, k with respect to the X axis, as shown in the following equations (1) to (5). .
  • the symbol “ ⁇ ” cannot be added on the letter, it is expressed as p hat x, k .
  • p dot hat x are expressed as k.
  • T means transposition of a vector or matrix.
  • the linear trajectory estimation processing unit 71e calculates a smooth position and a smooth speed in the same procedure as described above for the Y axis and the Z axis.
  • the linear trajectory estimation processing unit 71e stores the calculated smoothing speed in the speed DB 71b.
  • the linear trajectory estimation processing unit 71e when the target position is defined by X, Y, and Z of the orthogonal coordinate system, the linear trajectory estimation processing unit 71e, as shown in the following equations (6) to (10), the smooth position vector p hat k , smoothed velocity vector p dots hat k, smoothed position error covariance matrix P pos, k, smoothed velocity error covariance matrix P vel, define the k.
  • a [i, j] means an element in the i-th row and j-th column of the matrix A.
  • Diag [a b c] means a matrix having elements a, b, and c as diagonal elements.
  • step ST2 NO
  • step ST11 when the number of target correlated sensor observation values accumulated in the turning start determination observation value DB 71a is less than Nth samples (step ST2: NO), linear trajectory estimation. No processing is performed. In this case, the process proceeds to step ST11.
  • the speed re-smoothing processing unit 71f performs the speed re-smoothing process (step ST4). That is, the speed re-smoothing processing unit 71f assumes that the target motion state is a constant-velocity linear motion, and uses, for example, a linear least square method or a Kalman filter to store past Nth samples stored in the speed DB 71b. A speed re-smoothing process of calculating a re-smoothing speed that is a re-smoothed speed and a re-smoothed speed error variance matrix is performed from the smooth speed of minutes.
  • the speed re-smoothing processing unit 71f performs a process of replacing the smoothing velocity and the velocity term of the smoothing error covariance matrix calculated by the linear trajectory estimation processing unit 71e with the re-smoothing velocity and the re-smoothing velocity error variance matrix.
  • the smooth wake is calculated by the above and the smooth wake is stored in the smooth wake DB 71c for turning start determination.
  • the calculation process of the speed re-smoothing processing unit 71f will be specifically described.
  • the speed re-smoothing processing unit 71f performs the re-smoothing speed V hat x, k and the re-smoothing speed error variance matrix P xV by the linear least square method with respect to the X axis. , K.
  • the speed re-smoothing processing unit 71f calculates the re-smoothing speed and the re-smoothing speed error variance matrix in the same procedure as described above for the Y axis and the Z axis.
  • the following formula (15) is used instead of the formula (12) for the Y axis
  • the following formula (16) is used for the Z axis instead of the formula (12).
  • the speed re-smoothing processing unit 71f converts the speed term of the smoothing speed p dot hat x, k and the smoothing speed error covariance matrix P vel, k calculated by the linear trajectory estimation processing unit 71e into the re-smoothing speed V hat x, k.
  • the smoothing speed error variance matrix P xV, k and the smoothed wake x hat k at the sampling time t k after the replacement is calculated by the following equation (17), and the smoothing error covariance matrix P k is It calculates by Formula (18).
  • subscript is y, it means the Y-axis direction, and if the subscript is z, it means the Z-axis direction.
  • the N-step prediction processing unit 71g includes the smooth wake stored in the turning start determination smooth wake DB 71c as shown in the following equation (19).
  • the time t b of the oldest smoothed track is compared with the time t k ⁇ Np + 1 before N p samples (step ST5).
  • step ST5 N-step prediction of calculating a predicted track having a state vector such as the current position and speed of the target from the smooth track for the past Nth samples accumulated in the smooth track DB 71c for turning start determination Processing is performed (step ST6). For example, according to uniform linear motion model to calculate the prediction vector with interpolation outside straight line from the N p samples before the smoothing track stored in the turning start determination smooth track DB71c.
  • the N-step prediction processing unit 71g predicts a prediction vector x hat k
  • N step prediction processing section 71g among smooth track stored in the turning start determination smooth track DB71c, time t b of the oldest smooth track is, N p samples before time t k-Np + 1 newer If the time (step ST5: in the case of nO), the order N p samples before smoothing track is not stored in the turning start determination smooth track DB71c, not performed N step prediction processing. In this case, the process proceeds to step ST11.
  • the Mahalanobis square distance calculation processing unit 71h is output from the sensor tracking processing unit 14 and the position indicated by the predicted track calculated by the N step prediction processing unit 71g when the N step prediction processing unit 71g performs the N step prediction processing. From the position indicated by the target correlated sensor observation value, the Mahalanobis square distance between the position indicated by the predicted track and the position indicated by the target correlated sensor observation value is calculated (step ST7).
  • the Mahalanobis square distance calculation processing section 71h as shown in equation (24) below, the predicted vector x hat k predicted trajectory in the latest sampling time t k
  • z x, k is the position in the X-axis indicated by the sensor observation value at the sampling time t k
  • z y, k is the position in the Y-axis indicated by the sensor observation value at the sampling time t k
  • z z , K is the position on the Z axis indicated by the sensor observation value at the sampling time t k .
  • Mahalanobis square distance calculation processing section 71h calculates the residual covariance matrix S k, using the residual covariance matrix S k, the following equation (28) As shown, the Mahalanobis square distance ⁇ v (k) is calculated.
  • the time direction smoothing processing unit 71i performs a time direction smoothing process for smoothing the Mahalanobis square distance ⁇ v (k) in the time direction. (Step ST8). That is, the time direction smoothing processing unit 71i smoothes the Mahalanobis square distance ⁇ v (k) in the time direction as shown in the following equation (29).
  • ⁇ av (k) is a time direction smooth value at the sampling time t k
  • is a coefficient set in advance.
  • the threshold determination processing unit 71j smooths the Mahalanobis square smoothed in the time direction as shown in the following equation (31).
  • the time direction smooth value ⁇ av (k) which is the distance, is compared with a preset threshold value Th turngn (step ST9).
  • the threshold determination processing unit 71j determines that the turn has started.
  • the turning flag stored in the turning flag DB 72 is set to “turn” (step ST10).
  • the threshold determination processing unit 71j determines that the turn has not started. Then, the “non-turning” turning flag stored in the turning flag DB 72 is maintained (step ST11). The threshold determination processing unit 71j is stored in the turning flag DB 72 even when the linear trajectory estimation processing is not performed by the linear trajectory estimation processing unit 71e or when the N step prediction processing is not performed by the N step prediction processing unit 71g. The turning flag “non-turning” is maintained (step ST11).
  • FIG. 10 is a flowchart showing the processing contents of the turning end determination processing unit 73.
  • the processing content of the turning end determination processing unit 73 will be specifically described with reference to FIG.
  • the observation value DB73a for turning end determination of the turning end determination processing unit 73 records the target correlated sensor observation value output from the sensor tracking processing unit 14, and the observation value DB 73a for turning end determination stores the past Nth samples.
  • the target correlated sensor observations are accumulated.
  • the initialization processing unit 73c performs an initialization process of the turning end determination process (step ST21 in FIG. 10). That is, when the turning flag stored in the turning flag DB 72 is “non-turning”, the initialization processing unit 73c is a target correlation that is accumulated data of the turning end determination observed value DB 73a and the turning end determination smooth track DB 73b. The completed sensor observation value and the smooth track are deleted, and the turning end determination process is ended.
  • the initialization processing unit 73c permits the subsequent turning end determination process to be performed. That is, the operations of the trajectory estimation processing unit 73d, the N step prediction processing unit 73e, the Mahalanobis square distance calculation processing unit 73f, the time direction smoothing processing unit 73g, and the threshold determination processing unit 73h are permitted.
  • the trajectory estimation processing unit 73d performs trajectory estimation processing when the number of target correlated sensor observation values accumulated in the turn end determination observation value DB 73a is equal to or greater than Nth samples (step ST22: YES). (Step ST23). That is, the trajectory estimation processing unit 73d is accumulated in the smooth wake DB for turning end determination using, for example, a linear least square method or a Kalman filter, assuming that the target motion state is a uniform acceleration motion. Calculates the smooth position, smooth velocity, and smooth acceleration of the target as the smooth track of the target from the observed values of the correlated sensors for the past Nth samples, and calculates the smooth position error covariance matrix and smooth velocity error covariance matrix. The trajectory estimation process is performed.
  • the target smooth position, smooth speed, and smooth acceleration for each axis are calculated by the linear least square method.
  • the calculation process of the trajectory estimation processing unit 73d will be specifically described by taking the X axis as an example.
  • the trajectory estimation processing unit 73d as shown in the following formulas (32) to (34) and formulas (4) and (5), the smooth position p hat x, k with respect to the X axis and the smooth speed p dot hat with respect to the X axis.
  • x, k and smooth acceleration p-two-hats x, k with respect to the X axis are calculated.
  • the symbols “ ⁇ ” and “ ⁇ ” cannot be added on the characters, so that the p-two-dot hats x and k It is written as follows.
  • the trajectory estimation processing unit 73d calculates a smooth position, a smooth speed, and a smooth acceleration with respect to the Y axis and the Z axis in the same procedure as described above.
  • the trajectory estimation processing unit 73d stores the smooth position, smooth speed, and smooth acceleration in the smooth wake DB 73b for turning completion determination as a smooth wake.
  • the trajectory estimation processing unit 73d when the target position is defined by X, Y, and Z of the orthogonal coordinate system, the trajectory estimation processing unit 73d, as shown in the above formulas (6) to (9), the smooth position vector p hat k , A velocity vector p dot hat k , a smooth position error covariance matrix P pos, k , and a smooth velocity error covariance matrix P vel, k are defined.
  • the trajectory estimation processing unit 73d performs trajectory estimation processing when the number of target correlated sensor observation values accumulated in the turn end determination observation value DB 73a is less than Nth samples (step ST22: NO). Not implemented. In this case, the process proceeds to step ST30.
  • the N-step prediction processing unit 73e in the smooth wake stored in the smooth wake DB 73b for turning completion, the time t b of the oldest smoothed track is compared with the time t k ⁇ Np + 1 before N p samples (step ST24).
  • step S ST24 YES
  • N-step prediction of calculating a predicted track having a state vector such as the current position and speed of the target from the smooth track for the past Nth samples accumulated in the smooth track DB 73b for turning completion determination Processing is performed (step ST25).
  • N step prediction processing of the N step prediction processing unit 73e is the same as the N step prediction processing of the N step prediction processing unit 71g shown in FIG.
  • N step prediction processing section 73e is in the smooth track stored in the pivot end decision smooth track DB73b, time t b of the oldest smooth track is, N p samples before time t k-Np + 1 newer If the time (step ST24: in the case of nO), the order N p samples before smoothing track is not stored in the pivot end decision smooth track DB73b, not performed N step prediction processing. In this case, the process proceeds to step ST30.
  • the Mahalanobis square distance calculation processing unit 73f outputs the position indicated by the predicted track calculated by the N step prediction processing unit 73e and the sensor tracking processing unit 14 when the N step prediction processing unit 73e performs the N step prediction processing. From the position indicated by the target correlated sensor observation value, the Mahalanobis square distance between the position indicated by the predicted track and the position indicated by the target correlated sensor observation value is calculated (step ST26).
  • the Mahalanobis square distance calculation processing in the Mahalanobis square distance calculation processing unit 73f is the same as the Mahalanobis square distance calculation processing in the Mahalanobis square distance calculation processing unit 71h shown in FIG.
  • the time direction smoothing processing unit 73g performs time direction smoothing processing for smoothing the Mahalanobis square distance ⁇ v (k) in the time direction.
  • Step ST27 For smoothing the Mahalanobis squared distance ⁇ v (k) in the time direction smoothing unit 73g is similar to the smoothing process Mahalanobis squared distance ⁇ v (k) in the time direction smoothing unit 71i illustrated in FIG. 5, Detailed description is omitted.
  • the threshold value determination processing unit 73h As shown in the following formula (36), Mahalanobis square smoothed in the time direction.
  • the time direction smooth value ⁇ av (k), which is the distance, is compared with a preset threshold value Th turnend (step ST28).
  • Threshold determination processing unit 73h the time becomes the directional smoothness value epsilon av (k) is equal to or less than the threshold value Th Turnend, if the expression (36) is satisfied (step ST28: YES), of determining that the turning is completed Thus, the turning flag stored in the turning flag DB 72 is set to “non-turning” (step ST29).
  • the threshold determination processing unit 73h determines that the turn has not ended.
  • the “turn” turn flag stored in the turn flag DB 72 is maintained (step ST30).
  • the threshold determination processing unit 73h is “turn” stored in the turning flag DB 72 even when the trajectory estimation processing unit 73d does not perform the trajectory estimation processing or when the N step prediction processing unit 73e does not perform the N step prediction processing.
  • the turning flag is maintained (step ST30).
  • FIG. 11 is a flowchart showing the processing contents of the threshold determination processing unit 73h.
  • the processing content of the threshold determination processing unit 73h will be specifically described with reference to FIG.
  • the time direction smoothing processing unit 73g calculates the time direction smoothing value ⁇ av (k) at the current time t k , the threshold determination processing unit 73h, as shown in the following equation (37), at the current time t k
  • a difference value ⁇ av (k) between the time direction smooth value ⁇ av (k) and the time direction smooth value ⁇ av (k ⁇ 1) at the previous time t k ⁇ 1 is calculated (step ST31 in FIG. 11).
  • Threshold determination processing unit 73h when calculating a difference value [Delta] [epsilon] av (k), if the difference value [Delta] [epsilon] av (k) is negative (step ST32: YES), of the count stored in the difference value counter DB37i Increment processing for increasing the value C by 1 is performed (step ST33).
  • the count value C indicates the number of times the difference value ⁇ av (k) has become negative, and the initial value of the count value C recorded in the difference value counter DB 37 i is 0. If the difference value ⁇ av (k) is equal to or greater than 0 (step ST32: NO), the threshold determination processing unit 73h maintains the count value C recorded in the difference value counter DB 37i (step ST34).
  • the threshold determination processing unit 73h compares the number of times C recorded in the difference value counter DB 37i with a preset threshold Th cnt (step ST35).
  • the threshold value determination processing unit 73h determines that the turn has ended. Determination is made and the turning flag stored in the turning flag DB 72 is set to “non-turning” (step ST36).
  • the threshold determination processing unit 73h stores in the turning flag DB 72 when the number of times C recorded in the difference value counter DB 37i is equal to or less than the threshold Th cnt and Expression (38) is not satisfied (in the case of NO at step ST35).
  • the turning flag for “turning” is maintained (step ST37).
  • the threshold determination processing unit 73h initializes the number of times C recorded in the difference value counter DB 37i to 0.
  • the turn flag output processing unit 74 of the turn determination unit 17 uses the turn flag stored in the turn flag DB 72 as the turn level calculation processing unit 75 and The result is output to the retracking processing unit 16.
  • the turning level calculation processing unit 75 of the turning determination unit 17 receives the turning flag from the turning flag output processing unit 74, the target correlated sensor output from the sensor tracking processing unit 14 when the turning flag is "turning". From the observed value, a turning level indicating the degree of turning of the target is calculated, and the turning level is output to the retracking processing unit 16.
  • the processing content of the turning level calculation process part 75 is demonstrated concretely.
  • the initialization processing unit 75a of the turning level calculation processing unit 75 completes the target correlation stored in the observation value DB 75b for turning level calculation. Delete sensor observations.
  • the initialization processing unit 75a uses the target correlated sensor observation value output from the sensor tracking processing unit 14 as the turning level calculation observation value DB 75b. To store.
  • the turning trajectory estimation processing unit 75c of the turning level calculation processing unit 75 assumes, for example, that the target motion state is a uniform acceleration motion, and uses, for example, a linear least square method, a Kalman filter, or the like to observe the turning level calculation observation value.
  • the target acceleration for the X axis, the Y axis, and the Z axis in the orthogonal coordinate system is calculated from the target correlated sensor observation values accumulated in the DB 75b.
  • the turning trajectory estimation processing unit 75c calculates the acceleration magnitude a hat as shown in the following equation (39).
  • the turning trajectory estimation processing unit 75 c converts the acceleration magnitude a hat into a turning level and outputs the turning level to the retracking processing unit 16. It is assumed that the acceleration magnitude a hat and the turning level are directly proportional to each other, and the turning level increases as the acceleration magnitude a hat increases.
  • the partial track storage unit 15 of the tracking processing unit 12 stores the partial track of the partial track previously estimated by the re-tracking processing unit 16 and the target correlated sensor observation value output from the sensor tracking processing unit 14.
  • the target correlated sensor observation value in which the correlation is recognized is stored.
  • the partial wake is basically composed of a state vector consisting of time, position, and speed and an error covariance matrix of the state vector.
  • a target number for identifying a target and a sensor 11 are identified.
  • An identification number such as a sensor number is assigned.
  • the identification number may be, for example, a number that identifies a target, a number that identifies the type of aircraft such as an aircraft or a satellite, or a number that is information indicating whether it is an enemy or a friend.
  • the state vector of the partial wake may be a state vector including the position of the sensor observation value, a state vector including the position and velocity, or a state vector including even the acceleration.
  • the re-tracking processing unit 16 of the tracking processing unit 12 receives the target correlated sensor observation value from the sensor tracking processing unit 14, for example, the re-tracking processing unit 16 executes the known correlation algorithm such as GNN so It is determined whether or not the position indicated by and the position indicated by the partial track stored in the partial track storage unit 15 are correlated. That is, the re-tracking processing unit 16 determines whether the target correlated sensor observation value output from the sensor tracking processing unit 14 is observing the position of the target related to the partial track estimated in the past. Determine.
  • the re-tracking processing unit 16 correlates the position indicated by the target correlated sensor observation value with the position indicated by the partial wake stored in the partial wake storage unit 15, and the target correlated sensor observation value is If it is determined that it can be associated with the partial track, the target correlated sensor observation value is stored in the partial track storage unit 15.
  • the re-tracking processing unit 16 executes a known tracking algorithm such as a Kalman filter, for example, so that the target correlated sensor observation value and the past target correlated sensor observation value stored in the partial track storage unit 15 are stored. From these, a partial wake having a state vector including the current position and speed of the target is estimated.
  • the re-tracking processing unit 16 may execute a tracking algorithm using a Kalman filter corresponding to the turning flag output from the turning determination unit 17. For example, if the turning flag output from the turning determination unit 17 is “non-turning”, the re-tracking processing unit 16 calculates a state vector including the position and speed by a Kalman filter based on the constant velocity linear motion model, and the turning If the flag is “turn”, a state vector including position, velocity, and acceleration may be calculated by a Kalman filter based on a constant acceleration motion model.
  • the re-tracking processing unit 16 estimates the partial track
  • the re-tracking processing unit 16 replaces the partial track stored in the partial track storage unit 15 with the estimated partial track, and the turn determination unit 17 performs the estimation on the estimated partial track.
  • the output turning flag and turning level are added, and the partial track with the turning flag and turning level is output to the transmission determination unit 19.
  • the re-tracking processing unit 16 does not correlate the position indicated by the target correlated sensor observation value output from the sensor tracking processing unit 14 and the position indicated by the partial track stored in the partial track storage unit 15, The partial track with the turning flag and the turning level is not output to the transmission determination unit 19.
  • the transmission determination unit 19 When the transmission determination unit 19 receives the partial track with the turning flag and the turning level from the re-tracking processing unit 16, the time indicated by the partial track and the position indicated by the fusion track stored in the fusion track storage unit 18. Whether or not to transmit the partial wake is determined from the time difference between the time and the turn flag and the turn level attached to the partial wake. At this time, the transmission determination unit 19 displays the partial track with the turn flag and the turn level when the turn flag attached to the partial track is “turn” rather than when the turn flag is “non-turn”. The frequency of issuing a determination result indicating that transmission is to be performed is increased.
  • the transmission determination unit 19 determines to transmit the partial track, the transmission determination unit 19 outputs the partial track to the transmission / reception unit 20 and then deletes the partial track stored in the partial track storage unit 15.
  • the transmission determination process of the partial wake by the transmission determination part 19 is demonstrated concretely.
  • the parameter change processing unit 81 of the transmission determination unit 19 changes the system noise parameter for transmission determination according to the turning flag and the turning level attached to the partial track output from the retracking processing unit 16, and transmits the transmission threshold value.
  • the threshold for transmission judgment such as the difference threshold and the transmission hold threshold is changed.
  • the system noise parameter for transmission judgment is a parameter for compensating for the motion error when the target motion deviates from the assumed motion model. As the system noise parameter increases, the error of the fusion wake described later The rate of increase increases.
  • the parameter change processing unit 81 sets the system noise parameter so that the system noise parameter is higher when the turning flag attached to the partial track is “turning” than when the turning flag is “not turning”. change. Further, when the turning flag attached to the partial wake is “turn”, the parameter change processing unit 81 is configured so that the higher the turning level attached to the partial wake, the higher the system noise parameter. Change system noise parameters.
  • the fusion wake prediction processing unit 82 of the transmission determination unit 19 includes the time of the partial wake with the turn flag and the turn level output from the retracking processing unit 16, and the time of the fusion wake stored in the fusion wake storage unit 18.
  • the time difference is calculated. That is, as shown in the following equation (40), the fused track prediction processing unit 82 outputs the time t k (S) of the partial track with the turning flag and the turning level output from the retracking processing unit 16, and the fused track.
  • a time difference ⁇ T k with the fusion wake time t m ⁇ 1 (F) stored in the storage unit 18 is calculated.
  • t k (S) indicates the current sampling time
  • the superscript (S) is a variable indicating that the partial track output from the retracking processing unit 16 is involved.
  • t m ⁇ 1 (F) indicates the time when the fusion track is estimated by the fusion tracking processing unit 23, and the superscript (F) is a variable indicating that the fusion track is involved.
  • the fusion wake prediction processing unit 82 calculates the time difference ⁇ T k between the time t k (S) of the partial wake and the time t m ⁇ 1 (F) of the fusion wake, and the following equations (41) to (44) are calculated. As shown, using the time difference ⁇ T k and the system noise parameter changed by the parameter change processing unit 81, the prediction error covariance matrix P p, m (F for transmission judgment at time t k (S) of the partial track is shown. ) Is calculated.
  • ⁇ k is a state transition matrix
  • Q (F) is a system noise covariance matrix
  • q x (F) is a system noise parameter on the X axis changed by the parameter change processing unit 81
  • q y (F) is a parameter.
  • the system noise parameter on the Y axis changed by the change processing unit 81, q z (F), is the system noise parameter on the Z axis changed by the parameter change processing unit 81.
  • P s, m ⁇ 1 (F) is an error covariance matrix of the fusion wake.
  • FIG. 12 is an explanatory diagram showing a transmission determination concept in the transmission determination unit 19. In FIG.
  • the fusion track error indicates an error of the fusion track before being merged with the partial track output from the retracking processing unit 16, and the updated fusion track error is a portion output from the retracking processing unit 16.
  • the error of the fusion wake after being merged with the wake is shown.
  • the fusion track error difference indicates a difference obtained by subtracting the updated fusion track error from the fusion track error.
  • the determination processing unit 84 calculates the fusion track error, the updated fusion track error, the fusion track error difference, and the parameters. Using the transmission threshold value, the difference threshold value, and the transmission hold threshold value changed by the change processing unit 81, it is determined whether or not to transmit the partial track with the turning flag and the turning level output from the retracking processing unit 16. That is, when the fusion track error difference is larger than the difference threshold, the determination processing unit 84 determines that the contribution of reducing the fusion track error by fusing the partial track output from the retracking processing unit 16 with the fusion track is large.
  • a determination result indicating that the partial track is transmitted that is, a transmission determination flag of “transmission” and a partial track with a turning flag and a turning level are output to the transmission / reception unit 20, and are also stored in the partial track storage unit 15.
  • the stored partial track is deleted.
  • the determination processing unit 84 determines that the contribution of reducing the fusion track error by fusing the partial track with the fusion track is small, and suspends transmission of the partial track.
  • a determination result indicating that, that is, a transmission determination flag of “transmission pending”, and a partial track with a turning flag and a turning level are output to the transmission / reception unit 20.
  • the determination processing unit 84 determines that the fused track needs to be merged with the partial track regardless of the size of the fused track error difference because the fused track error is large. Then, a determination result indicating that the partial track is transmitted, that is, a transmission determination flag of “transmission” and a partial track with a turning flag and a turning level are output to the transmission / reception unit 20, and are also stored in the partial track storage unit 15. The stored partial track is deleted. If the fused wake error is less than or equal to the transmission threshold, the determination processing unit 84 determines that the fused wake need not be merged with the partial wake if the fused wake error difference is less than or equal to the difference threshold.
  • a determination result indicating that transmission is suspended that is, a transmission determination flag of “transmission pending”, and a partial track with a turning flag and a turning level are output to the transmission / reception unit 20.
  • a “transmission” transmission determination flag may be output to the transmission / reception unit 20.
  • FIG. 13 is a conceptual diagram showing the temporal change of the fusion wake error before and during the turn and the transmission frequency of the partial wake.
  • FIG. 13 shows an example in which the transmission threshold is fixed.
  • the parameter change processing unit 81 sets the turn flag to “turn” and increases the transmission threshold when the system noise parameter for transmission determination is increased. It may be.
  • the transmission threshold is set too high, the transmission frequency of the partial track cannot be increased, so it is necessary to consider the balance between the system noise parameter and the transmission threshold.
  • FIG. 14 is a conceptual diagram showing the temporal change of the fusion wake error before and during the turn when the transmission threshold is not used, and the transmission frequency of the partial wake.
  • the determination processing unit 84 outputs a determination result indicating that the partial track is transmitted only when the fusion track error difference is larger than the difference threshold, that is, a “transmission” transmission determination flag to the transmission / reception unit 20.
  • An example is shown. In the example of FIG.
  • the parameter change processing unit 81 increases the system noise parameter for transmission determination, so that the determination result indicating that the partial wake is transmitted even if the rate of increase of the fusion wake error in the time direction increases. Therefore, it is possible to avoid a situation in which the communication load on the network 2 becomes too large.
  • the transmission / reception unit 20 When the transmission / reception unit 20 receives the “transmission” transmission determination flag and the partial track with the turn flag and the turn level from the transmission determination unit 19, the transmission / reception unit 20 receives the turn track and the partial track with the turn level via the network 2. To the target tracking device 1-M, and outputs the partial track to the track fusion unit 21. When the transmission / reception unit 20 receives the transmission determination flag “transmission pending” from the transmission determination unit 19, the other target tracking device The partial wake transmission process for 1-M and the partial wake output process for the wake fusion unit 21 are not performed. When the transmission / reception unit 20 receives a partial wake transmitted from another target tracking device 1-M via the network 2, the transmission / reception unit 20 outputs the partial wake to the wake fusion unit 21.
  • the correlation determination unit 22 of the wake fusion unit 21 receives a partial wake with a turn flag and a turn level from the transmission / reception unit 20, for example, by executing a known correlation algorithm such as GNN, the position indicated by the partial wake Then, it is determined whether or not the position indicated by the fusion track stored in the fusion track storage unit 18 is correlated.
  • the fusion tracking processing unit 23 of the wake fusion unit 21 uses the partial wake output from the transmission / reception unit 20 and the fusion wake stored in the fusion wake storage unit 18. Estimating a fusion wake having a state vector including the current position and speed of the target.
  • the fusion tracking processing unit 23 calculates the estimated vector x hat s, m (F) of the fusion wake as shown in the following equations (45) to (49).
  • the system noise covariance matrix Q (F) is defined by the following equations (50) and (51). Further, when the target state vector is defined in the three-dimensional orthogonal coordinate system, D in the equation (50) is defined as the following equation (52).
  • q x is a system noise parameter on the X axis set in advance by the fusion tracking processing unit 23
  • q y is a system noise parameter on the Y axis set in advance by the fusion tracking processing unit 23
  • the system noise parameters q x , q y , and q z are set larger in accordance with the target turning degree, the tracking accuracy of the fusion wake is improved. It may be set according to the level. That is, the system noise parameters q x , q y , and q z may be set to a larger value as the degree of target turning indicated by the turning level is larger.
  • the fusion tracking processing unit 23 When the fusion track is estimated, the fusion tracking processing unit 23 performs a process of replacing the fusion track stored in the fusion track storage unit 18 with the estimated fusion track.
  • the fusion tracking processing unit 23 determines that the fusion wake stored in the fusion wake storage unit 18 is in a memory track state when the correlation determination unit 22 determines that there is no correlation, and the fusion wake is partially recorded.
  • the partial wake output from the transmission / reception unit 20 is recorded in the fusion wake storage unit 18 as a new fusion wake without being updated with the wake.
  • the display processing unit 24 displays the fusion wake estimated by the fusion tracking processing unit 23, the partial wake determined by the correlation determination unit 22 as being correlated with the fusion wake, and the like on the display.
  • the turn determination unit 17 that determines whether or not the target is turning from the time-series data of the sensor observation values, and the portion estimated by the tracking processing unit 12 Whether or not to transmit the partial track estimated by the tracking processing unit 12 based on the time difference between the time of the track and the time of the combined track stored in the combined track storage unit 18 and the determination result of the turning determination unit 17 is determined.
  • the communication capacity can be reduced while ensuring the tracking accuracy of the turning target.
  • the transmission frequency of a partial track can be raised and the tracking accuracy of a target can be raised.
  • the transmission frequency of the partial wake can be lowered to reduce the communication capacity.
  • Embodiment 2 a flag integration unit that updates the turning flag attached to the fusion track stored in the fusion track storage unit 18 using the turning flag attached to the partial track output from the transmission / reception unit 20.
  • a target tracking device having the above will be described.
  • FIG. 15 is a block diagram showing a target tracking device according to Embodiment 2 of the present invention
  • FIG. 16 is a hardware configuration diagram of the target tracking device according to Embodiment 2 of the present invention.
  • the flag integration unit 91 is realized by a flag integration processing circuit 50 configured by, for example, a semiconductor integrated circuit mounting a CPU or a one-chip microcomputer.
  • the flag integration unit 91 uses the turning flag attached to the partial wake output from the transmission / reception unit 20 to update the turning flag attached to the fusion wake stored in the fusion wake storage unit 18.
  • Each of the transmission determination unit 19, the transmission / reception unit 20, the correlation determination unit 22, the fusion tracking processing unit 23, the display processing unit 24, and the flag integration unit 91 includes dedicated hardware as illustrated in FIG. 16, that is, a storage processing circuit 41. , Sensor tracking processing circuit 42, re-tracking processing circuit 43, turning determination processing circuit 44, transmission determination processing circuit 45, transmission / reception processing circuit 46, correlation determination processing circuit 47, fusion tracking processing circuit 48, display processing circuit 49, and flag integration processing The one realized by the circuit 50 is assumed.
  • the components of the target tracking device are not limited to those realized by dedicated hardware, and the target tracking device may be realized by software, firmware, or a combination of software and firmware.
  • the sensor track storage unit 13, the partial track storage unit 15, and the fusion track storage unit 18 are configured on the memory 61 shown in FIG.
  • the processing procedures of the re-tracking processing unit 16, the turning determination unit 17, the fusion track storage unit 18, the transmission determination unit 19, the transmission / reception unit 20, the correlation determination unit 22, the fusion tracking processing unit 23, the display processing unit 24, and the flag integration unit 91 are as follows.
  • a program to be executed by the computer may be stored in the memory 61 illustrated in FIG. 3, and the processor 62 illustrated in FIG. 3 may execute the program stored in the memory 61.
  • FIG. 15 shows an example in which each component of the target tracking device is realized by dedicated hardware
  • FIG. 16 shows an example in which the target tracking device is realized by software, firmware, etc.
  • Some components in the tracking device may be realized by dedicated hardware, and the remaining components may be realized by software, firmware, or the like.
  • the sensor 11, the transmission / reception unit 20, and the display processing unit 24 are realized by dedicated hardware
  • the fusion track storage unit 18, the transmission determination unit 19, the correlation determination unit 22, the fusion tracking processing unit 23, and the flag integration unit 91 can be realized by software, firmware, or the like.
  • the combination of dedicated hardware and software is arbitrary.
  • FIG. 17 is a block diagram showing the turning determination unit 17 of the target tracking device according to the second embodiment of the present invention.
  • the same reference numerals as those in FIG. If the turn flag stored in the turn flag DB 72 is “turn” and the turn flag attached to the fusion track stored in the fusion track storage unit 18 is “turn”, the flag update processing unit 101 is “turn”.
  • the turn flag is output to the turn start determination processing unit 71 and the erroneous determination release processing unit 103 without changing the “turn” of the turn flag, and the turn flag stored in the turn flag DB 72 is “turn”.
  • the turn flag attached to the combined wake is “non-turn”, the turn flag is changed to “non-turn”, and the turn flag is turned to the turn start determination processing unit 71 and erroneous determination release processing. Processing to output to the unit 103 is performed. If the turning flag stored in the turning flag DB 72 is “non-turning”, the flag update processing unit 101 sets the turning flag to the turning start determination processing unit without changing the “non-turning” of the turning flag. 71 and the process of outputting to the erroneous determination release processing unit 103 is performed.
  • the turning start time database (hereinafter referred to as “turning start time DB”) 102 is set as the turning start time when the threshold determination processing unit 71j of the turning start determination processing unit 71 first determines that the turning has started. It is a memory to store.
  • the erroneous determination cancellation processing unit 103 performs a process of correcting the turning flag stored in the turning flag DB 72 by using the turning flag attached to the integrated track stored in the integrated track storage unit 18. That is, the misjudgment cancellation processing unit 103 calculates a difference time that is a time difference between the observation time of the target correlated sensor observation value output from the sensor tracking processing unit 14 and the turning start time stored in the turning start time DB 102. Perform the calculation process. Further, the misjudgment cancellation processing unit 103 indicates that the turning flag output from the flag update processing unit 101 is “turning”, and the turning flag attached to the fusion track stored in the fusion track storage unit 18 is “turning”.
  • the turning flag is output to the turning flag DB 72, the turning level calculation processing unit 75, and the retracking processing unit 16 without changing the "turning” of the turning flag.
  • the misjudgment canceling processing unit 103 has the turning flag output from the flag update processing unit 101 “turning”, the turning flag attached to the fusion track is “non-turning”, and the difference time is If it is less than the preset release threshold, the turning flag is output to the turning flag DB 72, the turning level calculation processing unit 75, and the retracking processing unit 16 without changing the “turning” of the turning flag. To implement.
  • the misjudgment release processing unit 103 has the turn flag output from the flag update processing unit 101 “turn”, the turn flag attached to the fusion track is “non-turn”, and the difference time is in advance. If it is equal to or greater than the set release threshold, the turning flag is changed to “non-turning”, and the turning flag is output to the turning flag DB 72, the turning level calculation processing unit 75, and the retracking processing unit 16. To do. Further, when the turning flag output from the flag update processing unit 101 is “non-turning”, the erroneous determination release processing unit 103 sets the turning flag to the turning flag DB 72 without changing the “non-turning” of the turning flag. Then, a process of outputting to the turning level calculation processing unit 75 and the retracking processing unit 16 is performed.
  • FIG. 18 is a block diagram showing the turning start determination processing unit 71 of the turning determination unit 17.
  • the components of the turning start determination processing unit 71 shown in FIG. 18 are the same as those of the turning start determination processing unit 71 shown in FIG. 5, but the initialization processing unit 71d of the turning start determination processing unit 71 shown in FIG. 5 is the turning flag output from the flag update processing unit 101, whereas the turning flag is the input data of the initialization processing unit 71d of the turning start determination processing unit 71 shown in FIG. Is a turning flag stored in the turning flag DB 72.
  • the 18 includes not only the turning flag DB 72 but also the turning start time DB 102, the re-tracking processing unit 16, and the turning level calculation processing unit 75 as output destinations of the threshold determination processing unit 71j of the turning start determination processing unit 71 shown in FIG. This is different from the threshold determination processing unit 71j of the turning start determination processing unit 71 shown in FIG.
  • FIG. 19 is a block diagram showing the turning end determination processing unit 73 of the turning determination unit 17.
  • the turn ending determination fusion track database (hereinafter referred to as “turn end determination fusion track DB”) 73j is a memory for storing the fusion track.
  • the initialization processing unit 73k deletes the smooth track stored in the turn completion determination fusion track DB 73j. Then, the turning end determination process ends.
  • the initialization processing unit 73k stores the fusion wake in the turn ending determination fusion wake DB 73j, and performs the subsequent turn end determination processing. Allow.
  • the N-step prediction processing unit 73l is the fusion track stored in the fusion track storage unit 18 by the correlation determination unit 22 and the time of the oldest fusion track among the fusion tracks stored in the fusion track DB 73j for determining the completion of the turn. If the time difference from the time of the partial wake determined to be correlated with the time is equal to or greater than a preset threshold value, from the wake of the past Nth samples stored in the turn ending determination wake DB 73j. Then, a process for calculating a predicted wake having a state vector such as the current position and speed of the target is performed.
  • the Mahalanobis square distance calculation processing unit 73m is a portion determined to be correlated with the prediction track calculated by the N-step prediction processing unit 73l and the fusion track stored in the fusion track storage unit 18 by the correlation determination unit 22. From the wake, a process of calculating the Mahalanobis square distance between the prediction vector constituting the predicted wake and the partial wake is performed.
  • the processing contents of the flag integration unit 91 and the turning determination unit 17 are mainly described in the second embodiment because they are substantially the same as those in the first embodiment.
  • the flag integration unit 91 receives a turn flag and a partial track with a turn level from the transmission / reception unit 20, the flag integration unit 91 uses the turn flag attached to the partial track to attach to the fusion track stored in the fusion track storage unit 18.
  • Update the turning flag In the second embodiment, the turning flag attached to the fusion wake is referred to as an “integrated turning flag”.
  • the integrated turning flag is a turning flag common to all target tracking devices connected to the same network 2, and is a flag indicating the same turning determination result in all target tracking devices.
  • the update process of the integrated turning flag by the flag integration unit 91 will be specifically described.
  • the flag integration unit 91 When the flag integration unit 91 receives a partial wake with a “turn” turn flag from the transmission / reception unit 20, the “non-turn” integrated turn flag attached to the fusion wake stored in the fusion wake storage unit 18. Is updated to the integrated turning flag of “turning”.
  • the flag integration unit 91 trusts the turning flag output from the transmission / reception unit 20, and even after receiving a partial wake with a “non-turning” turning flag from the transmission / reception unit 20, Maintain the “turn” integrated turn flag attached.
  • the timing at which the integrated turning flag is changed to “non-turning” is limited to the timing at which the turning end determination processing unit 73 described later determines that the turning has ended.
  • the flag integration unit 91 calculates an integrated turning level indicating the degree of target turning, and adds the integrated turning level to the fusion track stored in the fusion track storage unit 18.
  • the flag integration unit 91 records the turn level attached to the partial track every time the partial track is received from the transmission / reception unit 20.
  • the flag integration unit 91 calculates an integrated turning level using the recorded turning level at regular intervals. For example, the turning level having the highest target turning degree among the recorded turning levels may be set as the integrated turning level, or the average value of the recorded turning levels may be set as the integrated turning level.
  • the turning level recorded by the flag integration unit 91 is deleted, for example, at the timing when the integrated turning flag is updated to “non-turning” by the turning end determination processing unit 73.
  • the turning determination unit 17 determines whether or not the target is turning from the time series data of the target correlated sensor observation value, and the determination result As a result, a turn flag indicating whether or not the target is turning and a turn level indicating the degree of the target turn are output to the re-tracking processing unit 16. Most of the turning determination processing by the turning determination unit 17 is the same as that in the first embodiment, and the following description will mainly focus on the differences from the first embodiment.
  • FIG. 20 is a flowchart showing the processing contents of the flag update processing unit 101.
  • the processing content of the flag update processing unit 101 will be described with reference to FIG.
  • the flag update processing unit 101 generates a turn flag stored in the turn flag DB 72 and a fusion track stored in the fusion track storage unit 18 at a timing when the sensor correlation processed sensor observation value is received from the sensor tracking processing unit 14. Get the integrated turning flag attached.
  • the flag update processing unit 101 determines whether or not the acquired turn flag is “turn” (step ST41). If the turn flag is “non-turn” (step ST41: NO), Without changing the “non-turn” of the turning flag, the turning flag is output to the turning start determination processing unit 71 and the erroneous determination cancellation processing unit 103 (step ST42).
  • the flag update processing unit 101 determines whether or not the acquired integrated turn flag is “non-turn” (step ST43).
  • the flag update processing unit 101 changes the turning flag to “non-turning” and sets the turning flag to the turning start determination processing unit. 71 and the erroneous determination release processing unit 103 (step ST44).
  • the flag update processing unit 101 does not change the “turn” of the turn flag and sets the turn flag to the turn start determination processing unit 71. And it outputs to the misjudgment cancellation process part 103 (step ST45).
  • the turning start determination processing unit 71 of the turning determination unit 17 determines whether turning has started.
  • the initialization processing unit 71d of the turning start determination processing unit 71 performs the initialization process of the turning start determination process according to the turning flag output from the flag update processing unit 101. This is different from the first embodiment.
  • the threshold determination processing unit 71j of the turning start determination processing unit 71 outputs the set turning flag to the turning flag DB 72 as in the first embodiment, but the time when it is determined that the turning is first started. Is recorded in the turning start time DB 102 as the turning start time.
  • FIG. 21 is a flowchart showing the processing contents of the erroneous determination cancellation processing unit 103.
  • the misjudgment cancellation process of the misjudgment cancellation process part 103 is demonstrated concretely, referring FIG.
  • an observation time t a goal the correlated sensor observations output from the sensor tracking processing unit 14 is stored in the turning start time DB102 and a time difference between the turning start time t s is differential time calculating the ⁇ t a-s (step ST51).
  • ⁇ t a ⁇ s t a ⁇ t s (53)
  • observation time t a goal the correlated sensor observations is the time at which target the correlated sensor observations is output from the sensor tracking processing unit 14.
  • Misjudgment release processing section 103 determines, when calculating the difference time Delta] t a-s, turning flag output from the flag updating unit 101 whether or not the "turning" (step ST52).
  • the erroneous determination cancellation processing unit 103 sets the turning flag to the turning flag DB 72 without changing the “non-turning” of the turning flag. It outputs to the turning level calculation process part 75 and the retracking process part 16 (step ST53).
  • the erroneous determination release processing unit 103 sets the integrated turn flag attached to the fusion track stored in the fusion track storage unit 18 to “non-turn”. Is determined (step ST54).
  • the erroneous determination release processing unit 103 sets the turning flag to the turning flag DB 72, turning without changing the turning flag “turning”. It outputs to the level calculation process part 75 and the retracking process part 16 (step ST55). Misjudgment release processing section 103, when the integrated turning flag is "non-orbiting" (step ST54: YES), of at previously calculated difference time Delta] t a-s is released threshold or set in advance It is determined whether or not there is (step ST56).
  • step ST56 When the difference time ⁇ t a-s is equal to or greater than the release threshold (step ST56: YES), the erroneous determination release processing unit 103 changes the turn flag to “non-turn” and turns the turn flag. It outputs to flag DB72, turning level calculation process part 75, and re-tracking process part 16 (Step ST57). If the difference time ⁇ t a ⁇ s is less than the release threshold (in the case of NO at step ST56), the erroneous determination release processing unit 103 turns the turn flag without changing the “turn” of the turn flag. It outputs to flag DB72, turning level calculation process part 75, and re-tracking process part 16 (Step ST55).
  • the turn end determination processing unit 73 of the turn determination unit 17 performs a turn end determination process for determining the end of the turn, and updates the integrated turn flag attached to the fusion track stored in the fusion track storage unit 18. .
  • FIG. 22 is a flowchart showing the processing contents of the turning end determination processing unit 73.
  • the initialization processing unit 73k of the turning end determination processing unit 73 acquires the fusion track stored in the fusion track storage unit 18, and determines whether or not the integrated turning flag attached to the fusion track is “turn”. Determination is made (step ST61).
  • step ST61: NO the initialization processing unit 73k deletes the fusion track stored in the turn completion determination fusion track DB 73j, and turns completion determination processing Is finished (step ST62).
  • step ST61: YES the initialization processing unit 73k stores the acquired fusion wake in the turn completion determination fusion wake DB 73j (step ST63), and thereafter.
  • the execution of the turning end determination process is permitted. That is, the operations of the N-step prediction processing unit 73l, the Mahalanobis square distance calculation processing unit 73f, the time direction smoothing processing unit 73g, and the threshold determination processing unit 73h are permitted.
  • the N-step prediction processing unit 73l has the oldest fusion wake stored in the fusion wake DB 73j for turning completion determination. and time t b, the time difference between the time t k of the determined portions track correlation fusion track stored in the fusion track storage unit 18 is taken by the correlation determination unit 22 (t k (S) - t b ) is calculated.
  • N step prediction processing unit 73l when calculating the time difference (t k (S) -t b), as shown in equation (54) below, the time difference (t k (S) -t b) pre It is determined whether or not the threshold value TH_PRE_TIME is set or more (step ST64). (T k (S) ⁇ t b ) ⁇ TH_PRE_TIME (54)
  • step ST64: NO When the time difference (t k (S) ⁇ t b ) is less than the threshold value TH_PRE_TIME and the formula (54) is not satisfied (in the case of step ST64: NO), the N step prediction processing unit 73l performs the turning end determination process. finish.
  • step ST64: YES When the time difference (t k (S) ⁇ t b ) is equal to or greater than the threshold value TH_PRE_TIME and the formula (54) is satisfied (step ST64: YES), the N-step prediction processing unit 73l As shown in (), a past time T tnt retroactive by a threshold TH_PRE_TIME from the time t k (S) of the partial wake determined to be correlated by the correlation determination unit 22 is calculated.
  • N step prediction processing unit 73l from the fusion track stored in pivot end decision fusion track DB73j, to predict until time t k partial track (S), such as the position and velocity at the target at the present time
  • S time t k partial track
  • the N step prediction processing unit 73l selects the fusion track closest to the past time T tnt from the fusion tracks accumulated in the turn completion determination fusion track DB 73j. Search for time t jm . Further, the N-step prediction processing unit 73l calculates an extrapolation time ⁇ T from the time t jm to the time t k (S) of the partial wake as shown in the following formula (57).
  • the N-step prediction processing unit 73l uses the extrapolation time ⁇ T to calculate a prediction vector constituting the prediction track and a prediction error covariance matrix.
  • the processing for calculating the prediction vector and the prediction error covariance matrix is performed according to the equations (20) to (23), as in the N step prediction processing unit 71g in the turning start determination processing unit 71.
  • the Mahalanobis square distance calculation processing unit 73m correlates the prediction vector and the prediction error covariance matrix with the correlation determination unit 22.
  • the Mahalanobis square distance between the prediction vector and the partial wake constituting the predicted wake is calculated from the partial wake determined to be removed (step ST66).
  • the Mahalanobis square distance calculation processing by the Mahalanobis square distance calculation processing unit 73m will be described in detail. The case where the partial wake is a state vector composed of position and velocity and the case where the partial wake is a state vector composed of only the position will be described separately.
  • the Mahalanobis square distance calculation processing unit 73m calculates the Mahalanobis square distance ⁇ v (k) using the residual r k as shown in the following equations (59) and (60).
  • Mahalanobis square distance calculation processing unit 73m calculates a residual covariance matrix S k as shown in the following formulas (62) and (63), and a residual r k as shown in the formula (60). And the residual covariance matrix S k , the Mahalanobis square distance ⁇ v (k) is calculated.
  • the time direction smoothing processing unit 73g performs a time direction smoothing process for smoothing the Mahalanobis square distance ⁇ v (k) in the time direction. (Step ST67).
  • For smoothing the Mahalanobis squared distance ⁇ v (k) in the time direction smoothing unit 73g is similar to the smoothing process Mahalanobis squared distance ⁇ v (k) in the time direction smoothing unit 71i illustrated in FIG. 5, Detailed description is omitted.
  • the threshold determination processing unit 73h determines that the turn is finished, and stores it in the fusion wake storage unit 18.
  • the integrated turning flag attached to the stored fusion track is set to “non-turning”.
  • FIG. 23 is a flowchart showing the processing contents of the threshold determination processing unit 73h.
  • the processing content of the threshold determination processing unit 73h will be specifically described with reference to FIG.
  • the time direction smoothing processing unit 73g calculates the time direction smoothing value ⁇ av (k) of the current time t k , the threshold determination processing unit 73h, as shown in the above equation (37), at the current time t k A difference value ⁇ av (k) between the time direction smooth value ⁇ av (k) and the time direction smooth value ⁇ av (k ⁇ 1) at the previous time t k ⁇ 1 is calculated (step ST71).
  • Threshold determination processing unit 73h when calculating a difference value [Delta] [epsilon] av (k), if the difference value [Delta] [epsilon] av (k) is negative (step ST72: YES), of the count stored in the difference value counter DB37i Increment processing to increase the value C by 1 is performed (step ST73).
  • the count value C indicates the number of times the difference value ⁇ av (k) has become negative, and the initial value of the count value C recorded in the difference value counter DB 37 i is 0. If the difference value ⁇ av (k) is equal to or greater than 0 (step ST72: NO), the threshold determination processing unit 73h maintains the count value C recorded in the difference value counter DB 37i (step ST74).
  • the threshold determination processing unit 73h compares the number of times C recorded in the difference value counter DB 37i with a preset threshold Th cnt (step ST75). When the number of times C recorded in the difference value counter DB 37i is greater than the threshold value Th cnt and the equation (38) is satisfied (in the case of YES at step ST75), the threshold determination processing unit 73h determines that the turn has ended. Determination is made, and the integrated turning flag attached to the fusion track stored in the fusion track storage unit 18 is set to “non-turn” (step ST76).
  • the threshold determination processing unit 73h integrates “turn” when the number of times C recorded in the difference value counter DB 37i is equal to or less than the threshold Th cnt and Expression (38) is not satisfied (in the case of NO at step ST75).
  • the turning flag is maintained (step ST77).
  • the threshold determination processing unit 73h initializes the number of times C recorded in the difference value counter DB 37i to 0.
  • the turning level calculation processing unit 75 of the turning determination unit 17 sets the target output from the sensor tracking processing unit 14 as in the first embodiment.
  • a turn level indicating the degree of target turn is calculated from the correlated sensor observation values, and the turn level is output to the retracking processing unit 16.
  • the re-tracking processing unit 16 of the tracking processing unit 12 receives the target correlated sensor observation value from the sensor tracking processing unit 14, as in the first embodiment, the position indicated by the target correlated sensor observation value and the part It is determined whether or not the position indicated by the partial track stored in the track storage unit 15 is correlated.
  • the re-tracking processing unit 16 correlates the position indicated by the target correlated sensor observation value with the position indicated by the partial wake stored in the partial wake storage unit 15, and the target correlated sensor observation value is When it is determined that it can be associated with the partial track, the target correlated sensor observation value is stored in the partial track storage unit 15 as in the first embodiment.
  • the re-tracking processing unit 16 also calculates the target current time from the target correlated sensor observation value and the past target correlated sensor observation value stored in the partial track storage unit 15 as in the first embodiment.
  • a partial wake having a state vector including the position and velocity at is estimated.
  • the re-tracking processing unit 16 estimates the partial track
  • the re-tracking processing unit 16 replaces the partial track stored in the partial track storage unit 15 with the estimated partial track, and the turn determination unit 17 performs the estimation on the estimated partial track.
  • the output turning flag and turning level are added, and the partial track with the turning flag and turning level is output to the transmission determination unit 19.
  • the transmission determining unit 19 stores the time at the position indicated by the partial track and the fusion track storage unit 18 as in the first embodiment. Whether or not to transmit the partial wake is determined from the time difference from the time of the position indicated by the stored fusion wake and the turn flag and turn level attached to the partial wake. At this time, the transmission determination unit 19 determines that the partial wake with the turn flag and the turn level is greater when the turn flag attached to the partial track is “non-turn” than when the turn flag is “turn”. Increase the frequency of issuing determination results that permit transmission. Further, the higher the turn level attached to the partial track, the higher the frequency of issuing a determination result that permits transmission of the partial track with the turn flag and the turn level.
  • the transmission determination unit 19 increases the system noise parameter of the equation (42) as in the first embodiment to obtain the partial wake. If the integrated turning flag attached to the fusion wake stored in the fusion wake storage unit 18 is “turn”, it is assumed that the frequency of issuing the determination result indicating that the The frequency at which the determination result indicating that the partial wake is transmitted may be increased by increasing the system noise parameter of the equation (42) than when the integrated turning flag is “non-turning”.
  • the transmission determination unit 19 increases the system noise parameter of the equation (42) as the turning level attached to the partial wake increases, as in the first embodiment, so that the turning flag and It is assumed that the frequency of issuing a determination result indicating that a partial wake with a turning level is to be transmitted is increased, but the integrated turning level attached to the fusion wake stored in the fusion wake storage unit 18 is The higher the system noise parameter of the equation (42), the higher the frequency, the more frequently the determination result indicating that the partial track with the turning flag and the turning level is transmitted may be increased.
  • the communication capacity can be reduced while ensuring the tracking accuracy of the turning target. That is, according to the second embodiment, when the target is turning, the transmission frequency of the partial wake can be increased and the tracking accuracy of the target can be increased. On the other hand, when the target is not turning, the transmission frequency of the partial wake can be lowered to reduce the communication capacity.
  • the flag integration unit 91 uses the turning flag attached to the partial wake output from the transmission / reception unit 20 to attach to the fusion wake stored in the fusion wake storage unit 18.
  • the integrated turn flag is updated so that the accuracy of the turn flag attached to the partial track output from the transmitting / receiving unit 20 is not so high, but the transmission frequency according to the presence or absence of the target turn. There is an effect that a partial wake can be transmitted. Further, even when the “turn” of the turning flag attached to the partial wake output from the transmission / reception unit 20 is incorrect, the partial wake can be transmitted at an appropriate transmission frequency without being affected by the error. There is an effect.
  • the target tracking device is suitable for use in estimating the target position from the observation value of the sensor.

Abstract

センサ観測値の時系列データから目標が旋回しているか否かを判定する旋回判定部(17)と、追尾処理部(12)により推定された部分航跡の時刻と融合航跡記憶部(18)に記憶されている融合航跡の時刻との時間差と、旋回判定部(17)の判定結果とから、追尾処理部(12)により推定された部分航跡を送信するか否かを判定する送信判定部(19)とを設け、送受信部(20)が、送信判定部(19)の判定結果が部分航跡を送信する旨を示している場合に、その部分航跡を他の目標追尾装置(1-M)に送信する。

Description

目標追尾装置
 この発明は、センサの観測値から目標の位置の情報を含む航跡を推定する目標追尾装置に関するものである。
 センサの観測値から目標の現時点における位置や速度などを示す航跡を推定し、ネットワークを介して、その航跡を他の目標追尾装置に送信する一方、他の目標追尾装置から送信された航跡をネットワークを介して受信する送受信処理部を備え、自己が推定した航跡と他の目標追尾装置から送信された航跡とを融合することで、高精度な融合航跡を生成する目標追尾装置が以下の特許文献1に開示されている。
 この目標追尾装置では、ネットワークの通信容量を低減する目的で、自己が推定した航跡を融合航跡と融合することで、その融合航跡の誤差を大きく低減できるか否かを判定し、その融合航跡の誤差を大きく低減できると判断した場合に限り、自己が推定した航跡を他の目標追尾装置に送信するようにしている。
特開2010-281782号公報
 従来の目標追尾装置は以上のように構成されているので、自己が推定した航跡の送信頻度を下げて、ネットワークの通信容量を低減することができる。しかし、自己が推定した航跡を送信するか否かを判定する際、目標の運動状態を考慮していないため、目標が旋回運動を行っている場合でも、航跡の送信頻度を下げてしまうことがある。目標が旋回運動を行っているときに、航跡の送信頻度を下げてしまうと、航跡のデータ量が不足して、旋回している目標の追尾精度が劣化してしまうことがあるという課題があった。
 この発明は上記のような課題を解決するためになされたもので、旋回している目標の追尾精度を確保しながら、通信容量を低減することができる目標追尾装置を得ることを目的とする。
 この発明に係る目標追尾装置は、センサから出力された目標の位置を示す観測値の時系列データから、目標の位置の情報を含む部分航跡を推定する追尾処理部と、観測値の時系列データから目標が旋回しているか否かを判定する旋回判定部と、目標の位置の情報を含む融合航跡を記憶している融合航跡記憶部と、追尾処理部により推定された部分航跡の時刻と融合航跡記憶部に記憶されている融合航跡の時刻との時間差と、旋回判定部の判定結果とから、追尾処理部により推定された部分航跡を送信するか否かを判定する送信判定部と、送信判定部の判定結果が部分航跡を送信する旨を示している場合に、その部分航跡を他の目標追尾装置に送信し、他の目標追尾装置から送信された部分航跡を受信する送受信部とを設け、航跡融合部が、送受信部により送信又は受信された部分航跡を用いて、融合航跡記憶部に記憶されている融合航跡を更新するようにしたものである。
 この発明によれば、観測値の時系列データから目標が旋回しているか否かを判定する旋回判定部と、追尾処理部により推定された部分航跡の時刻と融合航跡記憶部に記憶されている融合航跡の時刻との時間差と、旋回判定部の判定結果とから、追尾処理部により推定された部分航跡を送信するか否かを判定する送信判定部とを設け、送受信部が、送信判定部の判定結果が部分航跡を送信する旨を示している場合に、その部分航跡を他の目標追尾装置に送信するように構成したので、旋回している目標の追尾精度を確保しながら、通信容量を低減することができる効果がある。
この発明の実施の形態1による目標追尾装置を示す構成図である。 この発明の実施の形態1による目標追尾装置のハードウェア構成図である。 目標追尾装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。 この発明の実施の形態1による目標追尾装置の旋回判定部17を示す構成図である。 旋回判定部17の旋回開始判定処理部71を示す構成図である。 旋回判定部17の旋回終了判定処理部73を示す構成図である。 旋回判定部17の旋回レベル算出処理部75を示す構成図である。 この発明の実施の形態1による目標追尾装置の送信判定部19を示す構成図である。 旋回開始判定処理部71の処理内容を示すフローチャートである。 旋回終了判定処理部73の処理内容を示すフローチャートである。 閾値判定処理部73hの処理内容を示すフローチャートである。 送信判定部19における送信判定概念を示す説明図である。 旋回前と旋回中における融合航跡誤差の時間変化と、部分航跡の送信頻度とを示す概念図である。 送信閾値を用いない場合の旋回前と旋回中における融合航跡誤差の時間変化と、部分航跡の送信頻度とを示す概念図である。 この発明の実施の形態2による目標追尾装置を示す構成図である。 この発明の実施の形態2による目標追尾装置のハードウェア構成図である。 この発明の実施の形態2による目標追尾装置の旋回判定部17を示す構成図である。 旋回判定部17の旋回開始判定処理部71を示す構成図である。 旋回判定部17の旋回終了判定処理部73を示す構成図である。 フラグ更新処理部101の処理内容を示すフローチャートである。 誤判定解除処理部103の処理内容を示すフローチャートである。 旋回終了判定処理部73の処理内容を示すフローチャートである。 閾値判定処理部73hの処理内容を示すフローチャートである。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。
実施の形態1.
 図1はこの発明の実施の形態1による目標追尾装置を示す構成図であり、図2はこの発明の実施の形態1による目標追尾装置のハードウェア構成図である。
 図1では、M(Mは2以上の整数)台の目標追尾装置1-1~1-Mがネットワーク2に接続されている例を示している。目標追尾装置1-1~1-Mの内部構成は同一である。
 図1及び図2において、センサ11としては、例えば、レーダ、光学カメラ、赤外カメラなどが想定され、センサ11は観測対象の目標の位置を観測して、その位置の観測値であるセンサ観測値を追尾処理部12に出力する。
 図1では、目標追尾装置1-1~1-Mがセンサ11を実装している例を示しているが、センサ11は、目標追尾装置1-1~1-Mの外部に設けられていてもよい。
 追尾処理部12はセンサ航跡記憶部13、センサ追尾処理部14、部分航跡記憶部15及び再追尾処理部16を備えており、センサ11から出力されたセンサ観測値の時系列データから、目標の位置の情報を含む部分航跡として、例えば、目標の現時点における位置や速度などの状態ベクトルを有する部分航跡を推定する処理を実施する。
 センサ航跡記憶部13は例えば図2の記憶処理回路41で実現されるものであり、センサ追尾処理部14により推定されセンサ航跡及びセンサ観測値である目標相関済みセンサ観測値を記憶している。
 センサ追尾処理部14は例えば図2のセンサ追尾処理回路42で実現されるものであり、センサ11から出力されたセンサ観測値が示す位置と、センサ航跡記憶部13に記憶されているセンサ航跡が示す位置とが相関しているか否かを判定する処理を実施する。
 また、センサ追尾処理部14はセンサ観測値が示す位置とセンサ航跡が示す位置とが相関していると判定する場合、そのセンサ観測値を目標相関済みセンサ観測値としてセンサ航跡記憶部13に格納するとともに、その目標相関済みセンサ観測値を再追尾処理部16及び旋回判定部17に出力する処理を実施する。
 さらに、センサ追尾処理部14はその目標相関済みセンサ観測値とセンサ航跡記憶部13に記憶されている過去の目標相関済みセンサ観測値とから、目標の現時点における位置や速度などの状態ベクトルを有するセンサ航跡を推定し、センサ航跡記憶部13に記憶されているセンサ航跡を、その推定したセンサ航跡に置き換える処理を実施する。
 部分航跡記憶部15は例えば図2の記憶処理回路41で実現されるものであり、再追尾処理部16により推定された部分航跡及びセンサ観測値である目標相関済みセンサ観測値を記憶している。
 再追尾処理部16は例えば図2の再追尾処理回路43で実現されるものであり、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置と、部分航跡記憶部15に記憶されている部分航跡が示す位置とが相関しているか否かを判定する処理を実施する。
 また、再追尾処理部16はセンサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置とセンサ航跡が示す位置とが相関していると判定する場合、その目標相関済みセンサ観測値を部分航跡記憶部15に格納するとともに、その目標相関済みセンサ観測値と部分航跡記憶部15に記憶されている過去の目標相関済みセンサ観測値とから、目標の現時点における位置や速度などの状態ベクトルを有する部分航跡を推定する処理を実施する。
 さらに、再追尾処理部16は部分航跡記憶部15に記憶されている部分航跡を、その推定した部分航跡に置き換えるとともに、その推定した部分航跡に対して、旋回判定部17の判定結果である目標の旋回有無を示す旋回フラグと、目標の旋回の度合いを示す旋回レベルを付加し、旋回フラグ及び旋回レベル付きの部分航跡を送信判定部19に出力する処理を実施する。
 旋回判定部17は例えば図2の旋回判定処理回路44で実現されるものであり、センサ追尾処理部14から出力された目標相関済みセンサ観測値の時系列データから、目標が旋回しているか否かを判定し、その判定結果として、目標の旋回有無を示す旋回フラグを再追尾処理部16に出力する処理を実施する。
 融合航跡記憶部18は例えば図2の記憶処理回路41で実現されるものであり、目標の位置の情報を含む融合航跡として、航跡融合部21により推定された融合航跡を記憶している。
 送信判定部19は例えば図2の送信判定処理回路45で実現されるものであり、再追尾処理部16から出力された旋回フラグ及び旋回レベル付きの部分航跡の時刻と融合航跡記憶部18に記憶されている融合航跡の時刻との時間差と、その部分航跡に付されている旋回フラグとから、その旋回フラグ及び旋回レベル付きの部分航跡を送信するか否かを判定する処理を実施する。
 このとき、送信判定部19は、その部分航跡に付されている旋回フラグが、目標が旋回していない旨を示している場合より、目標が旋回している旨を示している場合の方が、その旋回フラグ及び旋回レベル付きの部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにする。
 送受信部20は例えば図2の送受信処理回路46で実現されるものであり、送信判定部19の判定結果が旋回フラグ及び旋回レベル付きの部分航跡を送信する旨を示している場合に、ネットワーク2を介して、旋回フラグ及び旋回レベル付きの部分航跡を他の目標追尾装置1-Mに送信するとともに、その部分航跡を航跡融合部21に出力する処理を実施する。
 また、送受信部20は、ネットワーク2を介して、他の目標追尾装置1-Mから送信された部分航跡を受信すると、その部分航跡を航跡融合部21に出力する処理を実施する。
 航跡融合部21は相関判定部22と融合追尾処理部23を備えており、送受信部20から出力された旋回フラグ及び旋回レベル付きの部分航跡を用いて、融合航跡記憶部18に記憶されている融合航跡を更新する処理を実施する。
 相関判定部22は例えば図2の相関判定処理回路47で実現されるものであり、送受信部20から出力された旋回フラグ及び旋回レベル付きの部分航跡が示す位置と融合航跡記憶部18に記憶されている融合航跡が示す位置が相関しているか否かを判定する処理を実施する。
 融合追尾処理部23は例えば図2の融合追尾処理回路48で実現されるものであり、相関判定部22により相関していると判定された場合、送受信部20から出力された旋回フラグ及び旋回レベル付きの部分航跡と融合航跡記憶部18に記憶されている融合航跡から、目標の現時点における位置や速度などの状態ベクトルを有する融合航跡を推定し、融合航跡記憶部18に記憶されている融合航跡を、その推定した融合航跡に置き換える処理を実施する。
 また、融合追尾処理部23は相関判定部22により相関していないと判定された場合、送受信部20から出力された旋回フラグ及び旋回レベル付きの部分航跡を新たな融合航跡として融合航跡記憶部18に記録する処理を実施する。
 表示処理部24は例えば図2の表示処理回路49で実現されるものであり、融合追尾処理部23により推定された融合航跡や、相関判定部22により相関していると判定された旋回フラグ及び旋回レベル付きの部分航跡などをディスプレイ等に表示させる処理を実施する。
 図1では、目標追尾装置の構成要素であるセンサ11、センサ航跡記憶部13、センサ追尾処理部14、部分航跡記憶部15、再追尾処理部16、旋回判定部17、融合航跡記憶部18、送信判定部19、送受信部20、相関判定部22、融合追尾処理部23及び表示処理部24のそれぞれが、図2に示すような専用のハードウェア、即ち、記憶処理回路41、センサ追尾処理回路42、再追尾処理回路43、旋回判定処理回路44、送信判定処理回路45、送受信処理回路46、相関判定処理回路47、融合追尾処理回路48及び表示処理回路49で実現されるものを想定している。
 ここで、記憶処理回路41は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性又は揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)などが該当する。
 また、センサ追尾処理回路42、再追尾処理回路43、旋回判定処理回路44、送信判定処理回路45、送受信処理回路46、相関判定処理回路47、融合追尾処理回路48及び表示処理回路49は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。
 また、目標追尾装置の構成要素が専用のハードウェアで実現されるものに限るものではなく、目標追尾装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 ソフトウェアやファームウェアはプログラムとして、コンピュータのメモリに格納される。コンピュータは、プログラムを実行するハードウェアを意味し、例えば、CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSP(Digital Signal Processor)などが該当する。
 図3は目標追尾装置がソフトウェアやファームウェアなどで実現される場合のコンピュータのハードウェア構成図である。
 目標追尾装置がソフトウェアやファームウェアなどで実現される場合、センサ航跡記憶部13、部分航跡記憶部15及び融合航跡記憶部18をコンピュータのメモリ61上に構成するとともに、センサ追尾処理部14、再追尾処理部16、旋回判定部17、送信判定部19、送受信部20、相関判定部22、融合追尾処理部23及び表示処理部24の処理手順をコンピュータに実行させるためのプログラムをメモリ61に格納し、コンピュータのプロセッサ62がメモリ61に格納されているプログラムを実行するようにすればよい。
 また、図2では目標追尾装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図3では、目標追尾装置がソフトウェアやファームウェアなどで実現される例を示しているが、目標追尾装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
 例えば、センサ11、送受信部20及び表示処理部24を専用のハードウェアで実現し、センサ航跡記憶部13、センサ追尾処理部14、部分航跡記憶部15、再追尾処理部16、旋回判定部17、融合航跡記憶部18、送信判定部19、相関判定部22及び融合追尾処理部23をソフトウェアやファームウェアなどで実現することが可能である。ただし、専用のハードウェアとソフトウェア等の組み合わせは任意である。
 図4はこの発明の実施の形態1による目標追尾装置の旋回判定部17を示す構成図である。
 図4において、旋回開始判定処理部71はセンサ追尾処理部14から出力された目標相関済みセンサ観測値と、旋回フラグデータベース(以下、「旋回フラグDB」)72に記憶されている目標の旋回の有無を示す旋回フラグとを用いて、旋回の開始を判定する旋回開始判定処理を実施して、旋回フラグDB72に記憶されている旋回フラグを更新する。
 旋回フラグDB72は目標の旋回の有無を示す旋回フラグを記憶するメモリである。旋回フラグDB72に記憶される旋回フラグの初期値は“非旋回”を示すものであるものとする。
 旋回終了判定処理部73はセンサ追尾処理部14から出力された目標相関済みセンサ観測値と、旋回フラグDB72に記憶されている旋回フラグとを用いて、旋回の終了を判定する旋回終了判定処理を実施して、旋回フラグDB72に記憶されている旋回フラグを更新する。
 旋回フラグ出力処理部74は旋回フラグDB72に記憶されている旋回フラグを旋回レベル算出処理部75及び再追尾処理部16に出力する処理を実施する。
 旋回レベル算出処理部75は旋回フラグ出力処理部74から出力された旋回フラグが、目標が旋回している旨を示している場合、センサ追尾処理部14から出力された目標相関済みセンサ観測値から、目標の旋回の度合いを示す旋回レベルを算出し、その旋回レベルを再追尾処理部16に出力する処理を実施する。
 図5は旋回判定部17の旋回開始判定処理部71を示す構成図である。
 図5において、旋回開始判定用観測値データベース(以下、「旋回開始判定用観測値DB」と称する)71aはセンサ追尾処理部14から出力された過去Nthサンプル分の目標相関済みセンサ観測値を蓄積するメモリである。
 速度データベース(以下、「速度DB」と称する)71bは過去Nthサンプル分の平滑速度を蓄積するメモリである。
 旋回開始判定用平滑航跡データベース(以下、「旋回開始判定用平滑航跡DB」と称する)71cは過去Nthサンプル分の平滑航跡を蓄積するメモリである。
 初期化処理部71dは旋回フラグDB72に記憶されている旋回フラグが“旋回”である場合、旋回開始判定用観測値DB71a、速度DB71b及び旋回開始判定用平滑航跡DB71cの蓄積データ、即ち、目標相関済みセンサ観測値、平滑速度及び平滑航跡を削除して、旋回開始判定処理を終了する。一方、旋回フラグDB72に記憶されている旋回フラグが“非旋回”である場合、以降の旋回開始判定処理の実施を許可する。
 直線軌道推定処理部71eは目標の運動状態が等速直線運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、旋回開始判定用観測値DB71aに蓄積されている過去Nthサンプル分の目標相関済みセンサ観測値から、目標の平滑位置と平滑速度を算出するとともに、その平滑位置誤差共分散行列と平滑速度誤差共分散行列を算出する処理を実施する。
 また、直線軌道推定処理部71eは算出した平滑速度を速度DB71bに格納する。
 速度再平滑処理部71fは目標の運動状態が等速直線運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、速度DB71bに蓄積されている過去Nthサンプル分の平滑速度から、再平滑化した速度である再平滑速度と、その再平滑速度誤差分散行列を算出する処理を実施する。
 また、速度再平滑処理部71fは直線軌道推定処理部71eにより算出された平滑速度及び平滑誤差共分散行列の速度項を再平滑速度及び再平滑速度誤差分散行列で置き換える処理等を実施することで平滑航跡を算出し、その平滑航跡を旋回開始判定用平滑航跡DB71cに格納する。
 Nステップ予測処理部71gは旋回開始判定用平滑航跡DB71cに蓄積されている過去Nthサンプル分の平滑航跡から、目標の現時点における位置や速度などの状態ベクトルを有する予測航跡を算出する処理を実施する。
 マハラノビス平方距離算出処理部71hはNステップ予測処理部71gにより算出された予測航跡が示す位置と、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置とから、その予測航跡が示す位置と目標相関済みセンサ観測値が示す位置とのマハラノビス平方距離を算出する処理を実施する。
 時間方向平滑処理部71iはマハラノビス平方距離算出処理部71hにより算出されたマハラノビス平方距離を時間方向に平滑化する処理を実施する。
 閾値判定処理部71jは時間方向平滑処理部71iにより時間方向に平滑化されたマハラノビス平方距離と事前に設定された閾値を比較し、そのマハラノビス平方距離が閾値より大きければ、旋回が開始していると判定して、旋回フラグDB72に記憶されている旋回フラグを“旋回”に設定し、そのマハラノビス平方距離が閾値以下であれば、旋回が開始していないと判定して、旋回フラグDB72に記憶されている“非旋回”の旋回フラグを維持する処理を実施する。
 図6は旋回判定部17の旋回終了判定処理部73を示す構成図である。
 図6において、旋回終了判定用観測値データベース(以下、「旋回終了判定用観測値DB」と称する)73aはセンサ追尾処理部14から出力された過去Nthサンプル分の目標相関済みセンサ観測値を蓄積するメモリである。
 旋回終了判定用平滑航跡データベース(以下、「旋回終了判定用平滑航跡DB」と称する)73bは過去Nthサンプル分の平滑航跡を蓄積するメモリである。
 初期化処理部73cは旋回フラグDB72に記憶されている旋回フラグが“非旋回”である場合、旋回終了判定用観測値DB73a及び旋回終了判定用平滑航跡DB73bの蓄積データ、即ち、目標相関済みセンサ観測値及び平滑航跡を削除して、旋回終了判定処理を終了する。一方、旋回フラグDB72に記憶されている旋回フラグが“旋回”である場合、以降の旋回終了判定処理の実施を許可する。
 軌道推定処理部73dは目標の運動状態が等加速度運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、旋回終了判定用平滑航跡DB73bに蓄積されている過去Nthサンプル分の目標相関済みセンサ観測値から、目標の平滑航跡として、目標の平滑位置、平滑速度及び平滑加速度を算出するとともに、その平滑位置誤差共分散行列及び平滑速度誤差共分散行列を算出する処理を実施する。
 また、軌道推定処理部73dは算出した平滑航跡を旋回終了判定用平滑航跡DB73bに格納する。
 Nステップ予測処理部73eは旋回終了判定用平滑航跡DB73bに蓄積されている過去Nthサンプル分の平滑航跡から、目標の現時点における位置や速度などの状態ベクトルを有する予測航跡を算出する処理を実施する。
 マハラノビス平方距離算出処理部73fはNステップ予測処理部73eにより算出された予測航跡が示す位置と、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置とから、その予測航跡が示す位置と目標相関済みセンサ観測値が示す位置とのマハラノビス平方距離を算出する処理を実施する。
 時間方向平滑処理部73gはマハラノビス平方距離算出処理部73fにより算出されたマハラノビス平方距離を時間方向に平滑化する処理を実施する。
 閾値判定処理部73hは時間方向平滑処理部73gにより時間方向に平滑化されたマハラノビス平方距離と事前に設定された閾値を比較し、そのマハラノビス平方距離が閾値以下であれば、旋回が終了していると判定して、旋回フラグDB72に記憶されている旋回フラグを“非旋回”に設定し、そのマハラノビス平方距離が閾値より大きければ、旋回が終了していないと判定して、旋回フラグDB72に記憶されている“旋回”の旋回フラグを維持する処理を実施する。
 ここでは、閾値判定処理部73hが時間方向に平滑化されたマハラノビス平方距離と閾値を比較する例を示したが、閾値判定処理部73hが、現時刻における平滑化されたマハラノビス平方距離と、前時刻における平滑化されたマハラノビス平方距離との差分値を算出し、その差分値が負となる回数が閾値より多くなると、旋回が終了していると判定するようにしてもよい。
 この場合、差分値が負となる回数を記憶する差分値カウンタデータベース(以下、「差分値カウンタDB」と称する)73iを備え、閾値判定処理部73hが差分値カウンタDB73iに記憶されている回数を更新する。
 図7は旋回判定部17の旋回レベル算出処理部75を示す構成図である。
 図7において、初期化処理部75aは旋回フラグ出力処理部74から出力された旋回フラグが“非旋回”であれば、旋回レベル算出用観測値データベース(以下、「旋回レベル算出用観測値DB」と称する)75bに蓄積されている目標相関済みセンサ観測値を削除し、その旋回フラグが“旋回”であれば、センサ追尾処理部14から出力された目標相関済みセンサ観測値を旋回レベル算出用観測値DB75bに格納する処理を実施する。
 旋回レベル算出用観測値DB75bはセンサ追尾処理部14から出力された目標相関済みセンサ観測値を蓄積するメモリである。
 旋回軌道推定処理部75cは目標の運動状態が等加速度運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、旋回レベル算出用観測値DB75bに蓄積されている目標相関済みセンサ観測値から目標の加速度を算出し、目標の加速度を旋回レベルに換算して、その旋回レベルを再追尾処理部16に出力する処理を実施する。
 図8はこの発明の実施の形態1による目標追尾装置の送信判定部19を示す構成図である。
 図8において、パラメータ変更処理部81は再追尾処理部16から出力された部分航跡に付いている旋回フラグ及び旋回レベルに応じて、送信判断用のシステム雑音パラメータ及び送信判断用の閾値を変更する処理を実施する。
 融合航跡予測処理部82は再追尾処理部16から出力された部分航跡の時刻と融合航跡記憶部18に記憶されている融合航跡の時刻との時間差を算出し、その時間差とパラメータ変更処理部81により変更されたシステム雑音パラメータを用いて、送信判断用の予測誤差共分散行列を算出する処理を実施する。
 判定用誤差算出処理部83は融合航跡予測処理部82により算出された送信判断用の予測誤差共分散行列と、融合航跡記憶部18に記憶されている融合航跡と、再追尾処理部16から出力された部分航跡とから、融合航跡誤差、更新済み融合航跡誤差及び融合航跡誤差差異を算出する処理を実施する。
 ここで、融合航跡誤差は、融合航跡の誤差共分散行列のスペクトルノルムである。更新済み融合航跡誤差は、送信判断用の予測誤差共分散行列を元に部分航跡で更新した後の融合航跡の誤差共分散行列のスペクトルノルムである。なお、航跡誤差を誤差共分散行列のスペクトルノルムで定義しているが、誤差共分散行列のトレースノルムでもよいし、行列式でもよい。ノルムの定義の方法はユーザが事前に決める。
 また、誤差共分散行列は、位置成分のみの誤差共分散行列でもよいし、速度成分のみの誤差共分散行列でもよい。また、誤差共分散行列は、直交座標で定義することもできるし、極座標で定義することもできる。
 判定処理部84は判定用誤差算出処理部83により算出された融合航跡誤差、更新済み融合航跡誤差及び融合航跡誤差差異と、パラメータ変更処理部81により変更された送信判断用の閾値とを用いて、再追尾処理部16から出力された部分航跡を送信するか否かを判定する処理を実施する。
 このとき、判定処理部84は、その部分航跡に付されている旋回フラグが、目標が旋回していない旨を示している場合より、目標が旋回している旨を示している場合の方が、その旋回フラグ及び旋回レベル付きの部分航跡の送信を許可する判定結果を出す頻度を高めるようにする。
 次に動作について説明する。
 この実施の形態1では、M台の目標追尾装置1-1~1-Mがネットワーク2に接続されている例を想定している。目標追尾装置1-1~1-Mの処理内容は同一であるため、ここでは、代表として、目標追尾装置1-1の処理内容を説明する。
 センサ11は、観測対象の目標の位置を観測して、その位置の観測値であるセンサ観測値を追尾処理部12に出力する。
 追尾処理部12のセンサ追尾処理部14は、センサ11からセンサ観測値を受けると、例えば、GNN(Global Nearest Neighbor)などの公知の相関アルゴリズムを実行することで、そのセンサ観測値が示す位置と、センサ航跡記憶部13に記憶されているセンサ航跡が示す位置とが相関しているか否かを判定する。
 即ち、センサ追尾処理部14は、センサ11から出力されたセンサ観測値が、過去に推定しているセンサ航跡に係る目標の位置を観測しているものであるか否かを判定する。
 センサ追尾処理部14は、そのセンサ観測値が示す位置と、センサ航跡記憶部13に記憶されているセンサ航跡が示す位置とが相関しており、そのセンサ観測値を当該センサ航跡と対応付けることができると判断すると、そのセンサ観測値を目標相関済みセンサ観測値としてセンサ航跡記憶部13に格納するとともに、その目標相関済みセンサ観測値を再追尾処理部16及び旋回判定部17に出力する。
 また、センサ追尾処理部14は、例えば、カルマンフィルタなどの公知の追尾アルゴリズムを実行することで、その目標相関済みセンサ観測値とセンサ航跡記憶部13に記憶されている過去の目標相関済みセンサ観測値とから、目標の現時点における位置や速度などの状態ベクトルを有するセンサ航跡を推定する。
 センサ追尾処理部14は、センサ航跡を推定すると、センサ航跡記憶部13に記憶されているセンサ航跡を、その推定したセンサ航跡に置き換えることで、センサ航跡記憶部13に記憶されているセンサ航跡を更新する。
 旋回判定部17は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、その目標相関済みセンサ観測値の時系列データから、目標が旋回しているか否かを判定し、その判定結果として、目標の旋回有無を示す旋回フラグと、目標の旋回の度合いを示す旋回レベルとを再追尾処理部16に出力する。
 以下、旋回判定部17による旋回の判定処理を具体的に説明する。
 旋回判定部17の旋回開始判定処理部71は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、その目標相関済みセンサ観測値と、旋回フラグDB72に記憶されている旋回フラグとを用いて、旋回の開始を判定する旋回開始判定処理を実施して、旋回フラグDB72に記憶されている旋回フラグを更新する。
 図9は旋回開始判定処理部71の処理内容を示すフローチャートである。
 以下、図9を参照しながら、旋回開始判定処理部71の処理内容を具体的に説明する。
 旋回開始判定処理部71の旋回開始判定用観測値DB71aには、センサ追尾処理部14から出力された目標相関済みセンサ観測値が記録され、旋回開始判定用観測値DB71aには、過去Nthサンプル分の目標相関済みセンサ観測値が蓄積される。
 初期化処理部71dは、旋回開始判定処理の初期化処理を実施する(図9のステップST1)。
 即ち、初期化処理部71dは、旋回フラグDB72に記憶されている旋回フラグが“旋回”である場合、旋回開始判定用観測値DB71a、速度DB71b及び旋回開始判定用平滑航跡DB71cの蓄積データである目標相関済みセンサ観測値、平滑速度及び平滑航跡を削除して、旋回開始判定処理を終了する。
 初期化処理部71dは、旋回フラグDB72に記憶されている旋回フラグが“非旋回”である場合、以降の旋回開始判定処理の実施を許可する。即ち、直線軌道推定処理部71e、速度再平滑処理部71f、Nステップ予測処理部71g、マハラノビス平方距離算出処理部71h、時間方向平滑処理部71i及び閾値判定処理部71jの動作を許可する。
 直線軌道推定処理部71eは、旋回開始判定用観測値DB71aに蓄積されている目標相関済みセンサ観測値の数が、Nthサンプル以上である場合(ステップST2:YESの場合)、直線軌道推定処理を実施する(ステップST3)。
 即ち、直線軌道推定処理部71eは、目標の運動状態が等速直線運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、旋回開始判定用観測値DB71aに蓄積されている過去Nthサンプル分の目標相関済みセンサ観測値から、目標の平滑位置と平滑速度を算出するとともに、その平滑位置誤差共分散行列と平滑速度誤差共分散行列を算出するという直線軌道推定処理を実施する。
 例えば、目標の位置を直交座標系のX,Y,Zで定義する場合、線形最小二乗法によって、各軸に対する平滑位置と平滑速度を算出する。
 以下、X軸を例にとって、直線軌道推定処理部71eの算出処理を具体的に説明する。
 直線軌道推定処理部71eは、下記の式(1)~(5)に示すように、X軸に対する平滑位置pハットx,kと、X軸に対する平滑速度pドットハットx,kとを算出する。
 ここでは、電子出願の関係上、明細書の文章中では、文字の上に“^”の記号を付することができないため、pハットx,kのように表記している。同様に、文字の上に“・”と“^”の記号を付することができないため、pドットハットx,kのように表記している。
Figure JPOXMLDOC01-appb-I000001

Figure JPOXMLDOC01-appb-I000002

Figure JPOXMLDOC01-appb-I000003

Figure JPOXMLDOC01-appb-I000004

Figure JPOXMLDOC01-appb-I000005

Figure JPOXMLDOC01-appb-I000006
 式(1)~(5)において、下付添え字のkはセンサ11の各サンプリング時刻t(k=1,2,・・・)におけるデータ、上付き添え字のkはサンプリング時刻tまでのデータの集合を示している。Tはベクトルもしくは行列の転置を意味する。
 直線軌道推定処理部71eは、Y軸及びZ軸に対しても、上記と同様の手順で平滑位置と平滑速度を算出する。直線軌道推定処理部71eは、算出した平滑速度を速度DB71bに格納する。
 また、直線軌道推定処理部71eは、目標の位置を直交座標系のX,Y,Zで定義する場合、下記の式(6)~(10)に示すように、平滑位置ベクトルpハット、平滑速度ベクトルpドットハット、平滑位置誤差共分散行列Ppos,k、平滑速度誤差共分散行列Pvel,kを定義する。
Figure JPOXMLDOC01-appb-I000007

Figure JPOXMLDOC01-appb-I000008

Figure JPOXMLDOC01-appb-I000009

Figure JPOXMLDOC01-appb-I000010
 ここで、A[i,j]は行列Aのi行j列目の要素を意味する。また、diag[a b c]は要素a,b,cを対角要素に持つ行列を意味する。
 なお、直線軌道推定処理部71eは、旋回開始判定用観測値DB71aに蓄積されている目標相関済みセンサ観測値の数が、Nthサンプル未満である場合(ステップST2:NOの場合)、直線軌道推定処理を実施しない。この場合、ステップST11の処理に移行する。
 速度再平滑処理部71fは、直線軌道推定処理部71eが直線軌道推定処理を実施すると、速度再平滑処理を実施する(ステップST4)。
 即ち、速度再平滑処理部71fは、目標の運動状態が等速直線運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、速度DB71bに蓄積されている過去Nthサンプル分の平滑速度から、再平滑化した速度である再平滑速度と、その再平滑速度誤差分散行列を算出するという速度再平滑処理を実施する。
 また、速度再平滑処理部71fは、直線軌道推定処理部71eにより算出された平滑速度及び平滑誤差共分散行列の速度項を再平滑速度及び再平滑速度誤差分散行列で置き換える処理等を実施することで平滑航跡を算出し、その平滑航跡を旋回開始判定用平滑航跡DB71cに格納する。
 以下、X軸を例にとって、速度再平滑処理部71fの算出処理を具体的に説明する。
 速度再平滑処理部71fは、下記の式(10)~(14)に示すように、X軸に対して線形最小二乗法による再平滑速度Vハットx,kと再平滑速度誤差分散行列PxV,kを算出する。
Figure JPOXMLDOC01-appb-I000011

Figure JPOXMLDOC01-appb-I000012

Figure JPOXMLDOC01-appb-I000013

Figure JPOXMLDOC01-appb-I000014

Figure JPOXMLDOC01-appb-I000015
 速度再平滑処理部71fは、Y軸及びZ軸に対しても、上記と同様の手順で再平滑速度と再平滑速度誤差分散行列を算出する。ただし、Y軸については式(12)の代わりに、下記の式(15)を用い、Z軸については式(12)の代わりに、下記の式(16)を用いることとする。

Figure JPOXMLDOC01-appb-I000016

Figure JPOXMLDOC01-appb-I000017

Figure JPOXMLDOC01-appb-I000018
 速度再平滑処理部71fは、直線軌道推定処理部71eにより算出された平滑速度pドットハットx,k及び平滑速度誤差共分散行列Pvel,kの速度項を、再平滑速度Vハットx,k及び再平滑速度誤差分散行列PxV,kで置き換え、置き換えた後のサンプリング時刻tにおける平滑航跡xハットを下記の式(17)によって算出し、その平滑誤差共分散行列Pを下記の式(18)によって算出する。

Figure JPOXMLDOC01-appb-I000019

Figure JPOXMLDOC01-appb-I000020

Figure JPOXMLDOC01-appb-I000021
 下付添え字がyであればY軸方向、下付添え字がzであればZ軸方向を意味する。
 Nステップ予測処理部71gは、速度再平滑処理部71fが速度再平滑処理を実施すると、下記の式(19)に示すように、旋回開始判定用平滑航跡DB71cに蓄積されている平滑航跡の中で、最も古い平滑航跡の時刻tと、Nサンプル前の時刻tk-Np+1を比較する(ステップST5)。

Figure JPOXMLDOC01-appb-I000022
 Nステップ予測処理部71gは、最も古い平滑航跡の時刻tが、Nサンプル前の時刻tk-Np+1と同じ時刻又はNサンプル前の時刻tk-Np+1より古い時刻であれば(ステップST5:YESの場合)、旋回開始判定用平滑航跡DB71cに蓄積されている過去Nthサンプル分の平滑航跡から、目標の現時点における位置や速度などの状態ベクトルを有する予測航跡を算出するというNステップ予測処理を実施する(ステップST6)。
 例えば、等速直線運動モデルにしたがって、旋回開始判定用平滑航跡DB71cに蓄積されているNサンプル前の平滑航跡から直線外挿した予測ベクトルを算出する。
 即ち、Nステップ予測処理部71gは、下記の式(20)~(23)に示すように、サンプリング時刻tにおけるNサンプル前の平滑航跡から直線外挿した予測ベクトルxハットk|k-Npを算出するとともに、その予測誤差共分散行列Pk|k-Npを算出する。

Figure JPOXMLDOC01-appb-I000023

Figure JPOXMLDOC01-appb-I000024

Figure JPOXMLDOC01-appb-I000025

Figure JPOXMLDOC01-appb-I000026

Figure JPOXMLDOC01-appb-I000027
 Nサンプル前の平滑航跡の平滑ベクトル及び平滑誤差共分散行列に加速度項が含まれる場合、位置及び速度に係る項のみを取り出して、上記処理を実施する。
 なお、Nステップ予測処理部71gは、旋回開始判定用平滑航跡DB71cに蓄積されている平滑航跡の中で、最も古い平滑航跡の時刻tが、Nサンプル前の時刻tk-Np+1より新しい時刻であれば(ステップST5:NOの場合)、Nサンプル前の平滑航跡が旋回開始判定用平滑航跡DB71cに蓄積されていないため、Nステップ予測処理を実施しない。この場合、ステップST11の処理に移行する。
 マハラノビス平方距離算出処理部71hは、Nステップ予測処理部71gがNステップ予測処理を実施すると、Nステップ予測処理部71gにより算出された予測航跡が示す位置と、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置とから、その予測航跡が示す位置と目標相関済みセンサ観測値が示す位置とのマハラノビス平方距離を算出する(ステップST7)。
 即ち、マハラノビス平方距離算出処理部71hは、下記の式(24)に示すように、最新のサンプリング時刻tにおける予測航跡の予測ベクトルxハットk|k-Npと、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置zとの残差rを算出する。

Figure JPOXMLDOC01-appb-I000028

Figure JPOXMLDOC01-appb-I000029

Figure JPOXMLDOC01-appb-I000030
 式(25)において、zx,kはサンプリング時刻tにおけるセンサ観測値が示すX軸での位置、zy,kはサンプリング時刻tにおけるセンサ観測値が示すY軸での位置、zz,kはサンプリング時刻tにおけるセンサ観測値が示すZ軸での位置である。
 マハラノビス平方距離算出処理部71hは、下記の式(27)に示すように、残差共分散行列Sを算出し、その残差共分散行列Sを用いて、下記の式(28)に示すように、マハラノビス平方距離ε(k)を算出する。

Figure JPOXMLDOC01-appb-I000031

Figure JPOXMLDOC01-appb-I000032
 時間方向平滑処理部71iは、マハラノビス平方距離算出処理部71hがマハラノビス平方距離ε(k)を算出すると、そのマハラノビス平方距離ε(k)を時間方向に平滑化する時間方向平滑処理を実施する(ステップST8)。
 即ち、時間方向平滑処理部71iは、下記の式(29)に示すように、そのマハラノビス平方距離ε(k)を時間方向に平滑化する。

Figure JPOXMLDOC01-appb-I000033

Figure JPOXMLDOC01-appb-I000034
 式(29)において、εav(k)はサンプリング時刻tにおける時間方向平滑値、αは事前に設定された係数である。
 閾値判定処理部71jは、時間方向平滑処理部71iがマハラノビス平方距離ε(k)を時間方向に平滑化すると、下記の式(31)に示すように、時間方向に平滑化されたマハラノビス平方距離である時間方向平滑値εav(k)と、事前に設定された閾値Thturnbgnとを比較する(ステップST9)。

Figure JPOXMLDOC01-appb-I000035
 閾値判定処理部71jは、その時間方向平滑値εav(k)が閾値Thturnbgnより大きく、式(31)が成立する場合(ステップST9:YESの場合)、旋回が開始していると判定して、旋回フラグDB72に記憶されている旋回フラグを“旋回”に設定する(ステップST10)。
 閾値判定処理部71jは、その時間方向平滑値εav(k)が閾値Thturnbgn以下であり、式(31)が成立しない場合(ステップST9:NOの場合)、旋回が開始していないと判定して、旋回フラグDB72に記憶されている“非旋回”の旋回フラグを維持する(ステップST11)。
 閾値判定処理部71jは、直線軌道推定処理部71eにより直線軌道推定処理が実施されない場合や、Nステップ予測処理部71gによりNステップ予測処理が実施されない場合も、旋回フラグDB72に記憶されている“非旋回”の旋回フラグを維持する(ステップST11)。
 旋回判定部17の旋回終了判定処理部73は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、その目標相関済みセンサ観測値と、旋回フラグDB72に記憶されている旋回フラグとを用いて、旋回の終了を判定する旋回終了判定処理を実施して、旋回フラグDB72に記憶されている旋回フラグを更新する。
 図10は旋回終了判定処理部73の処理内容を示すフローチャートである。
 以下、図10を参照しながら、旋回終了判定処理部73の処理内容を具体的に説明する。
 旋回終了判定処理部73の旋回終了判定用観測値DB73aには、センサ追尾処理部14から出力された目標相関済みセンサ観測値が記録され、旋回終了判定用観測値DB73aには、過去Nthサンプル分の目標相関済みセンサ観測値が蓄積される。
 初期化処理部73cは、旋回終了判定処理の初期化処理を実施する(図10のステップST21)。
 即ち、初期化処理部73cは、旋回フラグDB72に記憶されている旋回フラグが“非旋回”である場合、旋回終了判定用観測値DB73a及び旋回終了判定用平滑航跡DB73bの蓄積データである目標相関済みセンサ観測値及び平滑航跡を削除して、旋回終了判定処理を終了する。
 初期化処理部73cは、旋回フラグDB72に記憶されている旋回フラグが“旋回”である場合、以降の旋回終了判定処理の実施を許可する。即ち、軌道推定処理部73d、Nステップ予測処理部73e、マハラノビス平方距離算出処理部73f、時間方向平滑処理部73g及び閾値判定処理部73hの動作を許可する。
 軌道推定処理部73dは、旋回終了判定用観測値DB73aに蓄積されている目標相関済みセンサ観測値の数が、Nthサンプル以上である場合(ステップST22:YESの場合)、軌道推定処理を実施する(ステップST23)。
 即ち、軌道推定処理部73dは、目標の運動状態が等加速度運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、旋回終了判定用平滑航跡DBに蓄積されている過去Nthサンプル分の目標相関済みセンサ観測値から、目標の平滑航跡として、目標の平滑位置、平滑速度及び平滑加速度を算出するとともに、その平滑位置誤差共分散行列及び平滑速度誤差共分散行列を算出するという軌道推定処理を実施する。
 例えば、目標の位置を直交座標系のX,Y,Zで定義する場合、線形最小二乗法によって、各軸に対する目標の平滑位置、平滑速度及び平滑加速度を算出する。
 以下、X軸を例にとって、軌道推定処理部73dの算出処理を具体的に説明する。
 軌道推定処理部73dは、下記の式(32)~(34)及び式(4)(5)に示すように、X軸に対する平滑位置pハットx,kと、X軸に対する平滑速度pドットハットx,kと、X軸に対する平滑加速度pツードットハットx,kとを算出する。
 ここでは、電子出願の関係上、明細書の文章中では、文字の上に文字の上に“・・”と“^”の記号を付することができないため、pツードットハットx,kのように表記している。

Figure JPOXMLDOC01-appb-I000036

Figure JPOXMLDOC01-appb-I000037

Figure JPOXMLDOC01-appb-I000038

Figure JPOXMLDOC01-appb-I000039
 軌道推定処理部73dは、Y軸及びZ軸に対しても、上記と同様の手順で平滑位置、平滑速度及び平滑加速度を算出する。
 軌道推定処理部73dは、平滑位置、平滑速度及び平滑加速度を平滑航跡として旋回終了判定用平滑航跡DB73bに格納する。
 また、軌道推定処理部73dは、目標の位置を直交座標系のX,Y,Zで定義する場合、上記の式(6)~(9)に示すように、平滑位置ベクトルpハット、平滑速度ベクトルpドットハット、平滑位置誤差共分散行列Ppos,k、平滑速度誤差共分散行列Pvel,kを定義する。
 なお、軌道推定処理部73dは、旋回終了判定用観測値DB73aに蓄積されている目標相関済みセンサ観測値の数が、Nthサンプル未満である場合(ステップST22:NOの場合)、軌道推定処理を実施しない。この場合、ステップST30の処理に移行する。
 Nステップ予測処理部73eは、軌道推定処理部73dが軌道推定処理を実施すると、下記の式(35)に示すように、旋回終了判定用平滑航跡DB73bに蓄積されている平滑航跡の中で、最も古い平滑航跡の時刻tと、Nサンプル前の時刻tk-Np+1を比較する(ステップST24)。

Figure JPOXMLDOC01-appb-I000040
 Nステップ予測処理部73eは、最も古い平滑航跡の時刻tが、Nサンプル前の時刻tk-Np+1と同じ時刻又はNサンプル前の時刻tk-Np+1より古い時刻であれば(ステップST24:YESの場合)、旋回終了判定用平滑航跡DB73bに蓄積されている過去Nthサンプル分の平滑航跡から、目標の現時点における位置や速度などの状態ベクトルを有する予測航跡を算出するというNステップ予測処理を実施する(ステップST25)。
 Nステップ予測処理部73eのNステップ予測処理は、図5に示すNステップ予測処理部71gのNステップ予測処理と同様であるため、詳細な説明を省略する。
 なお、Nステップ予測処理部73eは、旋回終了判定用平滑航跡DB73bに蓄積されている平滑航跡の中で、最も古い平滑航跡の時刻tが、Nサンプル前の時刻tk-Np+1より新しい時刻であれば(ステップST24:NOの場合)、Nサンプル前の平滑航跡が旋回終了判定用平滑航跡DB73bに蓄積されていないため、Nステップ予測処理を実施しない。この場合、ステップST30の処理に移行する。
 マハラノビス平方距離算出処理部73fは、Nステップ予測処理部73eがNステップ予測処理を実施すると、Nステップ予測処理部73eにより算出された予測航跡が示す位置と、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置とから、その予測航跡が示す位置と目標相関済みセンサ観測値が示す位置とのマハラノビス平方距離を算出する(ステップST26)。
 マハラノビス平方距離算出処理部73fにおけるマハラノビス平方距離の算出処理は、図5に示すマハラノビス平方距離算出処理部71hにおけるマハラノビス平方距離の算出処理と同様であるため、詳細な説明を省略する。
 時間方向平滑処理部73gは、マハラノビス平方距離算出処理部73fがマハラノビス平方距離ε(k)を算出すると、そのマハラノビス平方距離ε(k)を時間方向に平滑化する時間方向平滑処理を実施する(ステップST27)。
 時間方向平滑処理部73gにおけるマハラノビス平方距離ε(k)の平滑化処理は、図5に示す時間方向平滑処理部71iにおけるマハラノビス平方距離ε(k)の平滑化処理と同様であるため、詳細な説明を省略する。
 閾値判定処理部73hは、時間方向平滑処理部73gがマハラノビス平方距離ε(k)を時間方向に平滑化すると、下記の式(36)に示すように、時間方向に平滑化されたマハラノビス平方距離である時間方向平滑値εav(k)と、事前に設定された閾値Thturnendとを比較する(ステップST28)。
Figure JPOXMLDOC01-appb-I000041
 閾値判定処理部73hは、その時間方向平滑値εav(k)が閾値Thturnend以下となり、式(36)が成立する場合(ステップST28:YESの場合)、旋回が終了していると判定して、旋回フラグDB72に記憶されている旋回フラグを“非旋回”に設定する(ステップST29)。
 閾値判定処理部73hは、その時間方向平滑値εav(k)が閾値Thturnbgnより大きく、式(36)が成立しない場合(ステップST28:NOの場合)、旋回が終了していないと判定して、旋回フラグDB72に記憶されている“旋回”の旋回フラグを維持する(ステップST30)。
 閾値判定処理部73hは、軌道推定処理部73dにより軌道推定処理が実施されない場合や、Nステップ予測処理部73eによりNステップ予測処理が実施されない場合も、旋回フラグDB72に記憶されている“旋回”の旋回フラグを維持する(ステップST30)。
 ここでは、閾値判定処理部73hが時間方向に平滑化されたマハラノビス平方距離と閾値を比較する例を示したが、閾値判定処理部73hが、現時刻tにおける時間方向平滑値εav(k)と、前時刻tk-1における時間方向平滑値εav(k-1)との差分値Δεav(k)を算出し、その差分値Δεav(k)が負となる回数が閾値Thcntより多くなると、旋回が終了していると判定するようにしてもよい。
 図11は閾値判定処理部73hの処理内容を示すフローチャートである。以下、図11を参照しながら、閾値判定処理部73hの処理内容を具体的に説明する。
 閾値判定処理部73hは、時間方向平滑処理部73gが現時刻tの時間方向平滑値εav(k)を算出する毎に、下記の式(37)に示すように、現時刻tにおける時間方向平滑値εav(k)と、前時刻tk-1における時間方向平滑値εav(k-1)との差分値Δεav(k)を算出する(図11のステップST31)。

Figure JPOXMLDOC01-appb-I000042
 閾値判定処理部73hは、差分値Δεav(k)を算出すると、その差分値Δεav(k)が負であれば(ステップST32:YESの場合)、差分値カウンタDB37iに記録されているカウント値Cを1だけ増やすインクリメント処理を実施する(ステップST33)。そのカウント値Cは、差分値Δεav(k)が負になった回数を示すものであり、差分値カウンタDB37iに記録されているカウント値Cの初期値は0である。
 閾値判定処理部73hは、その差分値Δεav(k)が0以上であれば(ステップST32:NOの場合)、差分値カウンタDB37iに記録されているカウント値Cを維持する(ステップST34)。
 次に、閾値判定処理部73hは、下記の式(38)に示すように、差分値カウンタDB37iに記録されている回数Cと事前に設定された閾値Thcntを比較する(ステップST35)。
C>Thcnt      (38)
 閾値判定処理部73hは、差分値カウンタDB37iに記録されている回数Cが閾値Thcntより多くなり、式(38)が成立する場合(ステップST35:YESの場合)、旋回が終了していると判定して、旋回フラグDB72に記憶されている旋回フラグを“非旋回”に設定する(ステップST36)。
 また、閾値判定処理部73hは、差分値カウンタDB37iに記録されている回数Cが閾値Thcnt以下であり、式(38)が成立しない場合(ステップST35:NOの場合)、旋回フラグDB72に記憶されている“旋回”の旋回フラグを維持する(ステップST37)。
 閾値判定処理部73hは、旋回フラグDB72に記憶されている旋回フラグを“非旋回”に設定すると、差分値カウンタDB37iに記録されている回数Cを0に初期化する。
旋回判定部17の旋回フラグ出力処理部74は、旋回開始判定処理部71又は旋回終了判定処理部73の動作が完了すると、旋回フラグDB72に記憶されている旋回フラグを旋回レベル算出処理部75及び再追尾処理部16に出力する。
 旋回判定部17の旋回レベル算出処理部75は、旋回フラグ出力処理部74から旋回フラグを受けると、その旋回フラグが“旋回”である場合、センサ追尾処理部14から出力された目標相関済みセンサ観測値から、目標の旋回の度合いを示す旋回レベルを算出し、その旋回レベルを再追尾処理部16に出力する。
 以下、旋回レベル算出処理部75の処理内容を具体的に説明する。
 旋回レベル算出処理部75の初期化処理部75aは、旋回フラグ出力処理部74から出力された旋回フラグが“非旋回”であれば、旋回レベル算出用観測値DB75bに蓄積されている目標相関済みセンサ観測値を削除する。
 初期化処理部75aは、旋回フラグ出力処理部74から出力された旋回フラグが“旋回”であれば、センサ追尾処理部14から出力された目標相関済みセンサ観測値を旋回レベル算出用観測値DB75bに格納する。
 旋回レベル算出処理部75の旋回軌道推定処理部75cは、目標の運動状態が等加速度運動であると仮定した上で、例えば、線形最小二乗法やカルマンフィルタなどを用いて、旋回レベル算出用観測値DB75bに蓄積されている目標相関済みセンサ観測値から、直交座標系におけるX軸、Y軸及びZ軸に対する目標の加速度を算出する。
 旋回軌道推定処理部75cは、X軸、Y軸及びZ軸に対する目標の加速度を算出すると、下記の式(39)のように、加速度の大きさaハットを算出する。

Figure JPOXMLDOC01-appb-I000043

Figure JPOXMLDOC01-appb-I000044
 旋回軌道推定処理部75cは、加速度の大きさaハットを算出すると、加速度の大きさaハットを旋回レベルに換算し、その旋回レベルを再追尾処理部16に出力する。
 加速度の大きさaハットと旋回レベルは正比例の関係があり、加速度の大きさaハットが大きくなる程、旋回レベルが高くなるものとする。
 追尾処理部12の部分航跡記憶部15には、以前、再追尾処理部16によって推定された部分航跡や、センサ追尾処理部14から出力された目標相関済みセンサ観測値のうち、その部分航跡と相関が認められた目標相関済みセンサ観測値が記憶されている。
 部分航跡は、基本的には時刻、位置、速度からなる状態ベクトルと、その状態ベクトルの誤差共分散行列で構成されるものであり、他にも目標を識別する目標番号や、センサ11を識別するセンサ番号などの識別番号が付与される。
 この識別番号は、例えば、目標を類識別した番号、航空機や衛星などの機体の種別が識別された番号、あるいは、敵であるのか味方であるのかを示す情報としての番号などが考えられる。
 部分航跡の状態ベクトルは、センサ観測値の位置を含む状態ベクトルであってもよいし、位置及び速度を含む状態ベクトルであってもよいし、加速度まで含む状態ベクトルであってもよい。
 追尾処理部12の再追尾処理部16は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、例えば、GNNなどの公知の相関アルゴリズムを実行することで、その目標相関済みセンサ観測値が示す位置と、部分航跡記憶部15に記憶されている部分航跡が示す位置とが相関しているか否かを判定する。
 即ち、再追尾処理部16は、センサ追尾処理部14から出力された目標相関済みセンサ観測値が、過去に推定している部分航跡に係る目標の位置を観測しているものであるか否かを判定する。
 再追尾処理部16は、その目標相関済みセンサ観測値が示す位置と、部分航跡記憶部15に記憶されている部分航跡が示す位置とが相関しており、その目標相関済みセンサ観測値を当該部分航跡と対応付けることができると判断すると、その目標相関済みセンサ観測値を部分航跡記憶部15に格納する。
 また、再追尾処理部16は、例えば、カルマンフィルタなどの公知の追尾アルゴリズムを実行することで、その目標相関済みセンサ観測値と部分航跡記憶部15に記憶されている過去の目標相関済みセンサ観測値とから、目標の現時点における位置や速度などを含む状態ベクトルを有する部分航跡を推定する。
 このとき、再追尾処理部16は、旋回判定部17から出力された旋回フラグに対応するカルマンフィルタを用いる追尾アルゴリズムを実行するようにしてもよい。
 例えば、再追尾処理部16は、旋回判定部17から出力された旋回フラグが“非旋回”であれば、等速直線運動モデルに基づくカルマンフィルタによって位置及び速度を含む状態ベクトルを算出し、その旋回フラグが“旋回”であれば、等加速度運動モデルに基づくカルマンフィルタによって位置、速度及び加速度を含む状態ベクトルを算出するようにしてもよい。
 再追尾処理部16は、部分航跡を推定すると、部分航跡記憶部15に記憶されている部分航跡を、その推定した部分航跡に置き換えるとともに、その推定した部分航跡に対して、旋回判定部17から出力された旋回フラグ及び旋回レベルを付加し、旋回フラグ及び旋回レベル付きの部分航跡を送信判定部19に出力する。
 再追尾処理部16は、センサ追尾処理部14から出力された目標相関済みセンサ観測値が示す位置と、部分航跡記憶部15に記憶されている部分航跡が示す位置とが相関していない場合、旋回フラグ及び旋回レベル付きの部分航跡を送信判定部19に出力しない。
 送信判定部19は、再追尾処理部16から旋回フラグ及び旋回レベル付きの部分航跡を受けると、その部分航跡が示す位置の時刻と、融合航跡記憶部18に記憶されている融合航跡が示す位置の時刻との時間差と、その部分航跡に付されている旋回フラグ及び旋回レベルとから、その部分航跡を送信するか否かを判定する。
 このとき、送信判定部19は、その部分航跡に付されている旋回フラグが“非旋回”である場合より、“旋回”である場合の方が、その旋回フラグ及び旋回レベル付きの部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにする。
 また、その部分航跡に付されている旋回レベルが高い程、その旋回フラグ及び旋回レベル付きの部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにする。
 送信判定部19は、その部分航跡を送信すると判断すると、その部分航跡を送受信部20に出力した後、部分航跡記憶部15に記憶されている当該部分航跡を削除する。
 以下、送信判定部19による部分航跡の送信判定処理を具体的に説明する。
 送信判定部19のパラメータ変更処理部81は、再追尾処理部16から出力された部分航跡に付いている旋回フラグ及び旋回レベルに応じて、送信判断用のシステム雑音パラメータを変更するとともに、送信閾値、差異閾値や送信保留閾値などの送信判断用の閾値を変更する。送信判断用の閾値の初期値は、ユーザによって事前に設定されているものとする。
 送信判断用のシステム雑音パラメータは、目標の運動が想定される運動モデルから逸脱した際の運動誤差を補償するためのパラメータであり、そのシステム雑音パラメータが増加することで、後述する融合航跡の誤差の増加率が上がる。
 パラメータ変更処理部81は、その部分航跡に付されている旋回フラグが“非旋回”である場合より、“旋回”である場合の方が、システム雑音パラメータが高くなるように、システム雑音パラメータを変更する。
 また、パラメータ変更処理部81は、その部分航跡に付されている旋回フラグが“旋回”である場合、その部分航跡に付されている旋回レベルが高い程、システム雑音パラメータが高くなるように、システム雑音パラメータを変更する。
 送信判定部19の融合航跡予測処理部82は、再追尾処理部16から出力された旋回フラグ及び旋回レベル付きの部分航跡の時刻と、融合航跡記憶部18に記憶されている融合航跡の時刻との時間差を算出する。
 即ち、融合航跡予測処理部82は、下記の式(40)に示すように、再追尾処理部16から出力された旋回フラグ及び旋回レベル付きの部分航跡の時刻t (S)と、融合航跡記憶部18に記憶されている融合航跡の時刻tm-1 (F)との時間差ΔTを算出する。
Figure JPOXMLDOC01-appb-I000045
 式(40)において、t (S)は現サンプリング時刻を示し、上付き添え字の(S)は再追尾処理部16から出力された部分航跡に関わる旨を示す変数である。
 また、tm-1 (F)は融合追尾処理部23により融合航跡が推定された時刻を示し、上付き添え字の(F)は融合航跡に関わる旨を示す変数である。
 融合航跡予測処理部82は、部分航跡の時刻t (S)と、融合航跡の時刻tm-1 (F)との時間差ΔTを算出すると、下記の式(41)~(44)に示すように、その時間差ΔTとパラメータ変更処理部81により変更されたシステム雑音パラメータを用いて、部分航跡の時刻t (S)における送信判断用の予測誤差共分散行列Pp,m (F)を算出する。

Figure JPOXMLDOC01-appb-I000046

Figure JPOXMLDOC01-appb-I000047

Figure JPOXMLDOC01-appb-I000048

Figure JPOXMLDOC01-appb-I000049
 ここで、Φは状態遷移行列、Q(F)はシステム雑音共分散行列、q (F)はパラメータ変更処理部81により変更されたX軸におけるシステム雑音パラメータ、q (F)はパラメータ変更処理部81により変更されたY軸におけるシステム雑音パラメータ、q (F)はパラメータ変更処理部81により変更されたZ軸におけるシステム雑音パラメータである。
 また、Ps,m-1 (F)は融合航跡の誤差共分散行列である。
 判定用誤差算出処理部83は、融合航跡予測処理部82が送信判断用の予測誤差共分散行列Pp,m (F)を算出すると、その送信判断用の予測誤差共分散行列Pp,m (F)と、融合航跡記憶部18に記憶されている融合航跡と、再追尾処理部16から出力された部分航跡とから、融合航跡誤差、更新済み融合航跡誤差及び融合航跡誤差差異を算出する。
 ここで、図12は送信判定部19における送信判定概念を示す説明図である。
 図12において、融合航跡誤差は、再追尾処理部16から出力された部分航跡と融合される前の融合航跡の誤差を示し、更新済み融合航跡誤差は、再追尾処理部16から出力された部分航跡と融合された後の融合航跡の誤差を示している。
 また、融合航跡誤差差異は、融合航跡誤差から更新済み融合航跡誤差を引いた差分を示している。
 判定処理部84は、判定用誤差算出処理部83が融合航跡誤差、更新済み融合航跡誤差及び融合航跡誤差差異を算出すると、その融合航跡誤差、更新済み融合航跡誤差及び融合航跡誤差差異と、パラメータ変更処理部81により変更された送信閾値、差異閾値及び送信保留閾値とを用いて、再追尾処理部16から出力された旋回フラグ及び旋回レベル付きの部分航跡を送信するか否かを判定する。
 即ち、判定処理部84は、その融合航跡誤差差異が差異閾値より大きい場合、再追尾処理部16から出力された部分航跡を融合航跡と融合することによる融合航跡誤差の低減寄与度が大きいと判断し、その部分航跡を送信する旨を示す判定結果、即ち、“送信”の送信判定フラグと、旋回フラグ及び旋回レベル付きの部分航跡とを送受信部20に出力するとともに、部分航跡記憶部15に記憶されている当該部分航跡を削除する。
 判定処理部84は、その融合航跡誤差差異が差異閾値以下の場合、その部分航跡を融合航跡と融合することによる融合航跡誤差の低減寄与度が小さいと判断し、その部分航跡の送信を保留する旨を示す判定結果、即ち、“送信保留”の送信判定フラグと、旋回フラグ及び旋回レベル付きの部分航跡とを送受信部20に出力する。
 判定処理部84は、その融合航跡誤差が送信閾値より大きい場合、融合航跡の誤差が大きいため、その融合航跡誤差差異の大小にかかわらず、その融合航跡を部分航跡と融合する必要があると判断し、その部分航跡を送信する旨を示す判定結果、即ち、“送信”の送信判定フラグと、旋回フラグ及び旋回レベル付きの部分航跡とを送受信部20に出力するとともに、部分航跡記憶部15に記憶されている当該部分航跡を削除する。
 判定処理部84は、その融合航跡誤差が送信閾値以下の場合、その融合航跡誤差差異が差異閾値以下であれば、その融合航跡を部分航跡と融合する必要がないと判断し、その部分航跡の送信を保留する旨を示す判定結果、即ち、“送信保留”の送信判定フラグと、旋回フラグ及び旋回レベル付きの部分航跡とを送受信部20に出力する。ただし、その融合航跡誤差差異が差異閾値より大きい場合、“送信”の送信判定フラグを送受信部20に出力するようにしてもよい。
 図13は旋回前と旋回中における融合航跡誤差の時間変化と、部分航跡の送信頻度とを示す概念図である。
 目標が旋回していない場合、パラメータ変更処理部81によって送信判断用のシステム雑音パラメータが低く抑えられており、融合航跡誤差の時間方向の増加率が小さいため、融合航跡誤差が送信閾値を上回るまでに多くの時間を要する。このため、旋回フラグが“非旋回”である場合、部分航跡の送信頻度は低いものとなる。
 一方、目標が旋回を開始することで、旋回フラグが“旋回”となり、パラメータ変更処理部81が送信判断用のシステム雑音パラメータを高めると、融合航跡誤差の時間方向の増加率が大きくなるため、短時間で融合航跡誤差が送信閾値を上回るようになる。このため、旋回フラグが“旋回”である場合、部分航跡の送信頻度が高いものとなる。
 図13では、送信閾値が固定されている例を示している。このため、目標が旋回している場合、融合航跡誤差が送信閾値を上回る頻度が増加して、ネットワーク2での通信負荷が大きくなり過ぎることがある。
 パラメータ変更処理部81は、ネットワーク2での通信負荷が大きくなり過ぎないようにするために、旋回フラグが“旋回”となり、送信判断用のシステム雑音パラメータを高める際、送信閾値も一緒に高めるようにしてもよい。ただし、送信閾値を高くし過ぎると、部分航跡の送信頻度を高くすることができなくなるため、システム雑音パラメータと送信閾値のバランスを考える必要がある。
 ネットワーク2での通信負荷が大きくなり過ぎる状況を回避するため、送信閾値を用いずに、部分航跡の送信判定を行うようにしてもよい。
 図14は送信閾値を用いない場合の旋回前と旋回中における融合航跡誤差の時間変化と、部分航跡の送信頻度とを示す概念図である。
 図14では、判定処理部84が、融合航跡誤差差異が差異閾値より大きい場合に限り、その部分航跡を送信する旨を示す判定結果、即ち、“送信”の送信判定フラグを送受信部20に出力する例を示している。
 図14の例では、パラメータ変更処理部81が送信判断用のシステム雑音パラメータを高めることで、融合航跡誤差の時間方向の増加率が大きくなっても、その部分航跡を送信する旨を示す判定結果が得られないため、ネットワーク2での通信負荷が大きくなり過ぎる状況を回避することができる。
 送受信部20は、送信判定部19から“送信”の送信判定フラグと、旋回フラグ及び旋回レベル付きの部分航跡とを受けると、ネットワーク2を介して、旋回フラグ及び旋回レベル付きの部分航跡を他の目標追尾装置1-Mに送信するとともに、その部分航跡を航跡融合部21に出力する
 送受信部20は、送信判定部19から“送信保留”の送信判定フラグを受けると、他の目標追尾装置1-Mに対する部分航跡の送信処理や、航跡融合部21に対する部分航跡の出力処理を実施しない。
 送受信部20は、ネットワーク2を介して、他の目標追尾装置1-Mから送信された部分航跡を受信すると、その部分航跡を航跡融合部21に出力する。
 航跡融合部21の相関判定部22は、送受信部20から旋回フラグ及び旋回レベル付きの部分航跡を受けると、例えば、GNNなどの公知の相関アルゴリズムを実行することで、その部分航跡が示す位置と、融合航跡記憶部18に記憶されている融合航跡が示す位置とが相関しているか否かを判定する。
 航跡融合部21の融合追尾処理部23は、相関判定部22により相関していると判定された場合、送受信部20から出力された部分航跡と融合航跡記憶部18に記憶されている融合航跡から、目標の現時点における位置や速度などを含む状態ベクトルを有する融合航跡を推定する。
 即ち、融合追尾処理部23は、下記の式(45)~(49)の示すように、融合航跡の推定ベクトルxハットs,m (F)を算出する。

Figure JPOXMLDOC01-appb-I000050

Figure JPOXMLDOC01-appb-I000051

Figure JPOXMLDOC01-appb-I000052

Figure JPOXMLDOC01-appb-I000053

Figure JPOXMLDOC01-appb-I000054

Figure JPOXMLDOC01-appb-I000055

Figure JPOXMLDOC01-appb-I000056
 ここで、融合追尾処理部23が、等速直線運動モデルに基づくカルマンフィルタを用いる場合、システム雑音共分散行列Q(F)は、下記の式(50)(51)で定義される。

Figure JPOXMLDOC01-appb-I000057

Figure JPOXMLDOC01-appb-I000058
 また、目標の状態ベクトルを3次元直交座標系で定義すると、式(50)におけるDは、下記の式(52)のように定義される。

Figure JPOXMLDOC01-appb-I000059
 式(52)において、qは融合追尾処理部23により事前に設定されたX軸におけるシステム雑音パラメータ、qは融合追尾処理部23により事前に設定されたY軸におけるシステム雑音パラメータ、qは融合追尾処理部23により事前に設定されたZ軸におけるシステム雑音パラメータである。
 システム雑音パラメータq,q,qは目標の旋回度合いに応じて大きく設定した方が、融合航跡の追尾精度が向上するため、融合追尾処理部23によって、部分航跡に付加されている旋回レベルに応じて設定されているものであってもよい。即ち、その旋回レベルが示す目標の旋回の度合いが大きいほど、システム雑音パラメータq,q,qが大きな値に設定されているものであってもよい。
 融合追尾処理部23は、融合航跡を推定すると、融合航跡記憶部18に記憶されている融合航跡を、その推定した融合航跡に置き換える処理を実施する。
 融合追尾処理部23は、相関判定部22により相関していないと判定された場合、融合航跡記憶部18に記憶されている融合航跡がメモリトラック状態にあると判断して、その融合航跡を部分航跡で更新せずに、送受信部20から出力された部分航跡を新たな融合航跡として、融合航跡記憶部18に記録する。
 表示処理部24は、融合追尾処理部23により推定された融合航跡や、相関判定部22により当該融合航跡と相関がとれていると判定された部分航跡などをディスプレイに表示させる。
 以上で明らかなように、この実施の形態1によれば、センサ観測値の時系列データから目標が旋回しているか否かを判定する旋回判定部17と、追尾処理部12により推定された部分航跡の時刻と融合航跡記憶部18に記憶されている融合航跡の時刻との時間差と、旋回判定部17の判定結果とから、追尾処理部12により推定された部分航跡を送信するか否かを判定する送信判定部19とを設け、送受信部20が、送信判定部19の判定結果が部分航跡を送信する旨を示している場合に、その部分航跡を他の目標追尾装置1-Mに送信するように構成したので、旋回している目標の追尾精度を確保しながら、通信容量を低減することができる効果を奏する。
 即ち、この実施の形態1によれば、目標が旋回している場合、部分航跡の送信頻度を高めて、目標の追尾精度を高めることができる。一方、目標が旋回していない場合、部分航跡の送信頻度を下げて、通信容量を低減することができる。
実施の形態2.
 この実施の形態2では、送受信部20から出力された部分航跡に付いている旋回フラグを用いて、融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグを更新するフラグ統合部を備えている目標追尾装置について説明する。
 図15はこの発明の実施の形態2による目標追尾装置を示す構成図であり、図16はこの発明の実施の形態2による目標追尾装置のハードウェア構成図である。
 図15及び図16において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
 フラグ統合部91は例えばCPUを実装している半導体集積回路、あるいはワンチップマイコンなどから構成されているフラグ統合処理回路50で実現されるものである。フラグ統合部91は送受信部20から出力された部分航跡に付いている旋回フラグを用いて、融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグを更新する処理を実施する。
 図15では、目標追尾装置の構成要素であるセンサ11、センサ航跡記憶部13、センサ追尾処理部14、部分航跡記憶部15、再追尾処理部16、旋回判定部17、融合航跡記憶部18、送信判定部19、送受信部20、相関判定部22、融合追尾処理部23、表示処理部24及びフラグ統合部91のそれぞれが、図16に示すような専用のハードウェア、即ち、記憶処理回路41、センサ追尾処理回路42、再追尾処理回路43、旋回判定処理回路44、送信判定処理回路45、送受信処理回路46、相関判定処理回路47、融合追尾処理回路48、表示処理回路49及びフラグ統合処理回路50で実現されるものを想定している。
 目標追尾装置の構成要素は、専用のハードウェアで実現されるものに限るものではなく、目標追尾装置がソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせで実現されるものであってもよい。
 目標追尾装置がソフトウェアやファームウェアなどで実現される場合、センサ航跡記憶部13、部分航跡記憶部15及び融合航跡記憶部18を図3に示すメモリ61上に構成するとともに、センサ追尾処理部14、再追尾処理部16、旋回判定部17、融合航跡記憶部18、送信判定部19、送受信部20、相関判定部22、融合追尾処理部23、表示処理部24及びフラグ統合部91の処理手順をコンピュータに実行させるためのプログラムを図3に示すメモリ61に格納し、図3に示すプロセッサ62がメモリ61に格納されているプログラムを実行するようにすればよい。
 また、図15では目標追尾装置の構成要素のそれぞれが専用のハードウェアで実現される例を示し、図16では、目標追尾装置がソフトウェアやファームウェアなどで実現される例を示しているが、目標追尾装置における一部の構成要素が専用のハードウェアで実現され、残りの構成要素がソフトウェアやファームウェアなどで実現されるものであってもよい。
 例えば、センサ11、送受信部20及び表示処理部24を専用のハードウェアで実現し、センサ航跡記憶部13、センサ追尾処理部14、部分航跡記憶部15、再追尾処理部16、旋回判定部17、融合航跡記憶部18、送信判定部19、相関判定部22、融合追尾処理部23及びフラグ統合部91をソフトウェアやファームウェアなどで実現することが可能である。ただし、専用のハードウェアとソフトウェア等の組み合わせは任意である。
 図17はこの発明の実施の形態2による目標追尾装置の旋回判定部17を示す構成図であり、図17において、図4と同一符号は同一または相当部分を示すので説明を省略する。
 フラグ更新処理部101は旋回フラグDB72に記憶されている旋回フラグが“旋回”であり、かつ、融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグが“旋回”であれば、その旋回フラグの“旋回”を変更せずに、その旋回フラグを旋回開始判定処理部71及び誤判定解除処理部103に出力し、旋回フラグDB72に記憶されている旋回フラグが“旋回”であり、かつ、その融合航跡に付いている旋回フラグが“非旋回”であれば、その旋回フラグを“非旋回”に変更して、その旋回フラグを旋回開始判定処理部71及び誤判定解除処理部103に出力する処理を実施する。
 また、フラグ更新処理部101は旋回フラグDB72に記憶されている旋回フラグが“非旋回”であれば、その旋回フラグの“非旋回”を変更せずに、その旋回フラグを旋回開始判定処理部71及び誤判定解除処理部103に出力する処理を実施する。
 旋回開始時刻データベース(以下、「旋回開始時刻DB」と称する)102は旋回開始判定処理部71の閾値判定処理部71jによって、最初に旋回が開始していると判定された時刻を旋回開始時刻として記憶するメモリである。
 誤判定解除処理部103は融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグを用いて、旋回フラグDB72に記憶されている旋回フラグを訂正する処理を実施する。
 即ち、誤判定解除処理部103はセンサ追尾処理部14から出力された目標相関済みセンサ観測値の観測時刻と、旋回開始時刻DB102に記憶されている旋回開始時刻との時刻差である差分時間を算出する処理を実施する。
 また、誤判定解除処理部103はフラグ更新処理部101から出力された旋回フラグが“旋回”であり、かつ、融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグが“旋回”である場合、その旋回フラグの“旋回”を変更せずに、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する処理を実施する。
 また、誤判定解除処理部103はフラグ更新処理部101から出力された旋回フラグが“旋回”であり、その融合航跡に付いている旋回フラグが“非旋回”であり、かつ、その差分時間が事前に設定された解除用閾値未満である場合、その旋回フラグの“旋回”を変更せずに、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する処理を実施する。
 誤判定解除処理部103はフラグ更新処理部101から出力された旋回フラグが“旋回”であり、その融合航跡に付いている旋回フラグが“非旋回”であり、かつ、その差分時間が事前に設定された解除用閾値以上である場合、その旋回フラグを“非旋回”に変更して、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する処理を実施する。
 また、誤判定解除処理部103はフラグ更新処理部101から出力された旋回フラグが“非旋回”である場合、その旋回フラグの“非旋回”を変更せずに、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する処理を実施する。
 図18は旋回判定部17の旋回開始判定処理部71を示す構成図であり、図18において、図5と同一符号は同一または相当部分を示すので説明を省略する。
 図18に示す旋回開始判定処理部71の構成要素は、図5に示す旋回開始判定処理部71の構成要素と同様であるが、図18に示す旋回開始判定処理部71の初期化処理部71dの入力データである旋回フラグが、フラグ更新処理部101から出力された旋回フラグであるのに対して、図5に示す旋回開始判定処理部71の初期化処理部71dの入力データである旋回フラグが、旋回フラグDB72に記憶されている旋回フラグである点で相違している。
 また、図18に示す旋回開始判定処理部71の閾値判定処理部71jの出力先が、旋回フラグDB72だけでなく、旋回開始時刻DB102、再追尾処理部16及び旋回レベル算出処理部75も含まれる点で、図5に示す旋回開始判定処理部71の閾値判定処理部71jと相違している。
 図19は旋回判定部17の旋回終了判定処理部73を示す構成図であり、図19において、図6と同一符号は同一または相当部分を示すので説明を省略する。
 旋回終了判定用融合航跡データベース(以下、「旋回終了判定用融合航跡DB」と称する)73jは融合航跡を蓄積するメモリである。
 初期化処理部73kは融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグが“非旋回”である場合、旋回終了判定用融合航跡DB73jに蓄積されている平滑航跡を削除して、旋回終了判定処理を終了する。
 また、初期化処理部73kは、その融合航跡に付いている旋回フラグが“旋回”である場合、その融合航跡を旋回終了判定用融合航跡DB73jに格納して、以降の旋回終了判定処理の実施を許可する。
 Nステップ予測処理部73lは旋回終了判定用融合航跡DB73jに蓄積されている融合航跡の中で、最も古い融合航跡の時刻と、相関判定部22により融合航跡記憶部18に記憶されている融合航跡と相関がとれていると判定された部分航跡の時刻との時刻差が事前に設定された閾値以上である場合、旋回終了判定用融合航跡DB73jに蓄積されている過去Nthサンプル分の融合航跡から、目標の現時点における位置や速度などの状態ベクトルを有する予測航跡を算出する処理を実施する。
 マハラノビス平方距離算出処理部73mはNステップ予測処理部73lにより算出された予測航跡と、相関判定部22により融合航跡記憶部18に記憶されている融合航跡と相関がとれていると判定された部分航跡とから、その予測航跡を構成する予測ベクトルと部分航跡とのマハラノビス平方距離を算出する処理を実施する。
 次に動作について説明する。
 フラグ統合部91及び旋回判定部17以外は、概ね上記実施の形態1と同様であるため、この実施の形態2では、フラグ統合部91及び旋回判定部17の処理内容を主に説明する。
 フラグ統合部91は、送受信部20から旋回フラグ及び旋回レベル付きの部分航跡を受けると、その部分航跡に付いている旋回フラグを用いて、融合航跡記憶部18に記憶されている融合航跡に付いている旋回フラグを更新する。
 この実施の形態2では、融合航跡に付いている旋回フラグを「統合旋回フラグ」と称する。統合旋回フラグは、同一のネットワーク2に接続されている全ての目標追尾装置間で共通の旋回フラグであり、全ての目標追尾装置で同じ旋回判定結果を示すフラグである。
 以下、フラグ統合部91による統合旋回フラグの更新処理を具体的に説明する。
 フラグ統合部91は、送受信部20から“旋回”の旋回フラグが付いている部分航跡を受けると、融合航跡記憶部18に記憶されている融合航跡に付いている“非旋回”の統合旋回フラグを“旋回”の統合旋回フラグに更新する。
 フラグ統合部91は、送受信部20から出力された当該旋回フラグを信用し、それ以降に、送受信部20から“非旋回”の旋回フラグが付いている部分航跡を受けても、その融合航跡に付いている“旋回”の統合旋回フラグを維持する。
 統合旋回フラグが“非旋回”に変更されるタイミングは、後述する旋回終了判定処理部73によって、旋回が終了していると判定されたタイミングに限られる。
 また、フラグ統合部91は、目標の旋回の度合いを示す統合旋回レベルを算出し、その統合旋回レベルを融合航跡記憶部18に記憶されている融合航跡に付加する。
 以下、統合旋回レベルの算出例を具体的に説明する。
 フラグ統合部91は、送受信部20から部分航跡を受ける毎に、その部分航跡に付いている旋回フラグが“旋回”であれば、その部分航跡に付いている旋回レベルを記録する。
 フラグ統合部91は、一定周期毎に、記録済みの旋回レベルを用いて、統合旋回レベルを算出する。例えば、記録済みの旋回レベルの中で、目標の旋回の度合いが最も大きい旋回レベルを統合旋回レベルとしてもよいし、記録済みの旋回レベルの平均値を統合旋回レベルとしてもよい。
 なお、フラグ統合部91により記録された旋回レベルは、例えば、旋回終了判定処理部73により統合旋回フラグが“非旋回”に更新されるタイミングで消去されるものとする。
 旋回判定部17は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、その目標相関済みセンサ観測値の時系列データから、目標が旋回しているか否かを判定し、その判定結果として、目標の旋回有無を示す旋回フラグと、目標の旋回の度合いを示す旋回レベルとを再追尾処理部16に出力する。
 旋回判定部17による旋回の判定処理の大部分は、上記実施の形態1と同様であり、以下、上記実施の形態1と相違する部分を主に説明する。
 旋回判定部17のフラグ更新処理部101は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、その目標相関済みセンサ観測値を受けたタイミングで、旋回フラグDB72に記憶されている旋回フラグを更新する処理を実施する。
 図20はフラグ更新処理部101の処理内容を示すフローチャートである。
 以下、図20を参照しながら、フラグ更新処理部101の処理内容を説明する。
 フラグ更新処理部101は、センサ追尾処理部14から目標相関済みセンサ観測値を受けたタイミングで、旋回フラグDB72に記憶されている旋回フラグと、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグとを取得する。
 フラグ更新処理部101は、その取得した旋回フラグが“旋回”であるか否かを判定し(ステップST41)、その旋回フラグが“非旋回”である場合(ステップST41:NOの場合)、その旋回フラグの“非旋回”を変更せずに、その旋回フラグを旋回開始判定処理部71及び誤判定解除処理部103に出力する(ステップST42)。
 フラグ更新処理部101は、その旋回フラグが“旋回”である場合(ステップST41:YESの場合)、その取得した統合旋回フラグが“非旋回”であるか否かを判定する(ステップST43)。
 フラグ更新処理部101は、その統合旋回フラグが“非旋回”である場合(ステップST43:YESの場合)、その旋回フラグを“非旋回”に変更して、その旋回フラグを旋回開始判定処理部71及び誤判定解除処理部103に出力する(ステップST44)。
 フラグ更新処理部101は、その統合旋回フラグが“旋回”である場合(ステップST43:NOの場合)、その旋回フラグの“旋回”を変更せずに、その旋回フラグを旋回開始判定処理部71及び誤判定解除処理部103に出力する(ステップST45)。
 旋回判定部17の旋回開始判定処理部71は、上記実施の形態1と同様に、旋回が開始しているか否かを判定する。
 ただし、この実施の形態2では、旋回開始判定処理部71の初期化処理部71dは、フラグ更新処理部101から出力された旋回フラグにしたがって旋回開始判定処理の初期化処理を実施する点で、上記実施の形態1と相違している。
 また、旋回開始判定処理部71の閾値判定処理部71jは、上記実施の形態1と同様に、設定した旋回フラグを旋回フラグDB72に出力するが、最初に旋回が開始していると判定した時刻を旋回開始時刻として旋回開始時刻DB102に記録する。
 誤判定解除処理部103は、フラグ更新処理部101から旋回フラグを受けると、誤判定解除処理を実施する。
 図21は誤判定解除処理部103の処理内容を示すフローチャートである。
 以下、図21を参照しながら、誤判定解除処理部103の誤判定解除処理を具体的に説明する。
 まず、誤判定解除処理部103は、下記の式(53)に示すように、センサ追尾処理部14から出力された目標相関済みセンサ観測値の観測時刻tと、旋回開始時刻DB102に記憶されている旋回開始時刻tとの時刻差である差分時間Δta-sを算出する(ステップST51)。
Δta-s=t-ts  (53)
 なお、目標相関済みセンサ観測値の観測時刻tは、センサ追尾処理部14から目標相関済みセンサ観測値が出力された時刻である。
 誤判定解除処理部103は、差分時間Δta-sを算出すると、フラグ更新処理部101から出力された旋回フラグが“旋回”であるか否かを判定する(ステップST52)。
 誤判定解除処理部103は、その旋回フラグが“非旋回”である場合(ステップST52:NOの場合)、その旋回フラグの“非旋回”を変更せずに、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する(ステップST53)。
 誤判定解除処理部103は、その旋回フラグが“旋回”である場合(ステップST52:YESの場合)、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグが“非旋回”であるか否かを判定する(ステップST54)。
 誤判定解除処理部103は、その統合旋回フラグが“旋回”である場合(ステップST54:NOの場合)、その旋回フラグの“旋回”を変更せずに、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する(ステップST55)。
 誤判定解除処理部103は、その統合旋回フラグが“非旋回”である場合(ステップST54:YESの場合)、先に算出した差分時間Δta-sが事前に設定された解除用閾値以上であるか否かを判定する(ステップST56)。
 誤判定解除処理部103は、その差分時間Δta-sが解除用閾値以上である場合(ステップST56:YESの場合)、その旋回フラグを“非旋回”に変更して、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する(ステップST57)。
 誤判定解除処理部103は、その差分時間Δta-sが解除用閾値未満である場合(ステップST56:NOの場合)、その旋回フラグの“旋回”を変更せずに、その旋回フラグを旋回フラグDB72、旋回レベル算出処理部75及び再追尾処理部16に出力する(ステップST55)。
 旋回判定部17の旋回終了判定処理部73は、旋回の終了を判定する旋回終了判定処理を実施して、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグを更新する。
 図22は旋回終了判定処理部73の処理内容を示すフローチャートである。
 以下、図22を参照しながら、旋回終了判定処理部73の処理内容を具体的に説明する。
 旋回終了判定処理部73の初期化処理部73kは、融合航跡記憶部18に記憶されている融合航跡を取得し、その融合航跡に付いている統合旋回フラグが“旋回”であるか否かを判定する(ステップST61)。
 初期化処理部73kは、その旋回フラグが“非旋回”である場合(ステップST61:NOの場合)、旋回終了判定用融合航跡DB73jに蓄積されている融合航跡を削除して、旋回終了判定処理を終了する(ステップST62)。
 初期化処理部73kは、その旋回フラグが“旋回”である場合(ステップST61:YESの場合)、その取得した融合航跡を旋回終了判定用融合航跡DB73jに格納して(ステップST63)、以降の旋回終了判定処理の実施を許可する。即ち、Nステップ予測処理部73l、マハラノビス平方距離算出処理部73f、時間方向平滑処理部73g及び閾値判定処理部73hの動作を許可する。
 Nステップ予測処理部73lは、初期化処理部73kが融合航跡を旋回終了判定用融合航跡DB73jに格納すると、旋回終了判定用融合航跡DB73jに蓄積されている融合航跡の中で、最も古い融合航跡の時刻tと、相関判定部22によって融合航跡記憶部18に記憶されている融合航跡と相関がとれていると判定された部分航跡の時刻tとの時刻差(t (S)-t)を算出する。
 Nステップ予測処理部73lは、時刻差(t (S)-t)を算出すると、下記の式(54)に示すように、その時刻差(t (S)-t)が事前に設定された閾値TH_PRE_TIME以上であるか否かを判定する(ステップST64)。
(t (S)-t)≧TH_PRE_TIME     (54)
 Nステップ予測処理部73lは、その時刻差(t (S)-t)が閾値TH_PRE_TIME未満であり、式(54)が成立しない場合(ステップST64:NOの場合)、旋回終了判定処理を終了する。
 Nステップ予測処理部73lは、その時刻差(t (S)-t)が閾値TH_PRE_TIME以上であり、式(54)が成立する場合(ステップST64:YESの場合)、下記の式(55)に示すように、相関判定部22により相関がとれていると判定された部分航跡の時刻t (S)から閾値TH_PRE_TIMEだけ遡った過去の時刻Ttntを算出する。

Figure JPOXMLDOC01-appb-I000060
 そして、Nステップ予測処理部73lは、旋回終了判定用融合航跡DB73jに蓄積されている融合航跡から、部分航跡の時刻t (S)まで予測することで、目標の現時点における位置や速度などの状態ベクトルを有する予測航跡を算出する(ステップST65)。
 また、Nステップ予測処理部73lは、下記の式(56)に示すように、旋回終了判定用融合航跡DB73jに蓄積されている融合航跡の中から、過去の時刻Ttntに最も近い融合航跡の時刻tjmを検索する。

Figure JPOXMLDOC01-appb-I000061
 さらに、Nステップ予測処理部73lは、下記の式(57)に示すように、時刻tjmから部分航跡の時刻t (S)までの外挿時間ΔTを算出する。

Figure JPOXMLDOC01-appb-I000062
 Nステップ予測処理部73lは、外挿時間ΔTを算出すると、その外挿時間ΔTを用いて、その予測航跡を構成する予測ベクトルと、その予測誤差共分散行列を算出する。
 予測ベクトルと予測誤差共分散行列を算出する処理は、旋回開始判定処理部71におけるNステップ予測処理部71gと同様に、式(20)~(23)にしたがって算出する。
 マハラノビス平方距離算出処理部73mは、Nステップ予測処理部73lが予測航跡を構成する予測ベクトル及び予測誤差共分散行列を算出すると、その予測ベクトル及び予測誤差共分散行列と、相関判定部22により相関がとれていると判定された部分航跡とから、その予測航跡を構成する予測ベクトルと部分航跡とのマハラノビス平方距離を算出する(ステップST66)。
 以下、マハラノビス平方距離算出処理部73mによるマハラノビス平方距離の算出処理を具体的に説明する。
 部分航跡が位置及び速度で構成される状態ベクトルである場合と、位置のみで構成される状態ベクトルである場合とに分けて説明する。
[部分航跡が位置及び速度で構成される状態ベクトルである場合]
 マハラノビス平方距離算出処理部73mは、下記の式(58)に示すように、Nステップ予測処理部73lにより算出された最新時刻tにおける融合航跡の予測ベクトルと、部分航跡の位置速度ベクトルとの残差rを算出する。

Figure JPOXMLDOC01-appb-I000063

Figure JPOXMLDOC01-appb-I000064
 次に、マハラノビス平方距離算出処理部73mは、下記の式(59)(60)に示すように、残差rを用いて、マハラノビス平方距離ε(k)を算出する。

Figure JPOXMLDOC01-appb-I000065

Figure JPOXMLDOC01-appb-I000066

Figure JPOXMLDOC01-appb-I000067
[位置のみで構成される状態ベクトルである場合]
 マハラノビス平方距離算出処理部73mは、下記の式(61)に示すように、Nステップ予測処理部73lにより算出された最新時刻tにおける融合航跡の予測位置ベクトルと、部分航跡の位置ベクトルとの残差rを算出する。

Figure JPOXMLDOC01-appb-I000068
 次に、マハラノビス平方距離算出処理部73mは、下記の式(62)(63)に示すように、残差共分散行列Sを算出し、式(60)に示すように、残差rと残差共分散行列S用いて、マハラノビス平方距離ε(k)を算出する。

Figure JPOXMLDOC01-appb-I000069

Figure JPOXMLDOC01-appb-I000070
 時間方向平滑処理部73gは、マハラノビス平方距離算出処理部73mがマハラノビス平方距離ε(k)を算出すると、そのマハラノビス平方距離ε(k)を時間方向に平滑化する時間方向平滑処理を実施する(ステップST67)。
 時間方向平滑処理部73gにおけるマハラノビス平方距離ε(k)の平滑化処理は、図5に示す時間方向平滑処理部71iにおけるマハラノビス平方距離ε(k)の平滑化処理と同様であるため、詳細な説明を省略する。
 閾値判定処理部73hは、時間方向平滑処理部73gがマハラノビス平方距離ε(k)を時間方向に平滑化すると、上記の式(36)に示すように、時間方向に平滑化されたマハラノビス平方距離である時間方向平滑値εav(k)と、事前に設定された閾値Thturnendとを比較する閾値判定処理を実施する(ステップST68)。
 閾値判定処理部73hは、その時間方向平滑値εav(k)が閾値Thturnend以下となり、式(36)が成立する場合、旋回が終了していると判定して、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグを“非旋回”に設定する。
 閾値判定処理部73hは、その時間方向平滑値εav(k)が閾値Thturnbgnより大きく、式(36)が成立しない場合、旋回が終了していないと判定して、“旋回”の統合旋回フラグを維持する。
 ここでは、閾値判定処理部73hが時間方向に平滑化されたマハラノビス平方距離と閾値を比較する例を示したが、閾値判定処理部73hが、現時刻tにおける時間方向平滑値εav(k)と、前時刻tk-1における時間方向平滑値εav(k-1)との差分値Δεav(k)を算出し、その差分値Δεav(k)が負となる回数が閾値Thcntより多くなると、旋回が終了していると判定するようにしてもよい。
 図23は閾値判定処理部73hの処理内容を示すフローチャートである。以下、図23を参照しながら、閾値判定処理部73hの処理内容を具体的に説明する。
 閾値判定処理部73hは、時間方向平滑処理部73gが現時刻tの時間方向平滑値εav(k)を算出する毎に、上記の式(37)に示すように、現時刻tにおける時間方向平滑値εav(k)と、前時刻tk-1における時間方向平滑値εav(k-1)との差分値Δεav(k)を算出する(ステップST71)。
 閾値判定処理部73hは、差分値Δεav(k)を算出すると、その差分値Δεav(k)が負であれば(ステップST72:YESの場合)、差分値カウンタDB37iに記録されているカウント値Cを1だけ増やすインクリメント処理を実施する(ステップST73)。そのカウント値Cは、差分値Δεav(k)が負になった回数を示すものであり、差分値カウンタDB37iに記録されているカウント値Cの初期値は0である。
 閾値判定処理部73hは、その差分値Δεav(k)が0以上であれば(ステップST72:NOの場合)、差分値カウンタDB37iに記録されているカウント値Cを維持する(ステップST74)。
 次に、閾値判定処理部73hは、上記の式(38)に示すように、差分値カウンタDB37iに記録されている回数Cと事前に設定された閾値Thcntを比較する(ステップST75)。
 閾値判定処理部73hは、差分値カウンタDB37iに記録されている回数Cが閾値Thcntより多くなり、式(38)が成立する場合(ステップST75:YESの場合)、旋回が終了していると判定して、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグを“非旋回”に設定する(ステップST76)。
 また、閾値判定処理部73hは、差分値カウンタDB37iに記録されている回数Cが閾値Thcnt以下であり、式(38)が成立しない場合(ステップST75:NOの場合)、“旋回”の統合旋回フラグを維持する(ステップST77)。
 閾値判定処理部73hは、その統合旋回フラグを“非旋回”に設定すると、差分値カウンタDB37iに記録されている回数Cを0に初期化する。
 旋回判定部17の旋回レベル算出処理部75は、旋回フラグDB72に記憶されている旋回フラグが“旋回”である場合、上記実施の形態1と同様に、センサ追尾処理部14から出力された目標相関済みセンサ観測値から、目標の旋回の度合いを示す旋回レベルを算出し、その旋回レベルを再追尾処理部16に出力する。
 追尾処理部12の再追尾処理部16は、センサ追尾処理部14から目標相関済みセンサ観測値を受けると、上記実施の形態1と同様に、その目標相関済みセンサ観測値が示す位置と、部分航跡記憶部15に記憶されている部分航跡が示す位置とが相関しているか否かを判定する。
 再追尾処理部16は、その目標相関済みセンサ観測値が示す位置と、部分航跡記憶部15に記憶されている部分航跡が示す位置とが相関しており、その目標相関済みセンサ観測値を当該部分航跡と対応付けることができると判断すると、上記実施の形態1と同様に、その目標相関済みセンサ観測値を部分航跡記憶部15に格納する。
 また、再追尾処理部16は、上記実施の形態1と同様に、その目標相関済みセンサ観測値と部分航跡記憶部15に記憶されている過去の目標相関済みセンサ観測値とから、目標の現時点における位置や速度などを含む状態ベクトルを有する部分航跡を推定する。
 再追尾処理部16は、部分航跡を推定すると、部分航跡記憶部15に記憶されている部分航跡を、その推定した部分航跡に置き換えるとともに、その推定した部分航跡に対して、旋回判定部17から出力された旋回フラグ及び旋回レベルを付加し、旋回フラグ及び旋回レベル付きの部分航跡を送信判定部19に出力する。
 送信判定部19は、再追尾処理部16から旋回フラグ及び旋回レベル付きの部分航跡を受けると、上記実施の形態1と同様に、その部分航跡が示す位置の時刻と、融合航跡記憶部18に記憶されている融合航跡が示す位置の時刻との時間差と、その部分航跡に付されている旋回フラグ及び旋回レベルとから、その部分航跡を送信するか否かを判定する。
 このとき、送信判定部19は、その部分航跡に付されている旋回フラグが“非旋回”である場合より、“旋回”である場合の方が、その旋回フラグ及び旋回レベル付きの部分航跡の送信を許可する判定結果を出す頻度を高めるようにする。
 また、その部分航跡に付されている旋回レベルが高い程、その旋回フラグ及び旋回レベル付きの部分航跡の送信を許可する判定結果を出す頻度を高めるようにする。
 ここでは、送信判定部19は、部分航跡に付されている旋回フラグが“旋回”であれば、上記実施の形態1と同様に、式(42)のシステム雑音パラメータを高めることで、部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにするものを想定しているが、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグが“旋回”であれば、その統合旋回フラグが“非旋回”である場合より、式(42)のシステム雑音パラメータを高めることで、部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにしてもよい。
 また、ここでは、送信判定部19は、部分航跡に付されている旋回レベルが高い程、上記実施の形態1と同様に、式(42)のシステム雑音パラメータを高めることで、その旋回フラグ及び旋回レベル付きの部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにするものを想定しているが、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回レベルが高い程、式(42)のシステム雑音パラメータを高めることで、その旋回フラグ及び旋回レベル付きの部分航跡を送信する旨を示す判定結果を出す頻度を高めるようにしてもよい
 以上で明らかなように、この実施の形態2によれば、上記実施の形態1と同様に、旋回している目標の追尾精度を確保しながら、通信容量を低減することができる効果を奏する。
 即ち、この実施の形態2によれば、目標が旋回している場合、部分航跡の送信頻度を高めて、目標の追尾精度を高めることができる。一方、目標が旋回していない場合、部分航跡の送信頻度を下げて、通信容量を低減することができる。
 また、この実施の形態2によれば、フラグ統合部91が、送受信部20から出力された部分航跡に付いている旋回フラグを用いて、融合航跡記憶部18に記憶されている融合航跡に付いている統合旋回フラグを更新するように構成したので、送受信部20から出力された部分航跡に付いている旋回フラグの精度が、あまり高くない場合でも、目標の旋回の有無に応じた送信頻度で部分航跡を送信することができる効果を奏する。
 また、送受信部20から出力された部分航跡に付いている旋回フラグの“旋回”が誤っている場合でも、その誤りの影響を受けずに、部分航跡を適正な送信頻度で送信することができる効果を奏する。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る目標追尾装置は、センサの観測値から目標の位置を推定する用途に適している。
 1-1~1-M 目標追尾装置、2 ネットワーク、11 センサ、12 追尾処理部、13 センサ航跡記憶部、14 センサ追尾処理部、15 部分航跡記憶部、16 再追尾処理部、17 旋回判定部、18 融合航跡記憶部、19 送信判定部、20 送受信部、21 航跡融合部、22 相関判定部、23 融合追尾処理部、24 表示処理部、41 記憶処理回路、42 センサ追尾処理回路、43 再追尾処理回路、44 旋回判定処理回路、45 送信判定処理回路、46 送受信処理回路、47 相関判定処理回路、48 融合追尾処理回路、49 表示処理回路、50 フラグ統合処理回路、61 メモリ、62 プロセッサ、71 旋回開始判定処理部、71a 旋回開始判定用観測値DB、71b 速度DB、71c 旋回開始判定用平滑航跡DB、71d 初期化処理部、71e 直線軌道推定処理部、71f 速度再平滑処理部、71g Nステップ予測処理部、71h マハラノビス平方距離算出処理部、71i 時間方向平滑処理部、71j 閾値判定処理部、72 旋回フラグDB、73 旋回終了判定処理部、73a 旋回終了判定用観測値DB、73b 旋回終了判定用平滑航跡DB、73c 初期化処理部、73d 軌道推定処理部、73e Nステップ予測処理部、73f マハラノビス平方距離算出処理部、73g 時間方向平滑処理部、73h 閾値判定処理部、73i 差分値カウンタDB、73j 旋回終了判定用融合航跡DB、73k 初期化処理部、73l Nステップ予測処理部、73m マハラノビス平方距離算出処理部、74 旋回フラグ出力処理部、75 旋回レベル算出処理部、75a 初期化処理部、75b 旋回レベル算出用観測値DB、75c 旋回軌道推定処理部、81 パラメータ変更処理部、82 融合航跡予測処理部、83 判定用誤差算出処理部、84 判定処理部、91 フラグ統合部、101 フラグ更新処理部、102 旋回開始時刻DB、103 誤判定解除処理部。

Claims (13)

  1.  センサから出力された目標の位置を示す観測値の時系列データから、前記目標の位置の情報を含む部分航跡を推定する追尾処理部と、
     前記観測値の時系列データから前記目標が旋回しているか否かを判定する旋回判定部と、
     前記目標の位置の情報を含む融合航跡を記憶している融合航跡記憶部と、
     前記追尾処理部により推定された部分航跡の時刻と前記融合航跡記憶部に記憶されている融合航跡の時刻との時間差と、前記旋回判定部の判定結果とから、前記追尾処理部により推定された部分航跡を送信するか否かを判定する送信判定部と、
     前記送信判定部の判定結果が部分航跡を送信する旨を示している場合に、前記部分航跡を他の目標追尾装置に送信し、他の目標追尾装置から送信された部分航跡を受信する送受信部と、
     前記送受信部により送信又は受信された部分航跡を用いて、前記融合航跡記憶部に記憶されている融合航跡を更新する航跡融合部と
     を備えた目標追尾装置。
  2.  前記追尾処理部は、
     前記目標の位置の情報を含むセンサ航跡と、前記目標の位置を示す観測値とを記憶するセンサ航跡記憶部と、
     前記センサから出力された観測値が示す位置と前記センサ航跡記憶部に記憶されているセンサ航跡が示す位置とが相関しているか否かを判定し、前記センサから出力された観測値が示す位置と前記センサ航跡が示す位置とが相関していれば、前記センサから出力された観測値を前記センサ航跡記憶部に格納するとともに、当該観測値と前記センサ航跡記憶部に記憶されている観測値とから、前記目標の位置の情報を含むセンサ航跡を推定し、前記センサ航跡記憶部に記憶されているセンサ航跡を前記推定したセンサ航跡に置き換えるセンサ追尾処理部と、
     前記目標の位置の情報を含む部分航跡と、前記目標の位置を示す観測値とを記憶する部分航跡記憶部と、
     前記センサ追尾処理部によりセンサ航跡が示す位置と相関していると判定された観測値が示す位置と、前記部分航跡記憶部に記憶されている部分航跡が示す位置とが相関しているか否かを判定し、当該観測値が示す位置と前記部分航跡が示す位置とが相関していれば、当該観測値を前記部分航跡記憶部に格納するとともに、当該観測値と前記部分航跡記憶部に記憶されている観測値とから、前記目標の位置の情報を含む部分航跡を推定し、前記部分航跡記憶部に記憶されている部分航跡を前記推定した部分航跡に置き換える再追尾処理部とを備えていることを特徴とする請求項1記載の目標追尾装置。
  3.  前記旋回判定部は、前記観測値の時系列データから前記目標の位置を推定して、前記推定した位置と前記センサから出力された観測値が示す位置との差をマハラノビス平方距離に換算し、前記マハラノビス平方距離から前記目標が旋回しているか否かを判定することを特徴とする請求項1記載の目標追尾装置。
  4.  前記旋回判定部は、前記観測値の時系列データから前記目標の位置を推定して、前記推定した位置と前記センサから出力された観測値が示す位置との差をマハラノビス平方距離に換算するとともに、前記マハラノビス平方距離を時間方向に平滑化し、前記時間方向に平滑化したマハラノビス平方距離と閾値を比較することで、前記目標が旋回しているか否かを判定することを特徴とする請求項1記載の目標追尾装置。
  5.  前記送信判定部は、前記旋回判定部により目標が旋回していないと判定された場合より、前記旋回判定部により目標が旋回していると判定された場合の方が、前記部分航跡を送信する旨を示す判定結果を出す頻度を高めることを特徴とする請求項1記載の目標追尾装置。
  6.  前記旋回判定部は、前記目標が旋回していると判定した場合、前記観測値の時系列データから前記目標の旋回の度合いを算出し、
     前記送信判定部は、前記旋回判定部により算出された旋回の度合いが大きい程、前記部分航跡を送信する旨を示す判定結果を出す頻度を高めることを特徴とする請求項5記載の目標追尾装置。
  7.  前記航跡融合部は、前記旋回判定部により算出された旋回の度合いが大きい程、前記融合航跡を更新する際に用いるシステム雑音パラメータを大きな値に設定することを特徴とする請求項6記載の目標追尾装置。
  8.  前記航跡融合部は、
     前記送受信部により送信又は受信された部分航跡が示す位置と前記融合航跡記憶部に記憶されている融合航跡が示す位置が相関しているか否かを判定する相関判定部と、
     前記相関判定部により相関していると判定された場合、前記部分航跡が示す位置と前記融合航跡が示す位置とから、前記目標の位置の情報を含む融合航跡を推定し、前記融合航跡記憶部に記憶されている融合航跡を前記推定した融合航跡に置き換える処理を実施し、前記相関判定部により相関していないと判定された場合、前記送受信部により送信又は受信された部分航跡を融合航跡として前記融合航跡記憶部に記録する融合追尾処理部とを備えていることを特徴とする請求項1記載の目標追尾装置。
  9.  前記追尾処理部は、前記旋回判定部の判定結果を示す旋回フラグを前記推定した部分航跡に付加して、前記旋回フラグ付きの部分航跡を出力し、
     前記送受信部は、前記送信判定部の判定結果が部分航跡を送信する旨を示している場合に、前記旋回フラグ付きの部分航跡を他の目標追尾装置に送信し、他の目標追尾装置から送信された旋回フラグ付きの部分航跡を受信し、
     前記融合航跡記憶部は、前記旋回フラグ付きの融合航跡を記憶しており、
     前記送受信部により送信又は受信された部分航跡に付いている旋回フラグを用いて、前記融合航跡記憶部に記憶されている融合航跡に付いている旋回フラグを更新するフラグ統合部を備えたことを特徴とする請求項1記載の目標追尾装置。
  10.  前記旋回判定部は、前記融合航跡記憶部に記憶されている融合航跡に付いている旋回フラグが、前記目標が旋回していない旨を示している場合、前記目標が旋回を開始しているか否かを判定する旋回開始判定処理を実施することを特徴とする請求項9記載の目標追尾装置。
  11.  前記旋回判定部は、前記融合航跡記憶部に記憶されている融合航跡と、前記送受信部により送信又は受信された部分航跡との差異から、前記目標が旋回を終了しているか否かを判定する旋回終了判定処理を実施することを特徴とする請求項9記載の目標追尾装置。
  12.  前記旋回判定部は、前記融合航跡記憶部に記憶されている融合航跡に付いている旋回フラグと、前記送受信部により送信又は受信された部分航跡に付いている旋回フラグとから、前記目標が旋回を終了しているか否かを判定する旋回終了判定処理を実施することを特徴とする請求項9記載の目標追尾装置。
  13.  前記旋回判定部は、前記融合航跡記憶部に記憶されている融合航跡に付いている旋回フラグを用いて、前記観測値の時系列データから判定した旋回の判定結果を訂正することを特徴とする請求項9記載の目標追尾装置。
PCT/JP2016/053987 2016-02-10 2016-02-10 目標追尾装置 WO2017138119A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017559896A JP6279188B2 (ja) 2016-02-10 2016-02-10 目標追尾装置
PCT/JP2016/053987 WO2017138119A1 (ja) 2016-02-10 2016-02-10 目標追尾装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/053987 WO2017138119A1 (ja) 2016-02-10 2016-02-10 目標追尾装置

Publications (1)

Publication Number Publication Date
WO2017138119A1 true WO2017138119A1 (ja) 2017-08-17

Family

ID=59563634

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/053987 WO2017138119A1 (ja) 2016-02-10 2016-02-10 目標追尾装置

Country Status (2)

Country Link
JP (1) JP6279188B2 (ja)
WO (1) WO2017138119A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657732A (zh) * 2018-12-28 2019-04-19 杭州电子科技大学 利用目标可见性实现航迹管理的多传感器航迹融合方法
JP2019124637A (ja) * 2018-01-18 2019-07-25 三菱電機株式会社 追尾処理装置及び追尾処理方法
JP2019184360A (ja) * 2018-04-06 2019-10-24 三菱電機株式会社 センサ装置、誤差検出方法および誤差検出プログラム
CN110542897A (zh) * 2019-08-01 2019-12-06 北京理工大学 一种基于希尔排序的距离差分多扩展目标点迹凝聚方法
CN113111142A (zh) * 2021-03-23 2021-07-13 中国人民解放军91388部队 指显平台对水下目标航迹野值的实时处理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6338011B1 (en) * 2000-01-11 2002-01-08 Solipsys Corporation Method and apparatus for sharing vehicle telemetry data among a plurality of users over a communications network
JP2002174499A (ja) * 2000-12-07 2002-06-21 Fuji Heavy Ind Ltd 目標未来位置推定方法及び目標未来位置推定装置
JP2004226239A (ja) * 2003-01-23 2004-08-12 Mitsubishi Electric Corp 目標運動判定装置
JP2009501334A (ja) * 2005-07-14 2009-01-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 確率質量拡散によるモデルセットの適応
JP2010281782A (ja) * 2009-06-08 2010-12-16 Mitsubishi Electric Corp 目標追尾装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6338011B1 (en) * 2000-01-11 2002-01-08 Solipsys Corporation Method and apparatus for sharing vehicle telemetry data among a plurality of users over a communications network
JP2002174499A (ja) * 2000-12-07 2002-06-21 Fuji Heavy Ind Ltd 目標未来位置推定方法及び目標未来位置推定装置
JP2004226239A (ja) * 2003-01-23 2004-08-12 Mitsubishi Electric Corp 目標運動判定装置
JP2009501334A (ja) * 2005-07-14 2009-01-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 確率質量拡散によるモデルセットの適応
JP2010281782A (ja) * 2009-06-08 2010-12-16 Mitsubishi Electric Corp 目標追尾装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SANDELL ET AL.: "Distributed Data Association for Multi-Target Tracking in Sensor Networks", PROCEEDINGS OF THE 47TH IEEE CONFERENCE ON DECISION AND CONTROL (CDC 2008, 11 December 2008 (2008-12-11), pages 1085 - 1090, XP031401658, ISBN: 978-1-4244-3124-3 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019124637A (ja) * 2018-01-18 2019-07-25 三菱電機株式会社 追尾処理装置及び追尾処理方法
JP2019184360A (ja) * 2018-04-06 2019-10-24 三菱電機株式会社 センサ装置、誤差検出方法および誤差検出プログラム
CN109657732A (zh) * 2018-12-28 2019-04-19 杭州电子科技大学 利用目标可见性实现航迹管理的多传感器航迹融合方法
CN109657732B (zh) * 2018-12-28 2022-03-15 杭州电子科技大学 利用目标可见性实现航迹管理的多传感器航迹融合方法
CN110542897A (zh) * 2019-08-01 2019-12-06 北京理工大学 一种基于希尔排序的距离差分多扩展目标点迹凝聚方法
CN110542897B (zh) * 2019-08-01 2021-08-13 北京理工大学 一种基于希尔排序的距离差分多扩展目标点迹凝聚方法
CN113111142A (zh) * 2021-03-23 2021-07-13 中国人民解放军91388部队 指显平台对水下目标航迹野值的实时处理方法
CN113111142B (zh) * 2021-03-23 2024-02-02 中国人民解放军91388部队 指显平台对水下目标航迹野值的实时处理方法

Also Published As

Publication number Publication date
JP6279188B2 (ja) 2018-02-14
JPWO2017138119A1 (ja) 2018-04-05

Similar Documents

Publication Publication Date Title
JP6279188B2 (ja) 目標追尾装置
US9071829B2 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
US10415975B2 (en) Motion tracking with reduced on-body sensors set
JP5419784B2 (ja) 予測装置及び予測システム及びコンピュータプログラム及び予測方法
CN111829505B (zh) 多传感器航迹质量外推航迹融合方法
CN111723624B (zh) 一种头部运动跟踪方法和系统
JP2017015410A (ja) センサ出力補正装置
CN109506647B (zh) 一种基于神经网络的ins和磁力计组合定位方法
CN110422175A (zh) 车辆状态估计方法以及装置、电子设备、存储介质、车辆
JP5991806B2 (ja) 航跡統合装置及び航跡統合システム及びコンピュータプログラム及び航跡統合方法
WO2022166046A1 (zh) 基于事件触发状态估计的车辆质心侧偏角估计方法及系统
KR101813790B1 (ko) 특징 기반 다중 센서 정보 융합 장치 및 방법
JP4900611B2 (ja) オプトエレクトロニクス利用の監視システムにおける点状の目標の検出及びトラッキング方法
JP6035671B2 (ja) デバイスの状態同定方法と装置
CN115143954B (zh) 一种基于多源信息融合的无人车导航方法
Hu et al. Reinforcement learning for orientation estimation using inertial sensors with performance guarantee
JP6513310B1 (ja) 航跡推定装置及び携帯情報端末
JP4879202B2 (ja) 追尾装置及びプログラム及び追尾方法
JP4166651B2 (ja) 目標追尾装置
EP3581956A1 (en) Method for calculating a position of an athlete on a sports field
CN115423022A (zh) 基于多源传感器宽窄带数据的融合方法、系统及存储介质
JP5341296B2 (ja) レーダ装置
KR20220002087A (ko) 심층 신경망을 이용한 차선 추정 방법 및 장치
JP2005331248A (ja) 目標追尾装置及び目標追尾方法
JP3792927B2 (ja) 目標追尾装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16889821

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017559896

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16889821

Country of ref document: EP

Kind code of ref document: A1