WO2021161502A1 - 学習装置、学習方法、記録媒体、及び、レーダ装置 - Google Patents

学習装置、学習方法、記録媒体、及び、レーダ装置 Download PDF

Info

Publication number
WO2021161502A1
WO2021161502A1 PCT/JP2020/005761 JP2020005761W WO2021161502A1 WO 2021161502 A1 WO2021161502 A1 WO 2021161502A1 JP 2020005761 W JP2020005761 W JP 2020005761W WO 2021161502 A1 WO2021161502 A1 WO 2021161502A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
learning
unit
detection information
target detection
Prior art date
Application number
PCT/JP2020/005761
Other languages
English (en)
French (fr)
Inventor
剛志 柴田
元貴 真坂
阿部 祐一
健太郎 工藤
正徳 加藤
昇平 池田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/797,600 priority Critical patent/US20230110788A1/en
Priority to PCT/JP2020/005761 priority patent/WO2021161502A1/ja
Priority to JP2022500175A priority patent/JPWO2021161502A5/ja
Publication of WO2021161502A1 publication Critical patent/WO2021161502A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/872Combinations of primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Definitions

  • the present invention relates to a monitoring technique using radar.
  • Patent Document 1 discloses a method of monitoring a moving target of an aircraft, a vehicle, or the like with a radar device.
  • a tracking filter that has both tracking accuracy and tracking performance in order to track a high mobility target that makes a steep turn, but such a tracking filter is actually realized. It's difficult. Further, when tracking a target, correlation processing is performed to associate the target with the plot, but in an area where there are many clutters, there is a risk that the erroneously detected clutter is associated with the target, and the tracking accuracy is lowered.
  • One object of the present invention is to realize a radar device capable of performing tracking processing that achieves both tracking accuracy and tracking performance.
  • the learning device The first acquisition unit that acquires the target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information from the radar device.
  • a second acquisition unit that acquires target position information indicating the target position, and
  • a learning data generation unit that generates learning data using the target detection information, the track, and the target position information. It includes a learning processing unit that learns a tracking model that performs tracking processing of the target based on the target detection information using the learning data.
  • the learning method The target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information are acquired from the radar device. Acquire the target position information indicating the target position, and Learning data is generated by using the target detection information, the track, and the target position information. Using the training data, a tracking model that performs tracking processing of the target is learned based on the target detection information.
  • the recording medium is The target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information are acquired from the radar device. Acquire the target position information indicating the target position, and Learning data is generated by using the target detection information, the track, and the target position information. Using the training data, a program for causing a computer to execute a process of learning a tracking model that performs a tracking process of the target based on the target detection information is recorded.
  • the radar device A target detection unit that transmits a transmission wave and generates target detection information indicating the position of the target based on the reception wave corresponding to the transmission wave. Using a tracking model that has been trained using the training data generated based on the target detection information, the track of the target calculated based on the target detection information, and the target position information indicating the position of the target. A tracking processing unit that performs tracking processing of the target based on the target detection information is provided.
  • the basic configuration of the radar device is shown.
  • the configuration of the signal processing unit is shown.
  • the configuration when learning the tracking model is shown.
  • the hardware configuration of the learning device is shown. It is a flowchart of the learning process by a learning device.
  • Another example of the learning device is shown.
  • the configuration of the radar device to which the trained model is applied is shown. It is a flowchart of the target detection process by a radar device.
  • the configuration of other radar devices to which the trained model is applied is shown.
  • the configuration when beam control for collecting training data is performed is shown.
  • the configuration for online learning is shown.
  • the configuration for validating the trained model is shown.
  • the configuration for suppressing the motion fluctuation due to the trained model is shown.
  • the configuration of the learning device and the radar device according to the second embodiment is shown.
  • the radar device in this embodiment can be used for a monitoring system such as a moving body existing in the surroundings. Specifically, the radar device emits a transmitted wave to the surroundings, receives the reflected wave, detects a moving body (hereinafter, also referred to as a “target”), and tracks the target as necessary. Targets include, for example, aircraft flying in the air, vehicles moving on the ground, ships moving over the sea, and the like. In the following embodiments, for convenience of description, the radar device is used for air traffic control and the target is primarily an aircraft.
  • FIG. 1 is a block diagram showing a basic configuration of a radar device.
  • the radar device 100 includes an antenna unit 101, a transmission / reception unit 102, a signal processing unit 103, a beam control unit 104, a target detection unit 105, a tracking processing unit 106, and a display operation unit 107.
  • the antenna unit 101 amplifies the electric signal (hereinafter, also referred to as “transmission signal”) input from the transmission / reception unit 102, and transmits a wave (referred to as “beam”) in the transmission direction instructed by the beam control unit 104. Is emitted. Further, the antenna unit 101 receives the reflected wave due to the target of the emitted transmitted wave, converts it into an electric signal (hereinafter, also referred to as “received signal”), synthesizes it, and outputs it to the transmitting / receiving unit 102.
  • the radar device 100 constantly emits a beam (referred to as a “scan beam”) that scans in all directions (around 360 °), and monitors the existence of a target in the surroundings.
  • a beam for tracking the target referred to as a “tracking beam”
  • tracks the trajectory of the target referred to as a “track”.
  • the antenna unit 101 is composed of an antenna whose transmission direction can be changed instantly, such as an array antenna including a plurality of antenna elements.
  • a plurality of planar array antennas can be arranged so as to cover all directions, or a cylindrical array antenna can be used.
  • the scan beam can be constantly emitted in all directions, and the tracking beam can be emitted in the direction of the target when the target is detected.
  • the transmission / reception unit 102 generates an electric signal based on the transmission wave specifications (hereinafter, also referred to as “beam specifications”) instructed by the beam control unit 104, and outputs the electric signal to the antenna unit 101.
  • the beam specifications are the pulse width of the transmitted wave, the transmission timing, and the like.
  • the signal processing unit 103 performs demodulation processing, integration processing, and the like on the received signal input from the transmission / reception unit 102, and the processed received signal (hereinafter, also referred to as “processed signal”) is the target detection unit 105.
  • FIG. 2 is a block diagram showing the configuration of the signal processing unit 103.
  • the signal processing unit 103 includes a demodulation processing unit 110 and a coherent integration unit 111.
  • the demodulation processing unit 110 demodulates (pulse compression) the received signal input from the transmission / reception unit 102. Basically, in order to detect a distant target by radar, a high power and sharp transmission wave (transmission pulse) is required, but there is a limit to the increase in power due to hardware restrictions.
  • the transmission / reception unit 102 frequency-modulates a transmission signal having a predetermined pulse width to generate a transmission wave having a long duration, which is transmitted from the antenna unit 101.
  • the demodulation processing unit 110 demodulates the received signal input from the transmission / reception unit 102 to generate a sharp reception pulse, and outputs the sharp reception pulse to the coherent integration unit 111.
  • the coherent integration unit 111 coherently integrates a plurality of pulses input from the demodulation processing unit 110 to remove noise and improve the SNR.
  • the radar device 100 emits a plurality of pulses in the same direction (same direction and elevation angle) in order to detect the target with high accuracy.
  • the number of pulses emitted in the same direction is called the "hit number”.
  • the coherent integration unit 111 integrates the received signals (received pulses) of the beams emitted in the same direction for a predetermined number of hits to improve the SNR of the received signals.
  • the number of received pulses integrated by the coherent integrating unit 111 is also referred to as "integrated pulse number".
  • the number of integrated pulses is basically equal to the number of hits of the emitted beam.
  • the target detection unit 105 detects the target from the processed signal input from the signal processing unit 103 using a predetermined threshold value.
  • the target detection unit 105 measures the target distance, direction, and elevation angle, and outputs these as a target detection result (hereinafter, referred to as “plot”) to the tracking processing unit 106.
  • the plot includes the target distance, orientation, elevation, SNR, and so on. Further, the target detection unit 105 sets a threshold value for detecting the target based on the threshold value set value input from the display operation unit 107.
  • the tracking processing unit 106 performs tracking processing on a plurality of plots input from the target detection unit 105, and calculates a target track. Specifically, the tracking processing unit 106 estimates the target position (referred to as “estimated target position”) at the current time based on a plurality of plots, and outputs the estimation to the display operation unit 107. Further, the tracking processing unit 106 calculates a target predicted position (referred to as “predicted target position”) based on a plurality of plots, and outputs the predicted position to the beam control unit 104. The predicted target position indicates the position where the radar device 100 next hits the tracking beam.
  • the tracking processing unit 106 performs correlation processing and tracking filter processing.
  • the correlation process is a process of associating a plurality of plots obtained by the target detection unit 105 with a target. When a plurality of targets are detected at the same time, it is determined which target each of the obtained plots corresponds to, and each plot is associated with each target.
  • the tracking filtering process calculates the track of each target using the plot associated with each target. As a result, an estimated target position indicating the current position of the target and a predicted target position indicating the predicted position of the future target can be obtained.
  • the beam control unit 104 determines the transmission direction and beam specifications of the scan beam according to a preset beam schedule. Further, the beam control unit 104 determines the transmission direction and beam specifications of the tracking beam based on the predicted target position input from the tracking processing unit 106. Then, the beam control unit 104 outputs the transmission directions of the scan beam and the tracking beam to the antenna unit 101, and outputs the beam specifications of the scan beam and the tracking beam to the transmission / reception unit 102.
  • the display operation unit 107 includes a display unit such as a display and an operation unit such as a keyboard, a mouse, and operation buttons.
  • the display operation unit 107 displays the positions of a plurality of plots input from the target detection unit 105 and the estimated target positions input from the tracking processing unit 106. This allows the operator to see the current position and track of the detected target. Further, by operating the display operation unit 107, the operator inputs the threshold value used for the target detection to the target detection unit 105, and the signal processing unit 103 inputs the clutter determination result used for the demodulation processing to the signal processing unit. It can be input to 103.
  • the "clutter" is a signal generated by reflecting the emitted radar by an object other than the target. The operator can determine an area that is empirically considered to be a clutter from the plurality of plots displayed on the display operation unit 107, and operate the display operation unit 107 to specify the area. This is called "clutter judgment".
  • the radar device 100 constantly emits a scan beam in all directions to detect a target, and when a target is detected, emits a tracking beam to a predicted target position to track the target. do.
  • a radar device with a tracking function it is necessary to use a tracking filter that has both tracking accuracy and tracking performance in order to track a high mobility target that makes a steep turn, but such a tracking filter is actually realized. It's difficult. Further, when tracking a target, correlation processing is performed to associate the target with the plot, but in an area where there are many clutters, there is a risk that the erroneously detected clutter is associated with the target, and the tracking accuracy is lowered. Therefore, in the present embodiment, the tracking process is performed using the model generated by machine learning. Specifically, the tracking model is learned using the plot obtained by the target detection unit 105 and the teacher label (correct answer label) for the plot, and the learned tracking model is applied to the tracking processing unit. This makes it possible to improve the detection performance while suppressing the cost.
  • FIG. 3 shows the configuration of the radar device 300 and the learning device 200 according to the present embodiment.
  • a radar device 300 including a primary radar (PSR: Primary Surveillance Radar) and a secondary radar (SSR: Secondary Surveillance Radar) is used.
  • the radar device 300 includes a PSR antenna unit 301, a PSR transmission / reception unit 302, a PSR signal processing unit 303, a beam control unit 304, a PSR target detection unit 305, a tracking processing unit 306, and a display operation.
  • a unit 307 is provided.
  • the radar device 300 includes an SSR antenna unit 308, an SSR transmission / reception unit 309, and an SSR target detection unit 310.
  • the SSR transmitter / receiver unit 309 outputs a question signal to the SSR antenna unit 308, and the SSR antenna unit 308 transmits a question wave to the target. Further, the SSR antenna unit 308 receives the response wave for the question wave from the target and outputs the response signal to the SSR transmission / reception unit 309.
  • the SSR transmission / reception unit 309 performs A / D conversion of the response signal and outputs the response signal to the SSR target detection unit 310.
  • the response signal includes target position information
  • the SSR target detection unit 310 generates a target plot (referred to as “SSR plot”) D2 based on the response signal, and sends the tracking processing unit 306 to the target plot (referred to as “SSR plot”) D2. Output.
  • the tracking processing unit 306 generates a target track D3 by using the target plot (referred to as “PSR plot”) D1 and the SSR plot D2 detected by the PSR target detection unit 305.
  • the PSR plot is an example of a primary radar plot
  • the SSR plot is an example of a secondary radar plot.
  • the learning device 200 is provided to learn the tracking model applied to the tracking processing unit.
  • the learning device 200 includes a learning data generation unit 201, a data collection unit 202, and a learning processing unit 204.
  • the PSR plot D1 is input from the PSR target detection unit 305
  • the SSR plot D2 is input from the SSR target detection unit 310
  • the track D3 is input from the tracking processing unit 306 to the learning data generation unit 201.
  • the learning data generation unit 201 uses the SSR plot D2 and the track D3 to generate a teacher label for the target track.
  • the teacher label includes the target position, velocity, acceleration, true goal / false goal (true or false goal).
  • the "true target” refers to a correct target such as an aircraft
  • the "wrong target” refers to an object such as a clutter that is mistakenly recognized as a target.
  • the tracking model to be learned is also configured as a model that performs correlation processing and tracking filter processing.
  • the learning data generation unit 201 uses the SSR plot D2 to generate a teacher label indicating whether each PSR plot is a true goal or a false goal. Since the SSR plot D2 is obtained for the target that responded to the question signal, the training data generator 201 basically has a teacher label of "true target" on the PSR plot D1 where the corresponding SSR plot D2 is present. And give a teacher label of "wrong target" to the PSR plot D1 in which the corresponding SSR plot D2 does not exist.
  • the tracking model will be able to determine whether the input PSR plot D1 is a true goal or a false goal.
  • the correlation processing it is possible to prevent the plot obtained by erroneously detecting a clutter or the like from being associated with the target, and stable tracking becomes possible.
  • the learning data generation unit 201 generates teacher labels such as a target position, speed, and acceleration for each PSR plot D1 based on the SSR plot D2 and the track D3.
  • teacher labels such as a target position, speed, and acceleration for each PSR plot D1 based on the SSR plot D2 and the track D3.
  • the self-position can be used as a fairly accurate target position.
  • the learning data generation unit 201 can obtain the target speed, acceleration, and the like corresponding to the PSR plot D1 based on the track D3.
  • the teacher labels such as the position, speed, and acceleration of the target generated in this way, the tracking model can learn the movements performed by various targets, and has both tracking accuracy and tracking performance. Tracking processing becomes possible.
  • the learning data generation unit 201 uses a pair of the PSR plot and the teacher label generated as described above for the PSR plot as training data, and outputs the pair to the data collection unit 202.
  • the data collection unit 202 stores the learning data input from the learning data generation unit 201.
  • the data collection unit 202 stores learning data with a target position, speed, acceleration, and true target / false target teacher labels for each PSR plot.
  • the learning processing unit 204 acquires learning data from the data collecting unit 202, learns the tracking model, and generates a learned tracking model.
  • FIG. 4 is a block diagram showing a hardware configuration of the learning device 200 shown in FIG.
  • the learning device 200 includes an input IF (InterFace) 21, a processor 22, a memory 23, a recording medium 24, and a database (DB) 25.
  • IF InterFace
  • DB database
  • the input IF 21 inputs and outputs data to and from the radar device 300. Specifically, the input IF 21 acquires the PSR plot D1, the SSR plot D2, and the track D3 from the radar device 300.
  • the processor 22 is a computer including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the entire learning device 200 by executing a program prepared in advance.
  • the processor 22 functions as the learning data generation unit 201 and the learning processing unit 204 shown in FIG.
  • the memory 23 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 23 stores various programs executed by the processor 22.
  • the memory 23 is also used as a working memory during execution of various processes by the processor 22.
  • the recording medium 24 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be removable from the learning device 200.
  • the recording medium 24 records various programs executed by the processor 22. When the learning device 200 executes the process, the program recorded on the recording medium 24 is loaded into the memory 23 and executed by the processor 22.
  • the DB 25 stores the data input through the input IF 21 and the data generated by the learning device 200. Specifically, the PSR plot D1, the SSR plot D2 and the track D3 input from the radar device 300, and the learning data generated by the learning data generation unit 201 are stored in the DB 25.
  • FIG. 5 is a flowchart of the learning process by the learning device 200. This process can be realized by the processor 22 shown in FIG. 4 executing a program prepared in advance and operating as each element shown in FIG.
  • the learning data generation unit 201 acquires the PSR plot D1 output by the PSR target detection unit 305 of the radar device 300 (step S11), and the learning data generation unit 201 acquires the SSR plot output by the SSR target detection unit 310.
  • the track D2 and the track D3 output by the tracking processing unit 306 are acquired (step S12).
  • the learning data generation unit 201 generates learning data including the PSR plot D1 and the teacher label for the PSR plot D1 using the PSR plot D1, the SSR plot D2, and the track D3, and stores the learning data in the data collection unit 202 ( Step S13).
  • the learning processing unit 204 learns the tracking model using the input learning data (step S204).
  • the learning processing unit 204 determines whether or not the predetermined learning end condition is satisfied (step 15).
  • An example of the learning end condition is that learning using a predetermined amount of learning data or learning a predetermined number of times has been performed.
  • the learning processing unit 204 repeats learning until the learning end condition is satisfied, and ends the process when the learning end condition is satisfied.
  • FIG. 6 shows another example of the learning device.
  • the learning device 200 shown in FIG. 3 generates learning data using actual data generated in the actual radar device 300, such as a PSR plot, an SSR plot, and a track. Instead, training data may be prepared by simulation and training may be performed.
  • FIG. 6 shows a learning device 200a that uses simulated data, and includes a simulated data generation unit 205 and a learning processing unit 204.
  • the simulation data generation unit 205 generates learning data (simulation data) including PSR plots in various situations and teacher labels for the PSR plots by simulation, and inputs them to the learning processing unit 204.
  • the learning processing unit 204 is basically the same as that shown in FIG. 3, and learns the tracking model using simulated data.
  • One tracking model may be learned by combining the example of FIG. 3 and this example, and using the learning data generated based on the actual data of the radar device 300 and the simulated data in combination.
  • FIG. 7 is a block diagram showing a configuration of a radar device 300x to which a trained tracking model is applied.
  • the radar device 300x includes a tracking processing unit 314 instead of the tracking processing unit 306 in FIG. Since the configurations other than the tracking processing unit 314 are the same as those in FIG. 3, the description thereof will be omitted.
  • a learned tracking model generated by the above learning process is set in the tracking processing unit 314.
  • the tracking processing unit 314 detects a target from the input PSR plot using the trained tracking model. Specifically, the tracking processing unit 314 calculates the target track from the PSR plot using the tracking model. Then, the tracking processing unit 314 outputs the estimated target position to the display operation unit 307, and outputs the predicted target position to the beam control unit 304.
  • FIG. 8 is a flowchart of tracking processing by the radar device 300x.
  • the tracking processing unit 314 acquires a PSR plot from the PSR target detection unit 305 (step S21).
  • the tracking processing unit 314 calculates the target track using the learned tracking model based on the acquired PSR plot (step S22), and outputs the detected target track (step S23).
  • the tracking processing unit 314 determines whether the input PSR plot is the true target or the erroneous target. You will be able to determine whether or not. As a result, in the correlation processing, it is possible to prevent the plot obtained by erroneously detecting a clutter or the like from being associated with the target. Further, by learning using the teacher label such as the position, speed, and acceleration of the target with respect to the PSR plot, the tracking processing unit 314 can learn the movements performed by various targets, and the tracking accuracy and the tracking property can be improved. Both are possible.
  • the trained tracking model is applied to the radar device having the SSR shown in FIG. 3, but instead, it may be applied to the radar device having only PSR shown in FIG. ..
  • FIG. 9 shows an example in which a trained tracking model is applied to a PSR-only radar device 100x. It is the same as the radar device 100 shown in FIG. 1 except that a learned tracking model is used for the tracking processing unit 114, as can be understood by comparing with FIG. 1.
  • the tracking model may be trained using the training data in which the SNR is deteriorated by intentionally adding noise to the PSR plot used as input data when learning the tracking model. This makes it possible to generate a highly accurate tracking model even in an environment with a low SNR.
  • a teacher label indicating a target position and a true target / erroneous target can be generated by the following method.
  • the learning data generation unit 201 starts from the target.
  • a teacher label can be generated based on the received response signal.
  • the learning data generation unit 201 may set the PSR plot corresponding to the target that has transmitted the response signal as the true target, and use the self-position of the target included in the response signal as the target position.
  • the aircraft detected as a target includes military aircraft in addition to passenger aircraft.
  • Identified aircraft such as passenger aircraft and military aircraft in their own country (hereinafter referred to as "friendly aircraft") respond to the question signal, but unidentified aircraft such as military aircraft in other countries (hereinafter referred to as "friendly aircraft”). Since the "unknown aircraft” does not respond to the question signal, the teacher label cannot be generated for the received signal including the unknown aircraft as a target. However, in the case of air defense radar, it is the unknown aircraft that really wants to detect and track.
  • the targets that can be detected as targets from the received signal are three types of classes: "clutter (including noise)", "friendly machine”, and "unknown machine".
  • the target is "clutter", which means that the target does not actually exist, but the clutter is erroneously detected as the target.
  • the only class that responds to the question signal of the secondary radar and is given the teacher label (the correct answer is given) is the "friendly machine”.
  • the characteristics of the received signals are similar.
  • the unknown aircraft is detected by the following procedure.
  • the learning data generation unit 201 creates a model that extracts the reception signals of the "clutter”, the “friend machine”, and the “unknown machine” from all the reception signals by using the reception signals of the "friend machine” (processing). 1).
  • the learning data generation unit 201 receives the extracted signals of the "clutter”, “ally”, and “unknown machine” that are not determined to be “ally” (that is, “clutter” or “clutter” or.
  • the received signal having characteristics similar to those of "ally machine” is determined to be “unknown machine", and "unknown machine label” is generated (process 2).
  • the learning data generation unit 201 creates a model for detecting the "unknown machine” from the received signal by using the received signal determined to be the "unknown machine” and the "unknown machine label” (process 3). This model makes it possible to detect an unknown aircraft that does not respond to the question signal of the secondary radar from the received signal.
  • the accuracy of the "unknown machine label” generated in the above process 2 may be a problem.
  • the "unknown machine label” may be given manually by an operator or the like. According to this method, only the “received signal having characteristics similar to those of the" ally machine “among the received signals determined to be” clutter "or” unknown machine “extracted in the above process 2" is manually " The label "Unknown machine” may be added. That is, in the process 1 and the process 2, it is sufficient to manually label the received signal after narrowing down to the received signal having a high possibility of being an “unknown machine”. Therefore, the amount of manual work can be significantly reduced as compared with the case where the received signal including all of the "clutter", “friendly machine”, and "unknown machine” is manually labeled.
  • the SSR is used to acquire the target position and generate the teacher label.
  • the learning data generation unit 201 may generate a teacher label using plots and tracks obtained from other radar devices. Further, the learning data generation unit 201 may generate a teacher label using the track (passive track) of the passive radar that only receives. The "passive wake" is the result of tracking the jamming transmitter based on the jamming wave, and the learning data generation unit 201 can use this to generate the estimated position of the jamming transmitter as a teacher label. ..
  • (C) Use of other measuring devices, etc.
  • the target aircraft is equipped with a positioning device such as GPS, the output may be received to generate a teacher label.
  • the target is a drone.
  • a stereo camera or the like may be used to estimate the target position from the captured image of the target to generate a teacher label.
  • the ship information may be received from the automatic identification system (AIS) of the ship, the position of the target may be acquired, and the teacher label may be generated.
  • AIS automatic identification system
  • (D) Manual assignment The operator may assign a teacher label by looking at the plot, track, etc. displayed on the display operation unit 107.
  • the radar device is installed on the ground, but the method of this embodiment is applied to a radar device mounted on a moving body such as an aircraft or a ship. Is also applicable.
  • the moving body information position, posture, speed, course, etc. of the moving body itself
  • the moving body information is input to the learning data generation device 201, and the learning processing unit 204 learns the model by using the moving body information in addition to the PSR plot as the learning data.
  • the moving body information may be input to the tracking processing unit 114 or 314, and the tracking processing unit 114 or 314 may perform the tracking processing using the moving body information.
  • the radar device 300 implements beam control for collecting learning data between beam schedules. In particular, when the conditions specified in advance are met, the radar device 300 focuses on beam control. The content of the beam control is changed according to the data to be collected.
  • FIG. 10 shows a configuration when beam control for collecting learning data is performed.
  • the radar device 300 has the same configuration as in FIG.
  • the learning device 200 includes a data collection control unit 215 in addition to the configuration shown in FIG.
  • the data collection control unit 215 stores the condition that the learning data is insufficient, and outputs the data collection request D5 including the condition of the data to be collected to the beam control unit 304 of the radar device 300.
  • the beam control unit 304 controls the PSR antenna unit 301 between beam schedules to emit a beam under the conditions shown in the data collection request D5.
  • the radar device 300 constantly monitors all directions with a scan beam, and when it detects a target, it tracks the target with a tracking beam.
  • the beam control unit 304 can emit a beam for collecting learning data, for example, when the target is not detected or when it is not necessary to track the target.
  • the reflected wave corresponding to the emitted beam is received by the PSR antenna unit 301, and the received signal is input to the PSR target detection unit 305 via the PSR transmission / reception unit 302 and the PSR signal processing unit 303.
  • the PSR plot generated by the PSR target detection unit 305 is output to the learning data generation unit 201. In this way, the learning device 200 can collect data corresponding to the missing condition.
  • FIG. 11 shows the configuration of a radar device and a learning device for performing online learning.
  • the radar device 100a includes an antenna unit 101, a transmission / reception unit 102, a switching unit 120, and two systems of control / data processing units 121a and 121b.
  • the control / data processing units 121a and 121b are units including a signal processing unit 103, a beam control unit 104, a target detection unit 105, a tracking processing unit 106, and a display operation unit 107 of the radar device shown in FIG.
  • the switching unit 120 selectively connects one of the control / data processing units 121a and 121b to the antenna unit 101 and the transmission / reception unit 102. Further, the switching unit 120 outputs the data D6 including the received signal, the plot, the track, etc. from the operating control / data processing unit 121a or 121b to the learning data generation unit 201 of the learning device 200a.
  • the learning device 200a includes a learning result evaluation unit 220 and a learning result application unit 221 in addition to the learning data generation unit 201, the data collection unit 202, and the learning processing unit 204.
  • the learning result evaluation unit 220 evaluates the learned model generated by the learning processing unit 204, and outputs the learned model determined to be applicable to the radar device 100a to the learning result application unit 221.
  • the learning result application unit 221 applies the learned model determined to be applicable to the control / data processing units 121a and 121b.
  • control / data processing unit 121a is in the active state (during the actual monitoring operation) and the control / data processing unit 121b is in the standby state. That is, the switching unit 120 connects the control / data processing unit 121a to the antenna unit 101 and the transmission / reception unit 102.
  • the learning device 200a learns the tracking model using the data D6 output from the control / data processing unit 121a in the active state.
  • the learning result application unit 221 applies the learned model determined to be applicable to the control / data processing unit 121b in the standby state, and rewrites the program.
  • the switching unit 120 puts the control / data processing unit 121b in the active state, puts the control / data processing unit 121a in the standby state, and applies a new learned model to the control / data processing unit 121a in the standby state.
  • the tracking model can be learned while continuing the monitoring operation on one side of the control / data processing unit 121, and the trained model can be applied to the other side. That is, it is possible to apply the trained model and perform online learning.
  • the tracking processing unit to which the trained model is applied may perform unexpected operations, such as erroneously detecting a clutter that would not be erroneously detected by conventional processing, and recovery is required at that time. Become. Therefore, the validity of the trained model is determined by operating the control / data processing unit to which the trained model is applied and the control / data processing unit that performs the conventional processing in parallel and comparing the processing results.
  • FIG. 12 shows the configuration of a radar device and a learning device for evaluating the validity of the trained model.
  • the radar device 100b includes an antenna unit 101, a transmission / reception unit 102, a validity evaluation unit 130, and two systems of control / data processing units 131 and 132.
  • the control / data processing unit 131 performs conventional processing, and the control / data processing unit 132 performs processing using the trained model.
  • the control / data processing units 131 and 132 are units including a signal processing unit 103, a beam control unit 104, a target detection unit 105, a tracking processing unit 106, and a display operation unit 107 of the radar device shown in FIG.
  • the learning device 200a is the same as that shown in FIG.
  • the validity evaluation unit 130 compares the processing result of the conventional processing by the control / data processing unit 131 with the processing result of the trained model by the control / data processing unit 132, and determines the validity of the processing result of the trained model. do. When it is determined that the processing result of the trained model is not valid, the validity evaluation unit 130 outputs the processing result of the conventional processing to the antenna unit 101 and the transmission / reception unit 102. On the other hand, when it is determined that the processing result of the trained model is appropriate, the validity evaluation unit 130 outputs the processing result of the trained model to the antenna unit 101 and the transmission / reception unit 102.
  • the validity evaluation unit 130 interpolates the processing result of the trained model with the processing result of the conventional processing, and an unexpected operation occurs. You may prevent it. Further, the validity evaluation unit 130 may be generated by using machine learning or the like. Further, the processing of the validity evaluation unit 130 may be performed by an operator instead of being fully automatic. For example, the operator may determine the validity of the processing result of the trained model based on the information displayed on the display operation unit 107.
  • the control / data processing unit of the radar device 100 is duplicated in advance, the trained model is intentionally staggered, and the processing results of the two control / data processing units are integrated into a formal one. Adopted as a processing result.
  • FIG. 13 shows the configuration of the radar device and the learning device for suppressing the operation fluctuation due to the trained model.
  • the radar device 100c includes an antenna unit 101, a transmission / reception unit 102, an integration unit 140, and two systems of control / data processing units 141a and 141b.
  • the control / data processing unit 141a uses the old model
  • the control / data processing unit 141b uses the new model for processing.
  • the control / data processing units 141a and 141b are units including the signal processing unit 103, the beam control unit 104, the target detection unit 105, the tracking processing unit 106, and the display operation unit 107 of the radar device shown in FIG.
  • the learning device 200a is the same as that shown in FIG.
  • the integration unit 140 adopts a formal processing result obtained by integrating the processing results of the control / data processing units 141a and 141b. For example, the integration unit 140 adds the processing results from the control / data processing units 141a and 141b and divides by 2, and adopts the processing result. As a result, when a new trained model is applied, it is possible to suppress a large fluctuation in the operation of the radar device.
  • FIG. 14A is a block diagram showing a functional configuration of the learning device according to the second embodiment.
  • the learning device 50 of the second embodiment includes a first acquisition unit 51, a second acquisition unit 52, a learning data generation unit 53, and a learning processing unit 54.
  • the first acquisition unit 51 acquires the target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information from the radar device.
  • the second acquisition unit 52 acquires target position information indicating the target position.
  • the learning data generation unit 53 generates learning data using the target detection information, the track, and the target position information.
  • the learning processing unit 54 learns a tracking model that performs target tracking processing based on the target detection information using the learning data.
  • FIG. 14B is a block diagram showing a functional configuration of the radar device according to the second embodiment.
  • the radar device 60 includes a target detection unit 61 and a tracking processing unit 62.
  • the target detection unit 61 transmits a transmitted wave and generates target detection information indicating the position of the target based on the received wave corresponding to the transmitted wave.
  • the tracking processing unit 62 has trained a tracking model using the target detection information, the track of the target calculated based on the target detection information, and the training data generated based on the target position information indicating the target position. Is used to perform target tracking processing based on the target detection information.
  • the first acquisition unit that acquires the target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information from the radar device.
  • a second acquisition unit that acquires target position information indicating the target position, and
  • a learning data generation unit that generates learning data using the target detection information, the track, and the target position information.
  • a learning processing unit that learns a tracking model that performs tracking processing of the target based on the target detection information, and a learning processing unit.
  • a learning device equipped with A learning device equipped with.
  • Appendix 2 The learning device according to Appendix 1, wherein the learning data generation unit generates a teacher label indicating whether the target indicated by the target detection information is a true target or an erroneous target based on the target position information.
  • Appendix 3 The learning device according to Appendix 1 or 2, wherein the learning data generation unit generates a teacher label including a target position, speed, and acceleration indicated by the target detection information based on the target position information and the track.
  • the target detection information is a primary radar plot generated by the primary radar of the radar device.
  • the learning device according to any one of Supplementary note 1 to 3, wherein the target position information is a secondary radar plot generated by the secondary radar.
  • Appendix 5 The learning device according to Appendix 4, wherein the secondary radar plot is generated by the radar device that generated the primary radar plot.
  • Appendix 6 The learning device according to Appendix 4, wherein the secondary radar plot is generated by a radar device different from the radar device that generated the primary radar plot.
  • the radar device is mounted on a moving body and A third acquisition unit for acquiring the position of the moving body and the moving body information including the moving information is provided.
  • the learning device according to any one of Supplementary note 1 to 9, wherein the learning data generation unit generates the learning data by using the moving body information.
  • the target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information are acquired from the radar device. Acquire the target position information indicating the target position, and Learning data is generated by using the target detection information, the track, and the target position information.
  • the target detection information indicating the position of the target detected based on the received wave and the track of the target calculated based on the target detection information are acquired from the radar device. Acquire the target position information indicating the target position, and Learning data is generated by using the target detection information, the track, and the target position information.
  • a recording medium recording a program that causes a computer to execute a process of learning a tracking model that performs a target tracking process based on the target detection information using the learning data.
  • a target detection unit that transmits a transmission wave and generates target detection information indicating the position of the target based on the reception wave corresponding to the transmission wave.
  • a tracking model that has been trained using the training data generated based on the target detection information, the track of the target calculated based on the target detection information, and the target position information indicating the position of the target.
  • a tracking processing unit that performs tracking processing for the target based on the target detection information. Radar device equipped with.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

学習装置は、レーダ装置に使用される追尾モデルを学習する。第1取得部は、受信波に基づいて検出された目標の位置を示す目標検出情報と、目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得する。第2取得部は、目標の位置を示す目標位置情報を取得する。学習データ生成部は、目標検出情報と、航跡と、目標位置情報とを用いて、学習データを生成する。学習処理部は、学習データを用いて、目標検出情報に基づいて目標の追尾処理を行う追尾モデルを学習する。

Description

学習装置、学習方法、記録媒体、及び、レーダ装置
 本発明は、レーダを用いた監視技術に関する。
 レーダを用いて航空機などの移動体を監視する手法が知られている。特許文献1は、レーダ装置により航空機や車両などの移動目標を監視する手法を開示している。
特開2016-151416号公報
 追尾機能を有するレーダ装置において、急峻な旋回などを行う高機動目標を追尾するには追尾精度と追従性とを両立した追尾フィルタを用いる必要があるが、実際にそのような追尾フィルタを実現することは難しい。また、目標を追尾する際には目標とプロットとを対応付ける相関処理を行うが、クラッタが多い領域では、誤検出したクラッタを目標に対応付けてしまう恐れがあり、追尾精度が低下してしまう。
 本発明の1つの目的は、追尾精度と追従性とを両立した追尾処理を実行可能なレーダ装置を実現することにある。
 本発明の一つの観点では、学習装置は、
 受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得する第1取得部と、
 前記目標の位置を示す目標位置情報を取得する第2取得部と、
 前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成する学習データ生成部と、
 前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する学習処理部と、を備える。
 本発明の他の観点では、学習方法は、
 受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得し、
 前記目標の位置を示す目標位置情報を取得し、
 前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成し、
 前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する。
 本発明の他の観点では、記録媒体は、
 受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得し、
 前記目標の位置を示す目標位置情報を取得し、
 前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成し、
 前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する処理をコンピュータに実行させるプログラムを記録する。
 本発明の他の観点では、レーダ装置は、
 送信波を送信し、当該送信波に対応する受信波に基づいて、目標の位置を示す目標検出情報を生成する目標検出部と、
 前記目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡と、前記目標の位置を示す目標位置情報とに基づいて生成された学習データを用いて学習済みの追尾モデルを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾処理部と、を備える。
 本発明によれば、追尾精度と追従性とを両立した追尾処理を実行可能なレーダ装置を実現することができる。
レーダ装置の基本構成を示す。 信号処理部の構成を示す。 追尾モデルを学習する際の構成を示す。 学習装置のハードウェア構成を示す。 学習装置による学習処理のフローチャートである。 学習装置の他の例を示す。 学習済みモデルを適用したレーダ装置の構成を示す。 レーダ装置による目標検出処理のフローチャートである。 学習済みモデルを適用した他のレーダ装置の構成を示す。 学習データの収集のためのビーム制御を行う場合の構成を示す。 オンライン学習を行うための構成を示す。 学習済みモデルの妥当性評価を行うための構成を示す。 学習済みモデルによる動作変動を抑制するための構成を示す。 第2実施形態に係る学習装置及びレーダ装置の構成を示す。
 以下、図面を参照して、本発明の好適な実施形態について説明する。本実施形態におけるレーダ装置は、周囲に存在する移動体などの監視システムに用いることができる。具体的に、レーダ装置は、周囲に送信波を出射し、その反射波を受信することにより移動体(以下、「目標」とも呼ぶ。)を検出し、必要に応じてその目標を追尾する。目標としては、例えば空中を飛行する航空機、地上を移動する車両、海上を移動する船舶などが挙げられる。以下の実施形態では、説明の便宜上、レーダ装置を航空管制に使用し、目標は主として航空機であるものとする。
 <レーダ装置の基本構成>
 まず、レーダ装置の基本構成について説明する。図1は、レーダ装置の基本構成を示すブロック図である。レーダ装置100は、アンテナ部101と、送受信部102と、信号処理部103と、ビーム制御部104と、目標検出部105と、追尾処理部106と、表示操作部107と、を備える。
 アンテナ部101は、送受信部102から入力された電気信号(以下、「送信信号」とも呼ぶ。)を増幅し、ビーム制御部104から指示された送信方向に送信波(「ビーム」と呼ぶ。)を出射する。また、アンテナ部101は、出射した送信波の目標による反射波を受信し、電気信号(以下、「受信信号」とも呼ぶ。)に変換し、合成して送受信部102へ出力する。
 本実施形態では、レーダ装置100は、定常的に全方位(周囲360°)をスキャンするビーム(「スキャンビーム」と呼ぶ。)を出射し、周囲における目標の存在を監視する。また、目標が検出された場合には、レーダ装置100は、その目標を追尾するためのビーム(「追尾ビーム」と呼ぶ。)を出射し、目標の軌道(「航跡」と呼ぶ。)を追跡する。この点から、アンテナ部101は、例えば複数のアンテナ素子を備えるアレイアンテナなど、瞬時に送信方向を変更可能なアンテナにより構成される。具体的には、全方位をカバーするように複数の平面状アレイアンテナを配置するか、円筒状のアレイアンテナを用いることができる。これにより、定常的に全方位にスキャンビームを出射しつつ、目標が検出された際に目標の方向へ追尾ビームを出射することができる。
 送受信部102は、ビーム制御部104から指示された送信波諸元(以下、「ビーム諸元」とも呼ぶ。)に基づき、電気信号を生成し、アンテナ部101へ出力する。ビーム諸元とは、送信波のパルス幅、送信タイミングなどである。また、送受信部102は、アンテナ部101から入力された受信信号をA/D変換し、不要な周波数帯域を除去した後、受信信号として信号処理部103へ出力する。
 信号処理部103は、送受信部102から入力された受信信号に対して、復調処理、積分処理などを行い、処理後の受信信号(以下、「処理後信号」とも呼ぶ。)を目標検出部105へ出力する。図2は、信号処理部103の構成を示すブロック図である。信号処理部103は、復調処理部110と、コヒーレント積分部111とを備える。復調処理部110は、送受信部102から入力された受信信号を復調(パルス圧縮)する。基本的にレーダにより遠方の目標を検出するには、大電力で尖鋭な送信波(送信パルス)が要求されるが、ハードウェアなどの制約により電力の増強には限界がある。そのため、ビームの出射時には、送受信部102は所定のパルス幅の送信信号を周波数変調して継続時間の長い送信波を生成し、アンテナ部101から送信している。これに対応し、復調処理部110は、送受信部102から入力された受信信号を復調して尖鋭な受信パルスを生成し、コヒーレント積分部111へ出力する。
 コヒーレント積分部111は、復調処理部110から入力された複数のパルスをコヒーレント積分してノイズを除去し、SNRを改善する。レーダ装置100は、目標を高精度で検出するために、同一の方向(同一の方位及び仰角)に複数のパルスを出射している。同一の方向に出射するパルスの数を「ヒット数」と呼ぶ。コヒーレント積分部111は、同一の方向に出射した所定ヒット数分のビームの受信信号(受信パルス)を積分し、受信信号のSNRを改善する。なお、コヒーレント積分部111が積分する受信パルスの数を「積分パルス数」とも呼ぶ。積分パルス数は、基本的に出射したビームのヒット数と等しい。
 図1に戻り、目標検出部105は、信号処理部103から入力された処理後信号から、所定のしきい値を用いて目標を検出する。目標検出部105は、目標の距離、方位、仰角を測定し、これらを目標の検出結果(以下、「プロット」と呼ぶ。)として追尾処理部106へ出力する。プロットは、目標の距離、方位、仰角、SNRなどを含む。また、目標検出部105は、表示操作部107から入力されたしきい値設定値に基づいて、目標を検出するためのしきい値を設定する。
 追尾処理部106は、目標検出部105から入力された複数のプロットに対して追尾処理を行い、目標の航跡を算出する。具体的に、追尾処理部106は、複数のプロットに基づいて現時刻における目標の位置(「推定目標位置」と呼ぶ。)を推定し、表示操作部107に出力する。また、追尾処理部106は、複数のプロットに基づいて目標の予測位置(「予測目標位置」と呼ぶ。)を算出し、ビーム制御部104へ出力する。予測目標位置は、レーダ装置100が次に追尾ビームを打つ位置を示す。
 詳しくは、追尾処理部106は、相関処理と、追尾フィルタ処理とを行う。相関処理は、目標検出部105により得られた複数のプロットを、目標に対応付ける処理である。複数の目標が同時に検出されているときには、得られた複数のプロットがそれぞれどの目標に対応するかを判別し、各プロットを各目標に対応付ける。追尾フィルタ処理は、各目標に対応付けられたプロットを用いて、その目標の航跡を算出する。これにより、目標の現在位置を示す推定目標位置と、将来の目標の予測位置を示す予測目標位置とが得られる。
 ビーム制御部104は、予め設定されたビームスケジュールに従ってスキャンビームの送信方向及びビーム諸元を決定する。また、ビーム制御部104は、追尾処理部106から入力された予測目標位置に基づいて、追尾ビームの送信方向及びビーム諸元を決定する。そして、ビーム制御部104は、スキャンビーム及び追尾ビームの送信方向をアンテナ部101に出力し、スキャンビーム及び追尾ビームのビーム諸元を送受信部102に出力する。
 表示操作部107は、ディスプレイなどの表示部と、キーボード、マウス、操作ボタンなどの操作部とを備える。表示操作部107は、目標検出部105から入力された複数のプロットの位置や、追尾処理部106から入力された推定目標位置を表示する。これにより、オペレータは、検出された目標の現在位置や航跡を見ることができる。また、オペレータは、表示操作部107を操作することにより、目標検出に使用するしきい値を目標検出部105に入力したり、信号処理部103が復調処理に使用するクラッタ判定結果を信号処理部103に入力することができる。なお、「クラッタ」とは、出射したレーダが目標以外の物体により反射されて発生する信号である。オペレータは、表示操作部107に表示された複数のプロットのうち、経験上クラッタと考えられる領域を判定し、表示操作部107を操作してその領域を指定することができる。これを「クラッタ判定」と呼ぶ。
 以上の構成により、レーダ装置100は、全方位にわたって定常的にスキャンビームを出射して目標を検出するとともに、目標が検出された場合には、予測目標位置に追尾ビームを出射して目標を追尾する。
 <第1実施形態>
 追尾機能を有するレーダ装置において、急峻な旋回などを行う高機動目標を追尾するには追尾精度と追従性とを両立した追尾フィルタを用いる必要があるが、実際にそのような追尾フィルタを実現することは難しい。また、目標を追尾する際には目標とプロットとを対応付ける相関処理を行うが、クラッタが多い領域では、誤検出したクラッタを目標に対応付けてしまう恐れがあり、追尾精度が低下してしまう。そこで、本実施形態では、機械学習により生成したモデルを用いて追尾処理を行う。具体的には、目標検出部105により得られたプロットと、そのプロットに対する教師ラベル(正解ラベル)とを用いて追尾モデルを学習し、学習済みの追尾モデルを追尾処理部に適用する。これにより、コストを抑えつつ、検出性能を向上させることが可能となる。
 [学習時の構成]
 (全体構成)
 図3は、本実施形態によるレーダ装置300及び学習装置200の構成を示す。追尾モデルの学習時には、1次レーダ(PSR:Primary Surveillance Radar)と、2次レーダ(SSR:Secondary Surveillance Radar)とを備えるレーダ装置300を使用する。図示のように、レーダ装置300は、PSRアンテナ部301と、PSR送受信部302と、PSR信号処理部303と、ビーム制御部304と、PSR目標検出部305と、追尾処理部306と、表示操作部307と、を備える。これらは、図1におけるアンテナ部101、送受信部102、信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106、表示操作部107とそれぞれ同様の構成を有し、同様に動作する。さらに、レーダ装置300は、SSRアンテナ部308と、SSR送受信部309と、SSR目標検出部310と、を備える。
 SSR送受信部309はSSRアンテナ部308に質問信号を出力し、SSRアンテナ部308は目標に対して質問波を送信する。また、SSRアンテナ部308は、質問波に対する応答波を目標から受信し、応答信号をSSR送受信部309に出力する。SSR送受信部309は、応答信号のA/D変換などを行い、SSR目標検出部310へ出力する。通常、応答信号には目標の位置情報が含まれており、SSR目標検出部310は、応答信号に基づいて目標のプロット(「SSRプロット」と呼ぶ。)D2を生成し、追尾処理部306へ出力する。追尾処理部306は、PSR目標検出部305が検出した目標のプロット(「PSRプロット」と呼ぶ。)D1とSSRプロットD2とを用いて、目標の航跡D3を生成する。なお、PSRプロットは1次レーダプロットの例であり、SSRプロットは2次レーダプロトの例である。
 学習装置200は、追尾処理部に適用される追尾モデルを学習するために設けられる。学習装置200は、学習データ生成部201と、データ収集部202と、学習処理部204と、を備える。学習データ生成部201には、PSR目標検出部305からPSRプロットD1が入力され、SSR目標検出部310からSSRプロットD2が入力され、追尾処理部306から航跡D3が入力される。学習データ生成部201は、SSRプロットD2及び航跡D3を用いて、目標の航跡に関する教師ラベルを生成する。具体的に、教師ラベルは、目標の位置、速度、加速度、真目標/誤目標(目標の真偽)を含む。なお、「真目標」とは航空機などの正しい目標を言い、「誤目標」とはクラッタなど、目標と誤認識された物体を言う。
 前述のように、追尾処理部306は、追尾処理として相関処理と追尾フィルタ処理を行うので、学習対象となる追尾モデルも相関処理と追尾フィルタ処理を行うモデルとして構成される。学習データ生成部201は、まず、SSRプロットD2を用いて、各PSRプロットが真目標であるか誤目標であるかを示す教師ラベルを生成する。SSRプロットD2は、質問信号に対して応答した目標について得られるので、学習データ生成部201は、基本的には、対応するSSRプロットD2が存在するPSRプロットD1に「真目標」との教師ラベルを付与し、対応するSSRプロットD2が存在しないPSRプロットD1に「誤目標」との教師ラベルを付与する。こうして生成された真目標/誤目標の教師ラベルを使用して学習することにより、追尾モデルは、入力されたPSRプロットD1が真目標であるか誤目標であるかを判別できるようになる。これにより、相関処理において、クラッタなどを誤検出して得られたプロットを目標に対応付けしてしまうことが防止でき、安定した追尾が可能となる。
 また、学習データ生成部201は、SSRプロットD2及び航跡D3に基づいて、各PSRプロットD1に対する目標の位置、速度、加速度などの教師ラベルを生成する。航空機などの目標が、自己位置を含む応答信号を送信してきた場合には、その自己位置をかなり正確な目標の位置として用いることができる。また、学習データ生成部201は、航跡D3に基づいて、そのPSRプロットD1に対応する目標の速度、加速度などを求めることができる。こうして生成された目標の位置、速度、加速度などの教師ラベルを使用して学習することにより、追尾モデルは、様々な目標が行った運動を学習することができ、追尾精度と追尾性を両立した追尾処理が可能となる。
 学習データ生成部201は、PSRプロットと、それに対して上記のように生成した教師ラベルとのペアを学習データとし、データ収集部202に出力する。データ収集部202は、学習データ生成部201から入力された学習データを記憶する。データ収集部202には、PSRプロット毎に目標の位置、速度、加速度、真目標/誤目標の教師ラベルが付与された学習データが記憶される。学習処理部204は、データ収集部202から学習データを取得して追尾モデルの学習を行い、学習済みの追尾モデルを生成する。
 (学習装置のハードウェア構成)
 図4は、図3に示す学習装置200のハードウェア構成を示すブロック図である。図示のように、学習装置200は、入力IF(InterFace)21と、プロセッサ22と、メモリ23と、記録媒体24と、データベース(DB)25と、を備える。
 入力IF21は、レーダ装置300とのデータの入出力を行う。具体的に、入力IF21は、レーダ装置300からPSRプロットD1、SSRプロットD2及び航跡D3を取得する。プロセッサ22は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含むコンピュータであり、予め用意されたプログラムを実行することにより、学習装置200の全体を制御する。プロセッサ22は、図3に示す学習データ生成部201、学習処理部204として機能する。
 メモリ23は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ23は、プロセッサ22により実行される各種のプログラムを記憶する。また、メモリ23は、プロセッサ22による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体24は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、学習装置200に対して着脱可能に構成される。記録媒体24は、プロセッサ22が実行する各種のプログラムを記録している。学習装置200が処理を実行する際には、記録媒体24に記録されているプログラムがメモリ23にロードされ、プロセッサ22により実行される。
 DB25は、入力IF21を通じて入力されるデータや、学習装置200が生成したデータを記憶する。具体的に、DB25には、レーダ装置300から入力されたPSRプロットD1、SSRプロットD2及び航跡D3、並びに、学習データ生成部201が生成した学習データが記憶される。
 (学習処理)
 図5は、学習装置200による学習処理のフローチャートである。この処理は、図4に示すプロセッサ22が、予め用意されたプログラムを実行し、図3に示す各要素として動作することにより実現できる。
 まず、学習データ生成部201は、レーダ装置300のPSR目標検出部305が出力したPSRプロットD1を取得する(ステップS11)また、学習データ生成部201は、SSR目標検出部310が出力したSSRプロットD2、及び、追尾処理部306が出力した航跡D3を取得する(ステップS12)。次に、学習データ生成部201は、PSRプロットD1、SSRプロットD2及び航跡D3を用いて、PSRプロットD1と、それに対する教師ラベルとを含む学習データを生成し、データ収集部202に保存する(ステップS13)。次に、学習処理部204は、入力された学習データを用いて追尾モデルを学習する(ステップS204)。
 次に、学習処理部204は、所定の学習終了条件が具備されたか否かを判定する(ステップ15)。学習終了条件の一例は、所定量の学習データを用いた学習又は所定回数の学習がが行われたことである。学習処理部204は、学習終了条件が具備されるまで学習を繰り返し、学習終了条件が具備されると、処理を終了する。
 (学習装置の他の例)
 図6は、学習装置の他の例を示す。図3に示す学習装置200は、PSRプロット、SSRプロット及び航跡など、実際のレーダ装置300において生成されている実データを用いて学習データを生成している。その代わりに、学習データをシミュレーションにより用意し、学習を行ってもよい。図6は、模擬データを用いる学習装置200aを示し、模擬データ生成部205と、学習処理部204とを備える。模擬データ生成部205は、様々な状況におけるPSRプロットと、それに対する教師ラベルとを含む学習データ(模擬データ)をシミュレーションにより生成し、学習処理部204に入力する。学習処理部204は、基本的に図3に示すものと同様であり、模擬データを用いて追尾モデルを学習する。なお、図3の例と本例とを組み合わせ、レーダ装置300の実データに基づいて生成した学習データと、模擬データとを併用して1つの追尾モデルを学習してもよい。
 [追尾モデルを適用したレーダ装置]
 (構成)
 図7は、学習済みの追尾モデルを適用したレーダ装置300xの構成を示すブロック図である。図3と比較するとわかるように、レーダ装置300xは、図3における追尾処理部306の代わりに、追尾処理部314を備える。追尾処理部314以外の構成は、図3と同様であるので説明を省略する。
 追尾処理部314には、上記の学習処理により生成された学習済みの追尾モデルが設定されている。追尾処理部314は、学習済みの追尾モデルを用いて、入力されたPSRプロットから目標を検出する。具体的に、追尾処理部314は、追尾モデルを用いて、PSRプロットから目標の航跡を算出する。そして、追尾処理部314は、推定目標位置を表示操作部307へ出力し、予測目標位置をビーム制御部304へ出力する。
 (追尾処理)
 図8は、レーダ装置300xによる追尾処理のフローチャートである。まず、追尾処理部314はPSR目標検出部305からPSRプロットを取得する(ステップS21)。次に、追尾処理部314は、取得したPSRプロットに基づき、学習済みの追尾モデルを使用して目標の航跡を算出し(ステップS22)、検出された目標の航跡を出力する(ステップS23)。
 以上のように、本実施形態では、PSRプロットに対する真目標/誤目標の教師ラベルを用いて学習することにより、追尾処理部314は、入力されたPSRプロットが真目標であるか誤目標であるかを判別できるようになる。これにより、相関処理において、クラッタなどを誤検出して得られたプロットを目標に対応付けしてしまうことが防止できる。また、PSRプロットに対する目標の位置、速度、加速度などの教師ラベルを用いて学習することにより、追尾処理部314は、様々な目標が行った運動を学習することができ、追尾精度と追尾性の両立が可能となる。
 なお、図7の例では、学習済みの追尾モデルを、図3に示すSSRを備えるレーダ装置に適用しているが、その代わりに、図1に示すPSRのみのレーダ装置に適用してもよい。図9は、PSRのみのレーダ装置100xに学習済みの追尾モデルを適用した例を示す。図1と比較すると理解されるように、追尾処理部114に学習済みの追尾モデルを用いている点以外は、図1に示すレーダ装置100と同様である。
 [学習データの生成]
 (1)SNR悪化
 追尾モデルの学習時に入力データとして使用するPSRプロットに対して意図的にノイズを加えるなどして、SNRを悪化させた学習データを用いて追尾モデルを学習してもよい。これにより、SNRの低い環境でも精度が高い追尾モデルを生成することが可能となる。
 (2)教師ラベルの生成方法
 学習装置200において学習データを生成する場合、目標の位置や真目標/誤目標を示す教師ラベルは以下の方法で生成することができる。
 (A)2次レーダの使用
 上記の実施形態で説明したように、まず、学習データ生成部201は、2次レーダから送信した質問信号に対して目標が応答してきた場合には、その目標から受信した応答信号に基づいて教師ラベルを生成することができる。具体的には、学習データ生成部201は、応答信号を送信してきた目標に対応するPSRプロットを真目標とし、その応答信号に含まれる目標の自己位置を目標の位置として使用すればよい。
 なお、2次レーダを使用する場合において、全ての目標から応答が得られるとは限らない。防空レーダなどの場合、目標として検出される航空機には、旅客機などの他に軍用機などが含まれる。旅客機や自国の軍用機などの身元が識別済みの航空機(以下、「味方機」と呼ぶ。)は質問信号に対して応答するが、他国の軍用機などの身元が識別できない航空機(以下、「不明機」と呼ぶ。)は質問信号に対して応答しないため、目標として不明機を含む受信信号については教師ラベルが生成できない。しかし、防空レーダなどの場合、本当に検出し、追尾したいのはむしろ不明機の方である。
 そこで、以下の方法で不明機に対する正解付けを行う。前提として、受信信号から目標として検出されうる目標は、「クラッタ(ノイズを含む。)」、「味方機」、「不明機」の3種類のクラスである。なお、目標が「クラッタ」であるとは、実際には目標は存在しないがクラッタを目標として誤検出した場合を指す。ここで、2次レーダの質問信号に対して応答し、教師ラベルが付与されている(正解が与えられている)クラスは「味方機」のみである。また、「不明機」と「味方機」は実際はいずれも航空機であるため、受信信号の特性は類似している。
 以上の前提において、以下の手順で不明機を検出する。
 まず、学習データ生成部201は、「味方機」の受信信号を用いて、全ての受信信号から「クラッタ」、「味方機」、「不明機」の受信信号を抽出するモデルを作成する(処理1)。
 次に、学習データ生成部201は、抽出された「クラッタ」、「味方機」、「不明機」の受信信号のうち、「味方機」と判定されなかった受信信号(即ち、「クラッタ」又は「不明機」と判定された受信信号)のうち、「味方機」と近い特性を有する受信信号を「不明機」と判定し、「不明機ラベル」を生成する(処理2)。
 そして、学習データ生成部201は、「不明機」と判定された受信信号と、「不明機ラベル」とを用いて、受信信号から「不明機」を検出するモデルを作成する(処理3)。
 このモデルにより、2次レーダの質問信号に対して応答しない不明機を受信信号から検出することが可能となる。
 なお、現実には、上記の処理2において生成される「不明機ラベル」の精度が問題となることが考えられる。その場合には、オペレータなどの人手により「不明機ラベル」を付与してもよい。この方法によれば、上記の処理2において抽出された、『「クラッタ」又は「不明機」と判定された受信信号のうち「味方機」と近い特性を有する受信信号』についてのみ、人手により「不明機」のラベル付与を行えばよい。即ち、処理1及び処理2により、「不明機」の可能性が高い受信信号に絞ったうえで人手によるラベル付与を行えばよい。よって、「クラッタ」、「味方機」、「不明機」の全てを含む受信信号に対して人手によるラベル付与を行う場合と比較して、人手による作業量を大幅に減らすことができる。
 (B)他のレーダ装置の利用
 上記の実施形態では、SSRを使用して目標の位置を取得し、教師ラベルを生成している。しかし、レーダ装置が複数ある場合には、学習データ生成部201は、他のレーダ装置から得られたプロット及び航跡を用いて教師ラベルを生成してもよい。また、学習データ生成部201は、受信のみを行うパッシブレーダの航跡(パッシブ航跡)を用いて教師ラベルを生成してもよい。なお、「パッシブ航跡」とは、妨害波をもとに妨害送信機を追尾した結果であり、学習データ生成部201はこれを用いて妨害送信機の推定位置を教師ラベルとして生成することができる。
 (C)他の計測装置などの利用
 目標の航空機がGPSなどの測位装置を備えている場合には、その出力を受信して教師ラベルを生成してもよい。目標がドローンである場合も同様である。また、ステレオカメラなどを使用し、目標の撮影画像から目標の位置を推定して教師ラベルを生成してもよい。なお、目標が船舶の場合は、船舶自動識別装置(AIS:Automatic Identification System)から船舶情報を受信し、目標の位置を取得して教師ラベルを生成してもよい。
 (D)人手による付与
 表示操作部107に表示されたプロットや航跡などを見て、オペレータが教師ラベルを付与してもよい。
 (3)移動体搭載レーダの場合
 上記の実施形態では、レーダ装置が地上に設置されていることを前提としているが、本実施形態の手法は航空機や船舶などの移動体に搭載するレーダ装置にも適用可能である。その場合、追尾モデルが使用する入力パラメータとして、レーダ装置が搭載されている移動体に関する移動体情報(移動体自身の位置、姿勢、速度、針路など)を用いてもよい。具体的には、学習データ生成装置201に移動体情報を入力し、学習処理部204は、学習データとして、PSRプロットに加えて移動体情報を用いてモデルの学習を行う。また、学習済みモデルを適用したレーダ装置100x又は300xにおいては、追尾処理部114又は314に移動体情報を入力し、追尾処理部114又は314が移動体情報を用いて追尾処理を行えばよい。
 (4)レーダ装置によるデータ収集の効率化
 前述のように、稀にしか発生しない状況に関しては追尾モデルの学習のために必要な学習データを収集することが難しい。そこで、レーダ装置300は、ビームスケジュールの合間に、学習データの収集のためのビーム制御を実施する。特に、予め指定された条件に一致する場合、レーダ装置300は重点的にビーム制御を実施する。ビーム制御の内容は、収集したいデータに合わせて変更される。
 図10は、学習データの収集のためのビーム制御を行う場合の構成を示す。レーダ装置300は、図3と同様の構成を有する。一方、学習装置200は、図3に示す構成に加えて、データ収集制御部215を備える。データ収集制御部215は、学習データが不足している条件を記憶しており、収集したいデータの条件を含むデータ収集要求D5をレーダ装置300のビーム制御部304に出力する。ビーム制御部304は、ビームスケジュールの合間に、PSRアンテナ部301を制御し、データ収集要求D5に示される条件でビームを出射させる。レーダ装置300は、スキャンビームにより全方位を定常的に監視するとともに、目標を検出した場合には追尾ビームにより目標を追尾する。よって、ビーム制御部304は、例えば目標が検出されていない場合や、目標を追尾する必要が無い場合などに、学習データを収集するためのビームを出射することができる。出射したビームに対応する反射波はPSRアンテナ部301により受信され、受信信号はPSR送受信部302、PSR信号処理部303を介してPSR目標検出部305に入力される。PSR目標検出部305が生成したPSRプロットは学習データ生成部201に出力される。こうして、学習装置200は、不足している条件に対応するデータを収集することができる。
 [学習済みモデルの適用]
 (オンライン学習)
 学習装置200により生成された学習済みの追尾モデル(以下、単に「学習済みモデル」とも呼ぶ。)を実際にレーダ装置に適用する場合には、プログラムの書き換えなどが発生するため、レーダ装置100の運用を停止する必要がある。しかし、重要な監視を行っているレーダ装置は運用を停止できないため、学習済みモデルを適用することができず、オンライン学習が困難である。
 そこで、予めレーダ装置の制御/データ処理部を2重化しておく。以下、説明の便宜上、学習済みモデルをPSRレーダのみのレーダ装置に適用した場合について説明する。図11は、オンライン学習を行うためのレーダ装置及び学習装置の構成を示す。図示のように、レーダ装置100aは、アンテナ部101と、送受信部102と、切替部120と、2系統の制御/データ処理部121a、121bとを備える。制御/データ処理部121a、121bは、図1に示すレーダ装置の信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106及び表示操作部107を含むユニットである。切替部120は、制御/データ処理部121a、121bの一方を選択的にアンテナ部101及び送受信部102に接続する。また、切替部120は、動作中の制御/データ処理部121a又は121bから、受信信号、プロット、航跡などを含むデータD6を学習装置200aの学習データ生成部201に出力する。
 学習装置200aは、学習データ生成部201、データ収集部202、学習処理部204に加えて、学習結果評価部220及び学習結果適用部221を備える。学習結果評価部220は、学習処理部204が生成した学習済みモデルの評価を行い、レーダ装置100aに適用可と判定された学習済みモデルを学習結果適用部221に出力する。学習結果適用部221は、適用可と判定された学習済みモデルを制御/データ処理部121a、121bに適用する。
 いま、制御/データ処理部121aがアクティブ状態(実際の監視動作中)であり、制御/データ処理部121bがスタンバイ状態であるとする。即ち、切替部120は、制御/データ処理部121aをアンテナ部101及び送受信部102に接続している。この場合、学習装置200aは、アクティブ状態の制御/データ処理部121aから出力されたデータD6を用いて追尾モデルを学習する。その間に、学習結果適用部221は、適用可と判定された学習済みモデルを、スタンバイ状態にある制御/データ処理部121bに適用し、プログラムの書き換えを行う。
 次に、切替部120は、制御/データ処理部121bをアクティブ状態とし、制御/データ処理部121aをスタンバイ状態とし、新たな学習済みモデルをスタンバイ状態にある制御/データ処理部121aに適用する。こうすることで、制御/データ処理部121の一方で監視動作を継続しつつ追尾モデルの学習を行い、他方に学習済みモデルを適用することができる。即ち、学習済みモデルを適用し、オンライン学習を行うことが可能となる。
 (モデルの妥当性評価)
 オンライン学習において、どの程度学習させたところで適切なレーダの機能を有しているか、即ち、妥当性の判断が難しい。また、学習済みモデルを適用した追尾処理部は、例えば、従来処理では誤検出しないようなクラッタを目標として誤検出してしまうなど、期待しない動作をする恐れがあり、その際のリカバリーが必要となる。そこで、学習済みモデルを適用した制御/データ処理部と、従来処理を行う制御/データ処理部とを並列に動作させ、それらの処理結果を比べることにより、学習済みモデルの妥当性を判断する。
 図12は、学習済みモデルの妥当性評価を行うためのレーダ装置及び学習装置の構成を示す。図示のように、レーダ装置100bは、アンテナ部101と、送受信部102と、妥当性評価部130と、2系統の制御/データ処理部131、132とを備える。制御/データ処理部131は従来処理を行い、制御/データ処理部132は学習済みモデルを用いて処理を行う。なお、制御/データ処理部131、132は、図1に示すレーダ装置の信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106及び表示操作部107を含むユニットである。学習装置200aは、図11に示すものと同様である。
 妥当性評価部130は、制御/データ処理部131による従来処理の処理結果と、制御/データ処理部132による学習済みモデルの処理結果とを比較し、学習済みモデルの処理結果の妥当性を判定する。学習済みモデルの処理結果が妥当でないと判定した場合、妥当性評価部130は、従来処理の処理結果をアンテナ部101及び送受信部102に出力する。一方、学習済みモデルの処理結果が妥当であると判定した場合、妥当性評価部130は、学習済みモデルの処理結果をアンテナ部101及び送受信部102に出力する。なお、学習済みモデルの処理結果が妥当であると判定された場合でも、妥当性評価部130は、学習済みモデルの処理結果を従来処理の処理結果で補間し、期待しない動作が発生することを防止してもよい。また、妥当性評価部130を、機械学習などを利用して生成してもよい。さらに、妥当性評価部130の処理を全自動ではなく、オペレータが介在するようにしてもよい。例えば、オペレータが、表示操作部107に表示された情報に基づいて、学習済みモデルの処理結果の妥当性を判定することとしてもよい。
 (学習済みモデルを用いた場合の動作変動の抑制)
 学習済みモデルを目標検出部に適用した際に、レーダ装置100の動作が大きく変わる場合がある。そこで、予めレーダ装置100の制御/データ処理部を2重化しておき、意図的に時間をずらして学習済みモデルを適用し、2つの制御/データ処理部の処理結果を統合したものを正式な処理結果として採用する。
 図13は、学習済みモデルによる動作変動を抑制するためのレーダ装置及び学習装置の構成を示す。図示のように、レーダ装置100cは、アンテナ部101と、送受信部102と、統合部140と、2系統の制御/データ処理部141a、141bとを備える。制御/データ処理部141aは旧モデルを使用し、制御/データ処理部141bは新モデルを使用して処理を行う。なお、制御/データ処理部141a、141bは、図1に示すレーダ装置の信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106及び表示操作部107を含むユニットである。学習装置200aは、図11に示すものと同様である。
 統合部140は、制御/データ処理部141a、141bによる処理結果を統合したものを正式な処理結果として採用する。例えば、統合部140は、制御/データ処理部141a、141bからの処理結果を加算し、2で除したものを処理結果として採用する。これにより、新たな学習済みモデルを適用したときに、レーダ装置の動作が大きく変動することを抑制できる。
 <第2実施形態>
 図14(A)は、第2実施形態に係る学習装置の機能構成を示すブロック図である。第2実施形態の学習装置50は、第1取得部51と、第2取得部52と、学習データ生成部53と、学習処理部54と、を備える。第1取得部51は、受信波に基づいて検出された目標の位置を示す目標検出情報と、目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得する。第2取得部52は、目標の位置を示す目標位置情報を取得する。学習データ生成部53は、目標検出情報と、航跡と、目標位置情報とを用いて、学習データを生成する。学習処理部54は、学習データを用いて、目標検出情報に基づいて目標の追尾処理を行う追尾モデルを学習する。
 図14(B)は、第2実施形態に係るレーダ装置の機能構成を示すブロック図である。レーダ装置60は、目標検出部61と、追尾処理部62と、を備える。目標検出部61は、送信波を送信し、当該送信波に対応する受信波に基づいて、目標の位置を示す目標検出情報を生成する。追尾処理部62は、目標検出情報と、目標検出情報に基づいて算出された目標の航跡と、目標の位置を示す目標位置情報とに基づいて生成された学習データを用いて学習済みの追尾モデルを用いて、目標検出情報に基づいて目標の追尾処理を行う。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得する第1取得部と、
 前記目標の位置を示す目標位置情報を取得する第2取得部と、
 前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成する学習データ生成部と、
 前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する学習処理部と、
 を備える学習装置。
 (付記2)
 前記学習データ生成部は、前記目標位置情報に基づいて、前記目標検出情報が示す目標が真目標であるか誤目標であるかを示す教師ラベルを生成する付記1に記載の学習装置。
 (付記3)
 前記学習データ生成部は、前記目標位置情報及び前記航跡に基づいて、前記目標検出情報が示す目標の位置、速度、及び、加速度を含む教師ラベルを生成する付記1又は2に記載の学習装置。
 (付記4)
 前記目標検出情報は、前記レーダ装置の1次レーダにより生成される1次レーダプロットであり、
 前記目標位置情報は、2次レーダにより生成される2次レーダプロットである付記1乃至3のいずれか一項に記載の学習装置。
 (付記5)
 前記2次レーダプロットは、前記1次レーダプロットを生成したレーダ装置により生成される付記4に記載の学習装置。
 (付記6)
 前記2次レーダプロットは、前記1次レーダプロットを生成したレーダ装置とは別のレーダ装置により生成される付記4に記載の学習装置。
 (付記7)
 前記目標位置情報は、前記目標からの受信信号に含まれる、当該目標の自己位置情報である付記1乃至6のいずれか一項に記載の学習装置。
 (付記8)
 前記目標位置情報は、ステレオカメラによる前記目標の撮影画像に基づいて生成される付記1乃至7のいずれか一項に記載の学習装置。
 (付記9)
 所定の条件に合致する送信波を送信して当該条件に対応する前記目標検出情報を生成するように前記レーダ装置に要求する要求部を備える付記1乃至9のいずれか一項に記載の学習装置。
 (付記10)
 前記レーダ装置は移動体に搭載され、
 前記移動体の位置及び移動情報を含む移動体情報を取得する第3取得部を備え、
 前記学習データ生成部は、前記移動体情報を用いて前記学習データを生成する付記1乃至9のいずれか一項に記載の学習装置。
 (付記11)
 受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得し、
 前記目標の位置を示す目標位置情報を取得し、
 前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成し、
 前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する学習方法。
 (付記12)
 受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得し、
 前記目標の位置を示す目標位置情報を取得し、
 前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成し、
 前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 (付記13)
 送信波を送信し、当該送信波に対応する受信波に基づいて、目標の位置を示す目標検出情報を生成する目標検出部と、
 前記目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡と、前記目標の位置を示す目標位置情報とに基づいて生成された学習データを用いて学習済みの追尾モデルを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾処理部と、
 を備えるレーダ装置。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 200 学習装置
 201 学習データ生成部
 202 データ収集部
 204 学習処理部
 300 レーダ装置
 301 PSRアンテナ部
 302 PSR送受信部
 303 PSR信号処理部
 304 ビーム制御部
 305 PSR目標検出部
 306、114、314 追尾処理部
 307 表示操作部
 308 SSRアンテナ部
 309 SSR送受信部
 310 SSR目標検出部

Claims (13)

  1.  受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得する第1取得部と、
     前記目標の位置を示す目標位置情報を取得する第2取得部と、
     前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成する学習データ生成部と、
     前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する学習処理部と、
     を備える学習装置。
  2.  前記学習データ生成部は、前記目標位置情報に基づいて、前記目標検出情報が示す目標が真目標であるか誤目標であるかを示す教師ラベルを生成する請求項1に記載の学習装置。
  3.  前記学習データ生成部は、前記目標位置情報及び前記航跡に基づいて、前記目標検出情報が示す目標の位置、速度、及び、加速度を含む教師ラベルを生成する請求項1又は2に記載の学習装置。
  4.  前記目標検出情報は、前記レーダ装置の1次レーダにより生成される1次レーダプロットであり、
     前記目標位置情報は、2次レーダにより生成される2次レーダプロットである請求項1乃至3のいずれか一項に記載の学習装置。
  5.  前記2次レーダプロットは、前記1次レーダプロットを生成したレーダ装置により生成される請求項4に記載の学習装置。
  6.  前記2次レーダプロットは、前記1次レーダプロットを生成したレーダ装置とは別のレーダ装置により生成される請求項4に記載の学習装置。
  7.  前記目標位置情報は、前記目標からの受信信号に含まれる、当該目標の自己位置情報である請求項1乃至6のいずれか一項に記載の学習装置。
  8.  前記目標位置情報は、ステレオカメラによる前記目標の撮影画像に基づいて生成される請求項1乃至7のいずれか一項に記載の学習装置。
  9.  所定の条件に合致する送信波を送信して当該条件に対応する前記目標検出情報を生成するように前記レーダ装置に要求する要求部を備える請求項1乃至9のいずれか一項に記載の学習装置。
  10.  前記レーダ装置は移動体に搭載され、
     前記移動体の位置及び移動情報を含む移動体情報を取得する第3取得部を備え、
     前記学習データ生成部は、前記移動体情報を用いて前記学習データを生成する請求項1乃至9のいずれか一項に記載の学習装置。
  11.  受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得し、
     前記目標の位置を示す目標位置情報を取得し、
     前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成し、
     前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する学習方法。
  12.  受信波に基づいて検出された目標の位置を示す目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡とをレーダ装置から取得し、
     前記目標の位置を示す目標位置情報を取得し、
     前記目標検出情報と、前記航跡と、前記目標位置情報とを用いて、学習データを生成し、
     前記学習データを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾モデルを学習する処理をコンピュータに実行させるプログラムを記録した記録媒体。
  13.  送信波を送信し、当該送信波に対応する受信波に基づいて、目標の位置を示す目標検出情報を生成する目標検出部と、
     前記目標検出情報と、前記目標検出情報に基づいて算出された前記目標の航跡と、前記目標の位置を示す目標位置情報とに基づいて生成された学習データを用いて学習済みの追尾モデルを用いて、前記目標検出情報に基づいて前記目標の追尾処理を行う追尾処理部と、
     を備えるレーダ装置。
PCT/JP2020/005761 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置 WO2021161502A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/797,600 US20230110788A1 (en) 2020-02-14 2020-02-14 Learning device, learning method, recording medium, and radar device
PCT/JP2020/005761 WO2021161502A1 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置
JP2022500175A JPWO2021161502A5 (ja) 2020-02-14 学習装置、学習方法、プログラム、及び、レーダ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005761 WO2021161502A1 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置

Publications (1)

Publication Number Publication Date
WO2021161502A1 true WO2021161502A1 (ja) 2021-08-19

Family

ID=77292828

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005761 WO2021161502A1 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置

Country Status (2)

Country Link
US (1) US20230110788A1 (ja)
WO (1) WO2021161502A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023209786A1 (ja) * 2022-04-26 2023-11-02 三菱電機株式会社 アノテーション装置、アノテーション方法及び学習装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180106885A1 (en) * 2016-10-19 2018-04-19 Ants Technology (Hk) Limited Sensory systems for autonomous devices
US20190120955A1 (en) * 2017-10-20 2019-04-25 Texas Instruments Incorporated System and method for camera radar fusion
JP2019518932A (ja) * 2016-03-31 2019-07-04 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー 物体の動作を予測する方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019518932A (ja) * 2016-03-31 2019-07-04 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー 物体の動作を予測する方法
US20180106885A1 (en) * 2016-10-19 2018-04-19 Ants Technology (Hk) Limited Sensory systems for autonomous devices
US20190120955A1 (en) * 2017-10-20 2019-04-25 Texas Instruments Incorporated System and method for camera radar fusion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023209786A1 (ja) * 2022-04-26 2023-11-02 三菱電機株式会社 アノテーション装置、アノテーション方法及び学習装置

Also Published As

Publication number Publication date
JPWO2021161502A1 (ja) 2021-08-19
US20230110788A1 (en) 2023-04-13

Similar Documents

Publication Publication Date Title
US11061114B2 (en) Radar system for the detection of drones
US9632170B2 (en) Evaluating the position of an aerial vehicle
US20070268182A1 (en) Real-time multistatic radar signal processing system and method
US5923282A (en) Radar system
EP3339880B1 (en) Adaptive radar system
KR102012386B1 (ko) 펄스 압축 신호에 대한 기만 신호 생성 장치 및 기만 신호 생성 방법
RU2501038C1 (ru) Гидроакустическая система
JP4723961B2 (ja) 二次監視レーダ装置とその質問送信方法
EP3982160A1 (en) Method and system for indoor multipath ghosts recognition
JP2017156219A (ja) 追尾装置、追尾方法およびプログラム
WO2021161502A1 (ja) 学習装置、学習方法、記録媒体、及び、レーダ装置
CN109691063B (zh) 用于接收、处理和传输数据的方法和设备
KR101582404B1 (ko) Uwb 레이더를 이용하여 목표물의 수를 카운팅 방법 및 장치
JP4551827B2 (ja) 二次監視レーダ制御装置及び二次監視レーダ制御方法
KR101170292B1 (ko) 레이더분석서버를 이용한 표적 식별 시스템 및 표적 식별 방법
WO2021149152A1 (ja) 学習装置、学習方法、記録媒体、及び、レーダ装置
JP2021015079A (ja) レーダ監視装置及び方法
KR101928509B1 (ko) 응답결과 기반의 피아 식별 방법 및 이를 지원하는 장치
WO2021161512A1 (ja) 学習装置、学習方法、記録媒体、及び、レーダ装置
Melvin et al. Adaptive distributed radar
Watson 3D active and passive geolocation and tracking of Unmanned Aerial Systems
US10480932B2 (en) Automated computation of a dimension of a moving platform
Li et al. Overview of Sensing Attacks on Autonomous Vehicle Technologies and Impact on Traffic Flow
Sagild Track Level Fusion of Radar and AIS for Autonomous Surface Vessels
Mahmoud et al. Radar parameter generation to identify the target

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20919318

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022500175

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20919318

Country of ref document: EP

Kind code of ref document: A1