WO2021161512A1 - 学習装置、学習方法、記録媒体、及び、レーダ装置 - Google Patents

学習装置、学習方法、記録媒体、及び、レーダ装置 Download PDF

Info

Publication number
WO2021161512A1
WO2021161512A1 PCT/JP2020/005805 JP2020005805W WO2021161512A1 WO 2021161512 A1 WO2021161512 A1 WO 2021161512A1 JP 2020005805 W JP2020005805 W JP 2020005805W WO 2021161512 A1 WO2021161512 A1 WO 2021161512A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
learning
radar device
unit
operator
Prior art date
Application number
PCT/JP2020/005805
Other languages
English (en)
French (fr)
Inventor
剛志 柴田
元貴 真坂
阿部 祐一
健太郎 工藤
正徳 加藤
昇平 池田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022500182A priority Critical patent/JP7452617B2/ja
Priority to PCT/JP2020/005805 priority patent/WO2021161512A1/ja
Priority to US17/797,607 priority patent/US20230056489A1/en
Publication of WO2021161512A1 publication Critical patent/WO2021161512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/95Radar or analogous systems specially adapted for specific applications for meteorological use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present invention relates to a monitoring technique using radar.
  • Patent Document 1 discloses a method of monitoring a moving target of an aircraft, a vehicle, or the like with a radar device.
  • the radar device operator is performing various operations depending on the situation. However, even in the same situation, the operations performed by each operator may differ due to differences in experience and judgment ability, and it is required that the operations be made uniform and stable by the operators.
  • One object of the present invention is to use machine learning to equalize and stabilize the operation by the operator.
  • the learning device An acquisition unit that acquires operation data generated during the operation of the radar device and operation history data indicating an operation performed by the operator on the radar device from the radar device.
  • a learning data generation unit that generates learning data using the operation data and the operation history data, It includes a learning processing unit that learns an operation determination model that determines an operation to be performed on the radar device based on the operation data using the learning data.
  • the learning method The operation data generated during the operation of the radar device and the operation history data indicating the operation performed by the operator on the radar device are acquired from the radar device. Learning data is generated using the operation data and the operation history data. Using the training data, an operation determination model for determining an operation to be performed on the radar device is learned based on the operation data.
  • the recording medium is The operation data generated during the operation of the radar device and the operation history data indicating the operation performed by the operator on the radar device are acquired from the radar device. Learning data is generated using the operation data and the operation history data. Using the training data, a program for causing a computer to execute a process of learning an operation determination model for determining an operation to be performed on the radar device based on the operation data is recorded.
  • the radar device An acquisition unit that acquires operation data generated during operation, Using the operation determination model learned using the operation data and the operation history data indicating the operation performed by the operator on the radar device, the operation data acquired by the acquisition unit is used as the basis for the operation data. It is provided with an operation determination unit that determines an operation to be performed on the radar device.
  • the basic configuration of the radar device is shown.
  • the configuration of the signal processing unit is shown. It is a block diagram which shows the functional structure of a learning device.
  • the hardware configuration of the learning device is shown.
  • the configuration of the radar device to which the trained model is applied is shown.
  • the configuration when beam control for collecting training data is performed is shown.
  • the configuration for online learning is shown.
  • the configuration for validating the trained model is shown.
  • the configuration for suppressing the motion fluctuation due to the trained model is shown.
  • the configuration of the learning device and the radar device according to the second embodiment is shown.
  • the radar device in this embodiment can be used for a monitoring system such as a moving body existing in the surroundings. Specifically, the radar device emits a transmitted wave to the surroundings, receives the reflected wave, detects a moving body (hereinafter, also referred to as a “target”), and tracks the target as necessary. Targets include, for example, aircraft flying in the air, vehicles moving on the ground, ships moving over the sea, and the like. In the following embodiments, for convenience of description, the radar device is used for air traffic control and the target is primarily an aircraft.
  • FIG. 1 is a block diagram showing a basic configuration of a radar device.
  • the radar device 100 includes an antenna unit 101, a transmission / reception unit 102, a signal processing unit 103, a beam control unit 104, a target detection unit 105, a tracking processing unit 106, and a display operation unit 107.
  • the antenna unit 101 amplifies the electric signal (hereinafter, also referred to as “transmission signal”) input from the transmission / reception unit 102, and transmits a wave (referred to as “beam”) in the transmission direction instructed by the beam control unit 104. Is emitted. Further, the antenna unit 101 converts the reflected wave due to the target of the emitted transmitted wave into an electric signal (hereinafter, also referred to as “received signal”), synthesizes it, and outputs it to the transmitting / receiving unit 102.
  • transmission signal the electric signal
  • beam a wave
  • the antenna unit 101 converts the reflected wave due to the target of the emitted transmitted wave into an electric signal (hereinafter, also referred to as “received signal”), synthesizes it, and outputs it to the transmitting / receiving unit 102.
  • the radar device 100 constantly emits a beam (referred to as a “scan beam”) that scans in all directions (around 360 °), and monitors the existence of a target in the surroundings.
  • a beam for tracking the target referred to as a “tracking beam”
  • tracks the trajectory of the target referred to as a “track”.
  • the antenna unit 101 is composed of an antenna whose transmission direction can be changed instantly, such as an array antenna including a plurality of antenna elements.
  • a plurality of planar array antennas can be arranged so as to cover all directions, or a cylindrical array antenna can be used.
  • the scan beam can be constantly emitted in all directions, and the tracking beam can be emitted in the direction of the target when the target is detected.
  • the transmission / reception unit 102 generates an electric signal based on the transmission wave specifications (hereinafter, also referred to as “beam specifications”) instructed by the beam control unit 104, and outputs the electric signal to the antenna unit 101.
  • the beam specifications are the pulse width of the transmitted wave, the transmission timing, and the like.
  • the signal processing unit 103 performs demodulation processing, integration processing, and the like on the received signal input from the transmission / reception unit 102, and the processed received signal (hereinafter, also referred to as “processed signal”) is the target detection unit 105.
  • FIG. 2 is a block diagram showing the configuration of the signal processing unit 103.
  • the signal processing unit 103 includes a demodulation processing unit 110 and a coherent integration unit 111.
  • the demodulation processing unit 110 demodulates (pulse compression) the received signal input from the transmission / reception unit 102. Basically, in order to detect a distant target by radar, a high power and sharp transmission wave (transmission pulse) is required, but there is a limit to the increase in power due to hardware restrictions.
  • the transmission / reception unit 102 frequency-modulates a transmission signal having a predetermined pulse width to generate a transmission wave having a long duration, which is transmitted from the antenna unit 101.
  • the demodulation processing unit 110 demodulates the received signal input from the transmission / reception unit 102 to generate a sharp reception pulse, and outputs the sharp reception pulse to the coherent integration unit 111.
  • the coherent integration unit 111 coherently integrates a plurality of pulses input from the demodulation processing unit 110 to remove noise and improve the SNR.
  • the radar device 100 emits a plurality of pulses in the same direction (same direction and elevation angle) in order to detect the target with high accuracy.
  • the number of pulses emitted in the same direction is called the "hit number”.
  • the coherent integration unit 111 integrates the received signals (received pulses) of the beams emitted in the same direction for a predetermined number of hits to improve the SNR of the received signals.
  • the number of received pulses integrated by the coherent integrating unit 111 is also referred to as "integrated pulse number".
  • the number of integrated pulses is basically equal to the number of hits of the emitted beam.
  • the target detection unit 105 detects the target from the processed signal input from the signal processing unit 103 using a predetermined threshold value.
  • the target detection unit 105 measures the target distance, direction, and elevation angle, and outputs these as a target detection result (hereinafter, referred to as “plot”) to the tracking processing unit 106.
  • the plot includes the target distance, orientation, elevation, SNR, and so on. Further, the target detection unit 105 sets a threshold value for detecting the target based on the threshold value set value input from the display operation unit 107.
  • the tracking processing unit 106 performs tracking processing on a plurality of plots input from the target detection unit 105, and calculates a target track. Specifically, the tracking processing unit 106 estimates the target position (referred to as “estimated target position”) at the current time based on a plurality of plots, and outputs the estimation to the display operation unit 107. Further, the tracking processing unit 106 calculates a target predicted position (referred to as “predicted target position”) based on a plurality of plots, and outputs the predicted position to the beam control unit 104. The predicted target position indicates the position where the radar device 100 next hits the tracking beam.
  • the beam control unit 104 determines the transmission direction and beam specifications of the scan beam according to a preset beam schedule. Further, the beam control unit 104 determines the transmission direction and beam specifications of the tracking beam based on the predicted target position input from the tracking processing unit 106. Then, the beam control unit 104 outputs the transmission directions of the scan beam and the tracking beam to the antenna unit 101, and outputs the beam specifications of the scan beam and the tracking beam to the transmission / reception unit 102.
  • the display operation unit 107 includes a display unit such as a display and an operation unit such as a keyboard, a mouse, and operation buttons.
  • the display operation unit 107 displays the positions of a plurality of plots input from the target detection unit 105 and the estimated target positions input from the tracking processing unit 106. This allows the operator to see the current position and track of the detected target. Further, the operator operates the display operation unit 107 by himself / herself in order to operate the radar device 100 correctly (this is also referred to as "manual operation"), if necessary. Specifically, the operations performed by the operator include the following.
  • Threshold value adjustment The operator adjusts the threshold value used by the target detection unit 105 for target detection. Increasing the threshold lowers the probability of false detection of noise and clutter, but also lowers the probability of target detection. On the other hand, if the threshold value is lowered, the probability of false detection of noise and clutter increases, but the probability of detecting the target also increases. Therefore, the operator sets an appropriate threshold value according to the situation. For example, in a noisy or clutter-rich situation, the operator sets the threshold higher than normal to prevent an increase in false positives.
  • the "clutter" is a signal generated by reflecting the emitted radar by an object other than the target.
  • the threshold value adjusted by the operator is input from the display operation unit 107 to the target detection unit 105.
  • the operator sets the clutter area when there are many clutters in the received signal.
  • the plot detected by the target detection unit 105 is displayed on the display operation unit 107.
  • the operator determines an area considered to be a clutter empirically by looking at a plurality of plots displayed on the display operation unit 107, and operates the display operation unit 107 to specify the area. This is called "clutter area setting".
  • the clutter area set by the operator is input to the signal processing unit 103.
  • the signal processing unit 103 performs signal processing for removing clutter in the input clutter region.
  • the radar device 100 constantly emits a scan beam in all directions to detect a target, and when a target is detected, emits a tracking beam to a predicted target position to track the target. do.
  • the operator operates the radar device according to individual empirical criteria.
  • the operations performed by each operator may differ due to differences in experience and judgment ability, and it is required that the operations be made uniform and stable by the operators. Therefore, in the present embodiment, the operation determination model learned by machine learning is applied to the display operation unit 107 to automate a part of the operations performed by the operator.
  • FIG. 3 is a block diagram showing a configuration of a radar device when learning an operation determination model.
  • a learning device 200 for learning an operation determination model based on the data acquired from the radar device 100 is provided. Since the radar device 100 is the same as that shown in FIG. 1, the description thereof will be omitted.
  • the learning device 200 includes a learning data generation unit 201, a data collection unit 202, and a learning processing unit 204.
  • the learning data generation unit 201 acquires the judgment material data D1 from the radar device 100.
  • the judgment material data D1 is data that is used as judgment material when the operator performs the above operation.
  • the determination material data D1 is operation data generated by each part of the radar device 100 during operation, and specifically, the received signal output by the signal processing unit 103 and the target detection unit 105 output.
  • the plot, the track output by the tracking processing unit 106, the state of the radar device 100, and the like are included.
  • the learning data generation unit 201 acquires the history data (hereinafter, referred to as “operation history data”) D2 of the operation actually performed by the operator from the display operation unit 107.
  • the learning data generation unit 201 generates learning data using the judgment material data D1 and the operation history data D2. Specifically, the learning data generation unit 201 generates learning data in which the operation included in the operation history data D2 is used as a teacher label (correct answer label) and the judgment material data D1 at that time is used as input data. For example, if there is a history of the operator adjusting the threshold value of the target detection unit 105 in the operation history data D2, the received signal and plot at that time are used as input data, and the threshold value adjustment (set) is performed. Generate training data with the threshold value) as the teacher label. Then, the learning data generation unit 201 outputs the created learning data to the data collection unit 202.
  • the data collection unit 202 stores the learning data input from the learning data generation unit 201.
  • the data collection unit 202 stores learning data in which the judgment material data at that time and the teacher label indicating the operation are paired for each operation of the operator included in the operation history data D2.
  • the learning processing unit 204 acquires learning data from the data collecting unit 202, and learns an operation determination model using the acquired learning data. Then, the learning processing unit 204 generates a trained operation determination model.
  • FIG. 4 is a block diagram showing a hardware configuration of the learning device 200 shown in FIG.
  • the learning device 200 includes an input IF (InterFace) 21, a processor 22, a memory 23, a recording medium 24, and a database (DB) 25.
  • IF InterFace
  • DB database
  • the input IF 21 inputs and outputs data to and from the radar device 100. Specifically, the input IF 21 acquires the judgment material data D1 and the operation history data D2 from the radar device 100.
  • the processor 22 is a computer including a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the entire learning device 200 by executing a program prepared in advance.
  • the processor 22 functions as the learning data generation unit 201 and the learning processing unit 204 shown in FIG.
  • the memory 23 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 23 stores various programs executed by the processor 22.
  • the memory 23 is also used as a working memory during execution of various processes by the processor 22.
  • the recording medium 24 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be removable from the learning device 200.
  • the recording medium 24 records various programs executed by the processor 22. When the learning device 200 executes the process, the program recorded on the recording medium 24 is loaded into the memory 23 and executed by the processor 22.
  • the DB 25 stores the data input through the input IF 21 and the data generated by the learning device 200. Specifically, the DB 25 stores the determination material data D1 and the operation history data D2 input from the radar device 100, and the learning data generated by the learning data generation unit 201.
  • FIG. 5 is a flowchart of the learning process by the learning device 200. This process can be realized by the processor 22 shown in FIG. 5 executing a program prepared in advance and operating as each element shown in FIG.
  • the learning data generation unit 201 acquires the judgment material data D1 and the operation history data D2 from the signal processing unit 103 of the radar device 100 (step S11). Next, the learning data generation unit 201 generates learning data using the judgment material data D1 and the operation history data D2, and stores the learning data in the data collection unit 202 (step S12). Next, the learning processing unit 204 acquires learning data from the data collecting unit 202 and learns the operation determination model using the learning data (step S13).
  • the learning processing unit 204 determines whether or not the predetermined learning end condition is satisfied (step 14).
  • An example of the learning end condition is that learning using a predetermined amount of learning data or learning a predetermined number of times has been performed.
  • the learning processing unit 204 repeats learning until the learning end condition is satisfied, and ends the process when the learning end condition is satisfied.
  • FIG. 6 is a block diagram showing a configuration of a radar device 100x to which a trained operation determination model is applied.
  • the radar device 100x includes a display operation unit 114 instead of the display operation unit 107 in FIG.
  • the configuration other than the display operation unit 110 is the same as that in FIG.
  • the trained operation determination model generated by the above learning process is set in the display operation unit 114. Further, the determination material data D1 is input to the display operation unit 114. In the example of FIG. 6, as the judgment material data D1, the received signal is input from the signal processing unit 103, the plot is input from the target detection unit 105, and the track is input from the tracking processing unit 106.
  • the display operation unit 114 determines the operation based on the input judgment material data D1 using the learned operation determination model. Specifically, when the display operation unit 114 determines that it is necessary to set the clutter area based on the received signal, the display operation unit 114 sets the clutter area to the signal processing unit 103. When the display operation unit 114 determines that the threshold value needs to be adjusted based on the received signal and the plot, the display operation unit 114 sets the threshold value in the target detection unit 105. Further, when the display operation unit 114 determines that manual tracking is necessary based on the track, the display operation unit 114 sets the track to the tracking processing unit 106 and instructs the manual tracking. In this case, the display operation unit 114 functions as an automatic operation unit.
  • FIG. 7 is a flowchart of automatic operation processing by the radar device 100x.
  • the display operation unit 114 acquires the determination material data D1 from each unit of the radar device 100x. Then, the display operation unit 114 determines the operation to be performed on the radar device 100 from the judgment material data D1 by using the learned operation determination model, and gives an instruction to the corresponding component unit in the radar device 100x. (Step S22).
  • the display operation unit 114 gives instructions for automatic operation using the operation determination model learned by machine learning, so that the influence of variations in the experience and judgment criteria of individual operators is affected. It is possible to reduce the number and stably perform the necessary operations on the radar device.
  • the learned operation determination model is applied to the display operation unit 114 to perform the automatic operation, but it may not be preferable to completely change the operation to the automatic operation.
  • the operation determined by the operation determination model may be recommended to the operator while maintaining the operation by the operator.
  • the operation display unit 114 is made to function as a recommendation unit for displaying the operation determined by the operation determination model and outputting a voice message. As a result, the operator can perform an appropriate operation in consideration of the recommendation by the operation determination model.
  • FIG. 8 is a block diagram showing a configuration of a modified example of the learning device.
  • the learning device 200x according to the modified example includes a learning data generation unit 201x, a data collection unit 202, and a learning processing unit 204.
  • the learning data generation unit 201x acquires auxiliary data from the outside in addition to acquiring the judgment material data D1 and the operation history data D2 from the radar device 100. Then, the learning data generation unit 201x generates learning data by using the auxiliary data as well.
  • the learning data generation unit 201x includes auxiliary data in the input data to generate learning data.
  • the learning data generation unit 201x generates learning data in which the received signal and plot as the judgment material data D1 and the auxiliary data are input data, and the threshold value input to the target detection unit 105 is the teacher label.
  • the auxiliary data is data that is a material for determining whether or not the operator performs various operations, and includes the following.
  • Meteorological information Meteorological information such as weather and atmospheric pressure may affect the orbit of clutter and beams.
  • the SNR level of the received signal may be affected by the reflection of the beam by clouds or the like. Therefore, it is effective to use meteorological information as auxiliary data.
  • C Radio wave environment Since the SNR and clutter of the received signal are affected by the radio wave environment, it is effective to use the radio wave environment as auxiliary data.
  • auxiliary data in addition to the judgment material data D1 as described above, but when actually performing the operation using the operation decision model, all used at the time of learning.
  • Auxiliary data is not always available.
  • the operation decision model is learned by using the weather information and the radio wave environment as auxiliary data in addition to the judgment material data D1.
  • the learned operation determination model cannot be used as it is.
  • a model corresponding to a combination of different input data may be created and used by distillation learning.
  • the radar device 100 implements beam control for collecting learning data between beam schedules. In particular, when the conditions specified in advance are met, the radar device 100 focuses on beam control. The content of the beam control is changed according to the data to be collected.
  • FIG. 9 shows a configuration when beam control for collecting learning data is performed.
  • the radar device 100 has the same configuration as in FIG.
  • the learning device 200x includes a data collection control unit 215 in addition to the configuration shown in FIG.
  • the data collection control unit 215 stores the condition that the learning data is insufficient, and outputs the data collection request D5 including the condition of the data to be collected to the beam control unit 104 of the radar device 100.
  • the beam control unit 104 controls the antenna unit 101 between the beam schedules to emit a beam under the conditions shown in the data collection request D5.
  • the radar device 100 constantly monitors all directions with a scan beam, and when it detects a target, it tracks the target with a tracking beam.
  • the beam control unit 104 can emit a beam for collecting learning data, for example, when the target is not detected or when it is not necessary to track the target.
  • the reflected wave corresponding to the emitted beam is received by the antenna unit 101, and the received signal is output to the learning data generation unit 201 via the transmission / reception unit 102 and the signal processing unit 103.
  • the learning device 200x can collect data corresponding to the missing condition.
  • FIG. 10 shows the configuration of a radar device and a learning device for performing online learning.
  • the radar device 100a includes an antenna unit 101, a transmission / reception unit 102, a switching unit 120, and two systems of control / data processing units 121a and 121b.
  • the control / data processing units 121a and 121b are units including a signal processing unit 103, a beam control unit 104, a target detection unit 105, a tracking processing unit 106, and a display operation unit 107 of the radar device shown in FIG.
  • the switching unit 120 selectively connects one of the control / data processing units 121a and 121b to the antenna unit 101 and the transmission / reception unit 102. Further, the switching unit 120 outputs the data D6 including the received signal, the plot, the track, etc. from the operating control / data processing unit 121a or 121b to the learning data generation unit 201 of the learning device 200a.
  • the learning device 200a includes a learning result evaluation unit 220 and a learning result application unit 221 in addition to the learning data generation unit 201, the data collection unit 202, and the learning processing unit 204.
  • the learning result evaluation unit 220 evaluates the learned model generated by the learning processing unit 204, and outputs the learned model determined to be applicable to the radar device 100a to the learning result application unit 221.
  • the learning result application unit 221 applies the learned model determined to be applicable to the control / data processing units 121a and 121b.
  • control / data processing unit 121a is in the active state (during the actual monitoring operation) and the control / data processing unit 121b is in the standby state. That is, the switching unit 120 connects the control / data processing unit 121a to the antenna unit 101 and the transmission / reception unit 102.
  • the learning device 200a learns the operation determination model using the data D6 output from the control / data processing unit 121a in the active state.
  • the learning result application unit 221 applies the learned model determined to be applicable to the control / data processing unit 121b in the standby state, and rewrites the program.
  • the switching unit 120 puts the control / data processing unit 121b in the active state, puts the control / data processing unit 121a in the standby state, and applies a new learned model to the control / data processing unit 121a in the standby state.
  • the switching unit 120 puts the control / data processing unit 121b in the active state, puts the control / data processing unit 121a in the standby state, and applies a new learned model to the control / data processing unit 121a in the standby state.
  • the display operation unit to which the trained model is applied may perform unexpected operations such as performing operations that the operator does not perform in the conventional processing, and recovery at that time is required. Therefore, the validity of the trained model is determined by operating the control / data processing unit to which the trained model is applied and the control / data processing unit that performs the conventional processing in parallel and comparing the processing results.
  • FIG. 11 shows the configuration of a radar device and a learning device for evaluating the validity of the trained model.
  • the radar device 100b includes an antenna unit 101, a transmission / reception unit 102, a validity evaluation unit 130, and two systems of control / data processing units 131 and 132.
  • the control / data processing unit 131 performs conventional processing, and the control / data processing unit 132 performs processing using the trained model.
  • the control / data processing units 131 and 132 are units including a signal processing unit 103, a beam control unit 104, a target detection unit 105, a tracking processing unit 106, and a display operation unit 107 of the radar device shown in FIG.
  • the learning device 200a is the same as that shown in FIG.
  • the validity evaluation unit 130 compares the processing result of the conventional processing by the control / data processing unit 131 with the processing result of the trained model by the control / data processing unit 132, and determines the validity of the processing result of the trained model. do. When it is determined that the processing result of the trained model is not valid, the validity evaluation unit 130 outputs the processing result of the conventional processing to the antenna unit 101 and the transmission / reception unit 102. On the other hand, when it is determined that the processing result of the trained model is appropriate, the validity evaluation unit 130 outputs the processing result of the trained model to the antenna unit 101 and the transmission / reception unit 102.
  • the validity evaluation unit 130 interpolates the processing result of the trained model with the processing result of the conventional processing, and an unexpected operation occurs. You may prevent it. Further, the validity evaluation unit 130 may be generated by using machine learning or the like. Further, the processing of the validity evaluation unit 130 may be performed by an operator instead of being fully automatic. For example, the operator may determine the validity of the processing result of the trained model based on the information displayed on the display operation unit 107.
  • the control / data processing unit of the radar device 100 is duplicated in advance, the trained model is intentionally staggered, and the processing results of the two control / data processing units are integrated into a formal one. Adopted as a processing result.
  • FIG. 12 shows the configuration of the radar device and the learning device for suppressing the operation fluctuation due to the trained model.
  • the radar device 100c includes an antenna unit 101, a transmission / reception unit 102, an integration unit 140, and two systems of control / data processing units 141a and 141b.
  • the control / data processing unit 141a uses the old model
  • the control / data processing unit 141b uses the new model for processing.
  • the control / data processing units 141a and 141b are units including the signal processing unit 103, the beam control unit 104, the target detection unit 105, the tracking processing unit 106, and the display operation unit 107 of the radar device shown in FIG.
  • the learning device 200a is the same as that shown in FIG.
  • the integration unit 140 adopts a formal processing result obtained by integrating the processing results of the control / data processing units 141a and 141b. For example, the integration unit 140 adds the processing results from the control / data processing units 141a and 141b and divides by 2, and adopts the processing result. As a result, when a new trained model is applied, it is possible to suppress a large fluctuation in the operation of the radar device.
  • FIG. 13A is a block diagram showing a functional configuration of the learning device according to the second embodiment.
  • the learning device 50 of the second embodiment includes an acquisition unit 51, a learning data generation unit 52, and a learning processing unit 53.
  • the acquisition unit 51 acquires operation data generated during the operation of the radar device and operation history data indicating an operation performed by the operator on the radar device from the radar device.
  • the learning data generation unit 52 generates learning data using the operation data and the operation history data.
  • the learning processing unit 53 learns an operation determination model that determines an operation to be performed on the radar device based on the operation data by using the learning data.
  • FIG. 13B is a block diagram showing a functional configuration of the radar device according to the second embodiment.
  • the radar device 60 includes an acquisition unit 61 and an operation determination unit 62.
  • the acquisition unit 61 acquires operation data generated during operation.
  • the operation determination unit 62 uses the operation determination model learned using the operation data and the operation history data indicating the operation performed by the operator on the radar device, and is based on the operation data acquired by the acquisition unit. , Determine the operation to be performed on the radar device.
  • An acquisition unit that acquires operation data generated during the operation of the radar device and operation history data indicating an operation performed by the operator on the radar device from the radar device.
  • a learning data generation unit that generates learning data using the operation data and the operation history data
  • a learning processing unit that learns an operation determination model that determines an operation to be performed on the radar device based on the operation data using the learning data
  • a learning processing unit that learns an operation determination model that determines an operation to be performed on the radar device based on the operation data using the learning data.
  • a learning device equipped with A learning device equipped with.
  • the learning data generation unit generates learning data for one operation included in the operation history data by using the operation data acquired when the operation is performed as input data and using the operation as a teacher label.
  • Appendix 3 The learning device according to Appendix 1 or 2, wherein the operation data includes a signal received by the radar device, a plot of a target detected based on the received signal, and at least one of the tracks of the target.
  • auxiliary data includes at least one of weather information, topographical information, radio wave environment information, and airspace usage information.
  • the operation data generated during the operation of the radar device and the operation history data indicating the operation performed by the operator on the radar device are acquired from the radar device.
  • Learning data is generated using the operation data and the operation history data.
  • the operation data generated during the operation of the radar device and the operation history data indicating the operation performed by the operator on the radar device are acquired from the radar device.
  • Learning data is generated using the operation data and the operation history data.
  • a recording medium in which a program for causing a computer to execute a process of learning an operation determination model for determining an operation to be performed on the radar device based on the operation data using the learning data is recorded.
  • Appendix 12 The radar device according to Appendix 11, further comprising an automatic operation unit that automatically performs an operation determined by the operation determination unit.
  • Appendix 13 The radar device according to Appendix 11, further comprising a recommendation unit that recommends an operation determined by the operation determination unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

学習装置は、取得部と、学習データ生成部と、学習処理部と、を備える。取得部は、レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを、レーダ装置から取得する。学習データ生成部は、動作データ及び操作履歴データを用いて、学習データを生成する。学習処理部は、学習データを用いて、動作データに基づいてレーダ装置に対して行うべき操作を決定する操作決定モデルを学習する。

Description

学習装置、学習方法、記録媒体、及び、レーダ装置
 本発明は、レーダを用いた監視技術に関する。
 レーダを用いて航空機などの移動体を監視する手法が知られている。特許文献1は、レーダ装置により航空機や車両などの移動目標を監視する手法を開示している。
特開2016-151416号公報
 レーダ装置のオペレータは、状況に応じて様々な操作を実施している。しかし、同じ状況であっても、経験や判断能力の差により、各オペレータが行う操作が異なってくることもあり、オペレータによる操作の均一化、安定化が求められる。
 本発明の1つの目的は、機械学習を用いて、オペレータによる操作を均一化、安定化することにある。
 本発明の一つの観点では、学習装置は、
 レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得する取得部と、
 前記動作データ及び前記操作履歴データを用いて、学習データを生成する学習データ生成部と、
 前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する学習処理部と、を備える。
 本発明の他の観点では、学習方法は、
 レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得し、
 前記動作データ及び前記操作履歴データを用いて、学習データを生成し、
 前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する。
 本発明の他の観点では、記録媒体は、
 レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得し、
 前記動作データ及び前記操作履歴データを用いて、学習データを生成し、
 前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する処理をコンピュータに実行させるプログラムを記録する。
 本発明の他の観点では、レーダ装置は、
 動作中に生成される動作データを取得する取得部と、
 前記動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを用いて学習済みの操作決定モデルを用いて、前記取得部により取得された前記動作データに基づいて、前記レーダ装置に対して行うべき操作を決定する操作決定部と、を備える。
 本発明によれば、機械学習を用いて、オペレータによる操作を均一化、安定化することが可能となる。
レーダ装置の基本構成を示す。 信号処理部の構成を示す。 学習装置の機能構成を示すブロック図である。 学習装置のハードウェア構成を示す。 学習装置による学習処理のフローチャートである。 学習済みモデルを適用したレーダ装置の構成を示す。 レーダ装置による自動操作処理のフローチャートである。 学習装置の変形例の機能構成を示すブロック図である。 学習データの収集のためのビーム制御を行う場合の構成を示す。 オンライン学習を行うための構成を示す。 学習済みモデルの妥当性評価を行うための構成を示す。 学習済みモデルによる動作変動を抑制するための構成を示す。 第2実施形態に係る学習装置及びレーダ装置の構成を示す。
 以下、図面を参照して、本発明の好適な実施形態について説明する。本実施形態におけるレーダ装置は、周囲に存在する移動体などの監視システムに用いることができる。具体的に、レーダ装置は、周囲に送信波を出射し、その反射波を受光することにより移動体(以下、「目標」とも呼ぶ。)を検出し、必要に応じてその目標を追尾する。目標としては、例えば空中を飛行する航空機、地上を移動する車両、海上を移動する船舶などが挙げられる。以下の実施形態では、説明の便宜上、レーダ装置を航空管制に使用し、目標は主として航空機であるものとする。
 <レーダ装置の基本構成>
 まず、レーダ装置の基本構成について説明する。図1は、レーダ装置の基本構成を示すブロック図である。レーダ装置100は、アンテナ部101と、送受信部102と、信号処理部103と、ビーム制御部104と、目標検出部105と、追尾処理部106と、表示操作部107と、を備える。
 アンテナ部101は、送受信部102から入力された電気信号(以下、「送信信号」とも呼ぶ。)を増幅し、ビーム制御部104から指示された送信方向に送信波(「ビーム」と呼ぶ。)を出射する。また、アンテナ部101は、出射した送信波の目標による反射波を電気信号(以下、「受信信号」とも呼ぶ。)に変換し、合成して送受信部102へ出力する。
 本実施形態では、レーダ装置100は、定常的に全方位(周囲360°)をスキャンするビーム(「スキャンビーム」と呼ぶ。)を出射し、周囲における目標の存在を監視する。また、目標が検出された場合には、レーダ装置100は、その目標を追尾するためのビーム(「追尾ビーム」と呼ぶ。)を出射し、目標の軌道(「航跡」と呼ぶ。)を追跡する。この点から、アンテナ部101は、例えば複数のアンテナ素子を備えるアレイアンテナなど、瞬時に送信方向を変更可能なアンテナにより構成される。具体的には、全方位をカバーするように複数の平面状アレイアンテナを配置するか、円筒状のアレイアンテナを用いることができる。これにより、定常的に全方位にスキャンビームを出射しつつ、目標が検出された際に目標の方向へ追尾ビームを出射することができる。
 送受信部102は、ビーム制御部104から指示された送信波諸元(以下、「ビーム諸元」とも呼ぶ。)に基づき、電気信号を生成し、アンテナ部101へ出力する。ビーム諸元とは、送信波のパルス幅、送信タイミングなどである。また、送受信部102は、アンテナ部101から入力された受信信号をA/D変換し、不要な周波数帯域を除去した後、受信信号として信号処理部103へ出力する。
 信号処理部103は、送受信部102から入力された受信信号に対して、復調処理、積分処理などを行い、処理後の受信信号(以下、「処理後信号」とも呼ぶ。)を目標検出部105へ出力する。図2は、信号処理部103の構成を示すブロック図である。信号処理部103は、復調処理部110と、コヒーレント積分部111とを備える。復調処理部110は、送受信部102から入力された受信信号を復調(パルス圧縮)する。基本的にレーダにより遠方の目標を検出するには、大電力で尖鋭な送信波(送信パルス)が要求されるが、ハードウェアなどの制約により電力の増強には限界がある。そのため、ビームの出射時には、送受信部102は所定のパルス幅の送信信号を周波数変調して継続時間の長い送信波を生成し、アンテナ部101から送信している。これに対応し、復調処理部110は、送受信部102から入力された受信信号を復調して尖鋭な受信パルスを生成し、コヒーレント積分部111へ出力する。
 コヒーレント積分部111は、復調処理部110から入力された複数のパルスをコヒーレント積分してノイズを除去し、SNRを改善する。レーダ装置100は、目標を高精度で検出するために、同一の方向(同一の方位及び仰角)に複数のパルスを出射している。同一の方向に出射するパルスの数を「ヒット数」と呼ぶ。コヒーレント積分部111は、同一の方向に出射した所定ヒット数分のビームの受信信号(受信パルス)を積分し、受信信号のSNRを改善する。なお、コヒーレント積分部111が積分する受信パルスの数を「積分パルス数」とも呼ぶ。積分パルス数は、基本的に出射したビームのヒット数と等しい。
 図1に戻り、目標検出部105は、信号処理部103から入力された処理後信号から、所定のしきい値を用いて目標を検出する。目標検出部105は、目標の距離、方位、仰角を測定し、これらを目標の検出結果(以下、「プロット」と呼ぶ。)として追尾処理部106へ出力する。プロットは、目標の距離、方位、仰角、SNRなどを含む。また、目標検出部105は、表示操作部107から入力されたしきい値設定値に基づいて、目標を検出するためのしきい値を設定する。
 追尾処理部106は、目標検出部105から入力された複数のプロットに対して追尾処理を行い、目標の航跡を算出する。具体的に、追尾処理部106は、複数のプロットに基づいて現時刻における目標の位置(「推定目標位置」と呼ぶ。)を推定し、表示操作部107に出力する。また、追尾処理部106は、複数のプロットに基づいて目標の予測位置(「予測目標位置」と呼ぶ。)を算出し、ビーム制御部104へ出力する。予測目標位置は、レーダ装置100が次に追尾ビームを打つ位置を示す。
 ビーム制御部104は、予め設定されたビームスケジュールに従ってスキャンビームの送信方向及びビーム諸元を決定する。また、ビーム制御部104は、追尾処理部106から入力された予測目標位置に基づいて、追尾ビームの送信方向及びビーム諸元を決定する。そして、ビーム制御部104は、スキャンビーム及び追尾ビームの送信方向をアンテナ部101に出力し、スキャンビーム及び追尾ビームのビーム諸元を送受信部102に出力する。
 表示操作部107は、ディスプレイなどの表示部と、キーボード、マウス、操作ボタンなどの操作部とを備える。表示操作部107は、目標検出部105から入力された複数のプロットの位置や、追尾処理部106から入力された推定目標位置を表示する。これにより、オペレータは、検出された目標の現在位置や航跡を見ることができる。また、オペレータは、必要に応じて、レーダ装置100を正しく動作させるために表示操作部107を自ら操作する(これを「マニュアル操作」とも呼ぶ)。具体的に、オペレータが行う操作としては以下のものが挙げられる。
(1)しきい値調整
 オペレータは、目標検出部105が目標検出に用いるしきい値を調整する。しきい値を高くすると、ノイズやクラッタの誤検出確率が下がるが、目標の検出確率も下がる。一方、しきい値を低くすると、ノイズやクラッタの誤検出確率が上がるが、目標の検出確率も上がる。よって、オペレータは状況に応じて、適切なしきい値を設定する。例えば、ノイズやクラッタが多い状況では、オペレータはしきい値を通常よりも高く設定し、誤検出の増加を防ぐ。なお、「クラッタ」とは、出射したレーダが目標以外の物体により反射されて発生する信号である。オペレータにより調整されたしきい値は、表示操作部107から目標検出部105に入力される。
(2)クラッタ領域の設定
 オペレータは、受信信号にクラッタが多い状況では、クラッタ領域を設定する。目標検出部105が検出したプロットは表示操作部107に表示される。オペレータは、表示操作部107に表示された複数のプロットを見て経験上クラッタと考えられる領域を判定し、表示操作部107を操作してその領域を指定する。これを「クラッタ領域の設定」と呼ぶ。オペレータにより設定されたクラッタ領域は、信号処理部103に入力される。信号処理部103は、入力されたクラッタ領域におけるクラッタを除去する信号処理を行う。
(3)マニュアル追尾
 追尾処理部106による目標の追尾が難しい場合や追尾の精度が低い場合などには、オペレータは表示操作部107を操作してマニュアル追尾を行う。「マニュアル追尾」とは、オペレータが手入力で航跡を作成し、追尾指示を行うことをいう。オペレータによるマニュアル追尾の指示は追尾処理部106に入力され、追尾処理部106はオペレータが作成した航跡に基づいて追尾処理を行う。
(4)その他の操作
 上記に加えて、オペレータが行う操作としては、送受信部102による送信信号の変調周波数又は送信周波数の切替、ビーム制御部104によるアンテナ方位の切替、レーダ装置100の運用モードの変更、処理系の切替、ECM(Electronic Counter Measures)などの電子攻撃に対するEECM(Electronic Counter Counter Measures)モードの適用などが挙げられる。
 以上の構成により、レーダ装置100は、全方位にわたって定常的にスキャンビームを出射して目標を検出するとともに、目標が検出された場合には、予測目標位置に追尾ビームを出射して目標を追尾する。
 <第1実施形態>
 オペレータは、様々な状況において、経験に基づく個々の判断基準によりレーダ装置に対する操作を行っている。しかし、同じ状況であっても、経験や判断能力の差により、各オペレータが行う操作が異なってくることもあり、オペレータによる操作の均一化、安定化が求められる。そこで、本実施形態では、機械学習により学習した操作決定モデルを表示操作部107に適用し、オペレータが行う操作の一部を自動化する。
 [学習時の構成]
 (全体構成)
 図3は、操作決定モデルを学習する際のレーダ装置の構成を示すブロック図である。学習時には、レーダ装置100から取得したデータに基づいて操作決定モデルを学習する学習装置200を設ける。レーダ装置100は、図1に示すものと同様であるので、説明を省略する。学習装置200は、学習データ生成部201と、データ収集部202と、学習処理部204と、を備える。
 学習データ生成部201は、レーダ装置100から判断材料データD1を取得する。判断材料データD1は、オペレータが上記の操作を行う際に判断材料とするデータである。具体的には、判断材料データD1は、動作中にレーダ装置100の各部により生成される動作データであり、具体的には、信号処理部103が出力する受信信号、目標検出部105が出力するプロット、追尾処理部106が出力する航跡、レーダ装置100の状態などを含む。また、学習データ生成部201は、表示操作部107から、実際にオペレータが行った操作の履歴データ(以下、「操作履歴データ」と呼ぶ。)D2を取得する。
 そして、学習データ生成部201は、判断材料データD1と、操作履歴データD2とを用いて、学習データを生成する。具体的には、学習データ生成部201は、操作履歴データD2に含まれる操作を教師ラベル(正解ラベル)とし、そのときの判断材料データD1を入力データとする学習データを生成する。例えば、操作履歴データD2中に、オペレータが目標検出部105のしきい値調整を行った履歴がある場合、そのときの受信信号及びプロットを入力データとし、そのしきい値調整(設定されたしきい値を含む)を教師ラベルとする学習データを生成する。そして、学習データ生成部201は、作成した学習データをデータ収集部202に出力する。
 データ収集部202は、学習データ生成部201から入力された学習データを記憶する。データ収集部202には、操作履歴データD2に含まれるオペレータの操作毎に、そのときの判断材料データと、その操作を示す教師ラベルとをペアにした学習データが記憶される。学習処理部204は、データ収集部202から学習データを取得し、取得した学習データを用いて操作決定モデルを学習する。そして、学習処理部204は、学習済みの操作決定モデルを生成する。
 (学習装置のハードウェア構成)
 図4は、図3に示す学習装置200のハードウェア構成を示すブロック図である。図示のように、学習装置200は、入力IF(InterFace)21と、プロセッサ22と、メモリ23と、記録媒体24と、データベース(DB)25と、を備える。
 入力IF21は、レーダ装置100とのデータの入出力を行う。具体的に、入力IF21は、レーダ装置100から判断材料データD1及び操作履歴データD2を取得する。プロセッサ22は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)などを含むコンピュータであり、予め用意されたプログラムを実行することにより、学習装置200の全体を制御する。プロセッサ22は、図3に示す学習データ生成部201、学習処理部204として機能する。
 メモリ23は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ23は、プロセッサ22により実行される各種のプログラムを記憶する。また、メモリ23は、プロセッサ22による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体24は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、学習装置200に対して着脱可能に構成される。記録媒体24は、プロセッサ22が実行する各種のプログラムを記録している。学習装置200が処理を実行する際には、記録媒体24に記録されているプログラムがメモリ23にロードされ、プロセッサ22により実行される。
 DB25は、入力IF21を通じて入力されるデータや、学習装置200が生成したデータを記憶する。具体的に、DB25には、レーダ装置100から入力された判断材料データD1及び操作履歴データD2、学習データ生成部201が生成した学習データが記憶される。
 (学習処理)
 図5は、学習装置200による学習処理のフローチャートである。この処理は、図5に示すプロセッサ22が、予め用意されたプログラムを実行し、図3に示す各要素として動作することにより実現できる。
 まず、学習データ生成部201は、レーダ装置100の信号処理部103から判断材料データD1、及び、操作履歴データD2を取得する(ステップS11)。次に、学習データ生成部201は、判断材料データD1と操作履歴データD2を用いて学習データを生成し、データ収集部202に保存する(ステップS12)。次に、学習処理部204は、データ収集部202から学習データを取得し、学習データを用いて操作決定モデルを学習する(ステップS13)。
 次に、学習処理部204は、所定の学習終了条件が具備されたか否かを判定する(ステップ14)。学習終了条件の一例は、所定量の学習データを用いた学習又は所定回数の学習が行われたことである。学習処理部204は、学習終了条件が具備されるまで学習を繰り返し、学習終了条件が具備されると、処理を終了する。
 [操作決定モデルを適用したレーダ装置]
 (構成)
 図6は、学習済みの操作決定モデルを適用したレーダ装置100xの構成を示すブロック図である。図1と比較するとわかるように、レーダ装置100xは、図1における表示操作部107の代わりに、表示操作部114を備える。表示操作部110以外の構成は、図1と同様である。
 表示操作部114には、上記の学習処理により生成された学習済みの操作決定モデルが設定される。また、表示操作部114には、判断材料データD1が入力される。図6の例では、判断材料データD1として、信号処理部103から受信信号が入力され、目標検出部105からプロットが入力され、追尾処理部106から航跡が入力される。
 表示操作部114は、学習済みの操作決定モデルを用いて、入力された判断材料データD1に基づいて操作を決定する。具体的に、表示操作部114は、受信信号に基づいてクラッタ領域の設定が必要であると判断した場合、信号処理部103へクラッタ領域を設定する。表示操作部114は、受信信号及びプロットに基づいてしきい値の調整が必要と判断した場合、目標検出部105へしきい値を設定する。また、表示操作部114は、航跡に基づいてマニュアル追尾が必要であると判断した場合、追尾処理部106へ航跡を設定してマニュアル追尾を指示する。この場合、表示操作部114は自動操作部として機能する。
 (自動操作処理)
 図7は、レーダ装置100xによる自動操作処理のフローチャートである。まず、表示操作部114は、レーダ装置100xの各部から判断材料データD1を取得する。そして、表示操作部114は、学習済みの操作決定モデルを用いて、判断材料データD1から、レーダ装置100に対して実行すべき操作を決定し、レーダ装置100x内の対応する構成部に指示を行う(ステップS22)。
 以上のように、本実施形態では、表示操作部114は、機械学習により学習された操作決定モデルを用いて、自動操作の指示を行うので、個々のオペレータの経験や判断基準のばらつきによる影響を低減し、レーダ装置に対する必要な操作を安定的に行うことが可能となる。
 (変形例)
 上記の例では、学習済みの操作決定モデルを表示操作部114に適用して自動操作を行っているが、完全に自動操作に変更してしまうのが好ましくない場合もある。例えば、モードの変更等の動作が大きく変化する操作の場合、自動操作によって動作が大きく変化することにリスクが伴う場合がある。そのような場合には、オペレータによる操作を維持したまま、操作決定モデルが決定した操作をオペレータにレコメンドするようにしてもよい。具体的には、操作表示部114を、操作決定モデルが決定した操作を表示したり、音声メッセージを出力したりするレコメンド部として機能させる。これにより、オペレータは、操作決定モデルによるレコメンドを考慮して適切な操作を行うことが可能となる。
 [学習装置の変形例]
 図8は、学習装置の変形例の構成を示すブロック図である。変形例に係る学習装置200xは、学習データ生成部201xと、データ収集部202と、学習処理部204とを備える。学習データ生成部201xは、レーダ装置100から判断材料データD1及び操作履歴データD2を取得するのに加えて、外部から補助データを取得する。そして、学習データ生成部201xは、補助データも用いて学習データを生成する。具体的に、学習データ生成部201xは、補助データを入力データに含めて学習データを生成する。例えば、学習データ生成部201xは、判断材料データD1としての受信信号及びプロットと、補助データとを入力データとし、目標検出部105へ入力するしきい値を教師ラベルとする学習データを生成する。
 補助データは、判断材料データD1と同様に、オペレータが各種の操作を行うか否かを判断する材料となるデータであり、以下のものが挙げられる。
(A)気象情報
 天候、気圧などの気象情報は、クラッタやビームの軌道などに影響を与えることがある。また、雲などによるビームの反射により、受信信号のSNRレベルなどが影響を受けることがある。よって、気象情報を補助データとして使用することが有効である。
(B)地形情報
 山などによるビームの反射はクラッタの一因となりうるため、地形情報を補助データとして使用することが有効である。
(C)電波環境
 電波環境によって受信信号のSNRやクラッタが影響を受けるため、電波環境を補助データとして使用することが有効である。
(D)空域の使用情報
 旅客機などが飛行する航空路の情報、所定の空域の使用予定情報、不明機の過去の飛行ルート情報などは、目標が味方機であるか身元不明機であるかを判断する上で有益な情報となる。
 なお、上記のように判断材料データD1に加えて補助データを使用して操作決定モデルを学習することは有効であるが、実際に操作決定モデルを用いて操作を行う際、学習時に使用した全ての補助データが得られるとは限らない。例えば、判断材料データD1に加えて、気象情報と電波環境を補助データとして用いて操作決定モデルを学習したとする。この場合、実際に操作決定モデルを用いて自動操作を行う際に、電波環境のデータが得られないとすると、学習した操作決定モデルをそのまま使用することはできない。このような場合には、蒸留学習により、異なる入力データの組み合わせに対応するモデルを作成して使用すればよい。上記の例では、判断材料データD1と、気象情報と、電波環境とを用いて学習した操作決定モデルを教師モデルとする蒸留学習により、判断材料データD1と、気象情報とを入力データとする生徒モデルを生成すればよい。これにより、機械学習により作成した操作決定モデルと同一の入力データが得られない状況においても、自動操作を行うことが可能となる。
 [レーダ装置によるデータ収集の効率化]
 稀にしか発生しない状況に関しては操作決定モデルの学習のために必要な学習データを収集することが難しい。そこで、レーダ装置100は、ビームスケジュールの合間に、学習データの収集のためのビーム制御を実施する。特に、予め指定された条件に一致する場合、レーダ装置100は重点的にビーム制御を実施する。ビーム制御の内容は、収集したいデータに合わせて変更される。
 図9は、学習データの収集のためのビーム制御を行う場合の構成を示す。レーダ装置100は、図3と同様の構成を有する。一方、学習装置200xは、図3に示す構成に加えて、データ収集制御部215を備える。データ収集制御部215は、学習データが不足している条件を記憶しており、収集したいデータの条件を含むデータ収集要求D5をレーダ装置100のビーム制御部104に出力する。ビーム制御部104は、ビームスケジュールの合間に、アンテナ部101を制御し、データ収集要求D5に示される条件でビームを出射させる。レーダ装置100は、スキャンビームにより全方位を定常的に監視するとともに、目標を検出した場合には追尾ビームにより目標を追尾する。よって、ビーム制御部104は、例えば目標が検出されていない場合や、目標を追尾する必要が無い場合などに、学習データを収集するためのビームを出射することができる。出射したビームに対応する反射波はアンテナ部101により受信され、受信信号は送受信部102、信号処理部103を介して学習データ生成部201に出力される。こうして、学習装置200xは、不足している条件に対応するデータを収集することができる。
 [学習済みモデルの適用]
 (オンライン学習)
 学習装置200により生成された学習済みの操作決定モデル(以下、単に「学習済みモデル」とも呼ぶ。)を実際にレーダ装置100に適用する場合には、プログラムの書き換えなどが発生するため、レーダ装置100の運用を停止する必要がある。しかし、重要な監視を行っているレーダ装置は運用を停止できないため、学習済みモデルを適用することができず、オンライン学習が困難である。
 そこで、予めレーダ装置の制御/データ処理部を2重化しておく。図10は、オンライン学習を行うためのレーダ装置及び学習装置の構成を示す。図示のように、レーダ装置100aは、アンテナ部101と、送受信部102と、切替部120と、2系統の制御/データ処理部121a、121bとを備える。制御/データ処理部121a、121bは、図1に示すレーダ装置の信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106及び表示操作部107を含むユニットである。切替部120は、制御/データ処理部121a、121bの一方を選択的にアンテナ部101及び送受信部102に接続する。また、切替部120は、動作中の制御/データ処理部121a又は121bから、受信信号、プロット、航跡などを含むデータD6を学習装置200aの学習データ生成部201に出力する。
 学習装置200aは、学習データ生成部201、データ収集部202、学習処理部204に加えて、学習結果評価部220及び学習結果適用部221を備える。学習結果評価部220は、学習処理部204が生成した学習済みモデルの評価を行い、レーダ装置100aに適用可と判定された学習済みモデルを学習結果適用部221に出力する。学習結果適用部221は、適用可と判定された学習済みモデルを制御/データ処理部121a、121bに適用する。
 いま、制御/データ処理部121aがアクティブ状態(実際の監視動作中)であり、制御/データ処理部121bがスタンバイ状態であるとする。即ち、切替部120は、制御/データ処理部121aをアンテナ部101及び送受信部102に接続している。この場合、学習装置200aは、アクティブ状態の制御/データ処理部121aから出力されたデータD6を用いて操作決定モデルを学習する。その間に、学習結果適用部221は、適用可と判定された学習済みモデルを、スタンバイ状態にある制御/データ処理部121bに適用し、プログラムの書き換えを行う。
 次に、切替部120は、制御/データ処理部121bをアクティブ状態とし、制御/データ処理部121aをスタンバイ状態とし、新たな学習済みモデルをスタンバイ状態にある制御/データ処理部121aに適用する。こうすることで、制御/データ処理部121の一方で監視動作を継続しつつ操作決定モデルの学習を行い、他方に学習済みモデルを適用することができる。即ち、学習済みモデルを適用し、オンライン学習を行うことが可能となる。
 (モデルの妥当性評価)
 オンライン学習において、どの程度学習させたところで適切なレーダの機能を有しているか、即ち、妥当性の判断が難しい。また、学習済みモデルを適用した表示操作部は、例えば、従来処理ではオペレータが行わないような操作を行ってしまうなど、期待しない動作をする恐れがあり、その際のリカバリーが必要となる。そこで、学習済みモデルを適用した制御/データ処理部と、従来処理を行う制御/データ処理部とを並列に動作させ、それらの処理結果を比べることにより、学習済みモデルの妥当性を判断する。
 図11は、学習済みモデルの妥当性評価を行うためのレーダ装置及び学習装置の構成を示す。図示のように、レーダ装置100bは、アンテナ部101と、送受信部102と、妥当性評価部130と、2系統の制御/データ処理部131、132とを備える。制御/データ処理部131は従来処理を行い、制御/データ処理部132は学習済みモデルを用いて処理を行う。なお、制御/データ処理部131、132は、図1に示すレーダ装置の信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106及び表示操作部107を含むユニットである。学習装置200aは、図10に示すものと同様である。
 妥当性評価部130は、制御/データ処理部131による従来処理の処理結果と、制御/データ処理部132による学習済みモデルの処理結果とを比較し、学習済みモデルの処理結果の妥当性を判定する。学習済みモデルの処理結果が妥当でないと判定した場合、妥当性評価部130は、従来処理の処理結果をアンテナ部101及び送受信部102に出力する。一方、学習済みモデルの処理結果が妥当であると判定した場合、妥当性評価部130は、学習済みモデルの処理結果をアンテナ部101及び送受信部102に出力する。なお、学習済みモデルの処理結果が妥当であると判定された場合でも、妥当性評価部130は、学習済みモデルの処理結果を従来処理の処理結果で補間し、期待しない動作が発生することを防止してもよい。また、妥当性評価部130を、機械学習などを利用して生成してもよい。さらに、妥当性評価部130の処理を全自動ではなく、オペレータが介在するようにしてもよい。例えば、オペレータが、表示操作部107に表示された情報に基づいて、学習済みモデルの処理結果の妥当性を判定することとしてもよい。
 (学習済みモデルを用いた場合の動作変動の抑制)
 学習済みモデルを目標検出部に適用した際に、レーダ装置100の動作が大きく変わる場合がある。そこで、予めレーダ装置100の制御/データ処理部を2重化しておき、意図的に時間をずらして学習済みモデルを適用し、2つの制御/データ処理部の処理結果を統合したものを正式な処理結果として採用する。
 図12は、学習済みモデルによる動作変動を抑制するためのレーダ装置及び学習装置の構成を示す。図示のように、レーダ装置100cは、アンテナ部101と、送受信部102と、統合部140と、2系統の制御/データ処理部141a、141bとを備える。制御/データ処理部141aは旧モデルを使用し、制御/データ処理部141bは新モデルを使用して処理を行う。なお、制御/データ処理部141a、141bは、図1に示すレーダ装置の信号処理部103、ビーム制御部104、目標検出部105、追尾処理部106及び表示操作部107を含むユニットである。学習装置200aは、図10に示すものと同様である。
 統合部140は、制御/データ処理部141a、141bによる処理結果を統合したものを正式な処理結果として採用する。例えば、統合部140は、制御/データ処理部141a、141bからの処理結果を加算し、2で除したものを処理結果として採用する。これにより、新たな学習済みモデルを適用したときに、レーダ装置の動作が大きく変動することを抑制できる。
 <第2実施形態>
 図13(A)は、第2実施形態に係る学習装置の機能構成を示すブロック図である。第2実施形態の学習装置50は、取得部51と、学習データ生成部52と、学習処理部53と、を備える。取得部51は、レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを、レーダ装置から取得する。学習データ生成部52は、動作データ及び操作履歴データを用いて、学習データを生成する。学習処理部53は、学習データを用いて、動作データに基づいてレーダ装置に対して行うべき操作を決定する操作決定モデルを学習する。
 図13(B)は、第2実施形態に係るレーダ装置の機能構成を示すブロック図である。レーダ装置60は、取得部61と、操作決定部62と、を備える。取得部61は、動作中に生成される動作データを取得する。操作決定部62は、動作データ、及び、レーダ装置に対してオペレータが行った操作を示す操作履歴データを用いて学習済みの操作決定モデルを用いて、取得部により取得された動作データに基づいて、レーダ装置に対して行うべき操作を決定する。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得する取得部と、
 前記動作データ及び前記操作履歴データを用いて、学習データを生成する学習データ生成部と、
 前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する学習処理部と、
 を備える学習装置。
 (付記2)
 前記学習データ生成部は、前記操作履歴データに含まれる1つの操作について、当該操作が行われた際に取得した動作データを入力データとし、当該操作を教師ラベルとする学習データを生成する付記1に記載の学習装置。
 (付記3)
 前記動作データは、前記レーダ装置による受信信号、前記受信信号に基づいて検出された目標のプロット、及び、前記目標の航跡の少なくとも1つを含む付記1又は2に記載の学習装置。
 (付記4)
 補助データを取得する補助データ取得部を備え、
 前記学習データ生成部は、さらに前記補助データを用いて前記学習データを生成する付記1乃至3のいずれか一項に記載の学習装置。
 (付記5)
 前記補助データは、気象情報、地形情報、電波環境の情報、空域の使用情報の少なくとも1つを含む付記4に記載の学習装置。
 (付記6)
 前記操作は、前記レーダ装置による受信信号におけるクラッタ領域を設定する操作である付記1乃至5のいずれか一項に記載の学習装置。
 (付記7)
 前記操作は、前記レーダ装置による受信信号に基づいて目標を検出する際に使用するしきい値を調整する操作である付記1乃至5のいずれか一項に記載の学習装置。
 (付記8)
 前記操作は、前記レーダ装置により検出された目標の航跡を作成し、追尾を指示する操作である付記1乃至5のいずれか一項に記載の学習装置。
 (付記9)
 レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得し、
 前記動作データ及び前記操作履歴データを用いて、学習データを生成し、
 前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する学習方法。
 (付記10)
 レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得し、
 前記動作データ及び前記操作履歴データを用いて、学習データを生成し、
 前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 (付記11)
 レーダ装置であって、
 動作中に生成される動作データを取得する取得部と、
 前記動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを用いて学習済みの操作決定モデルを用いて、前記取得部により取得された前記動作データに基づいて、前記レーダ装置に対して行うべき操作を決定する操作決定部と、
 を備えるレーダ装置。
 (付記12)
 前記操作決定部が決定した操作を自動的に実施する自動操作部を備える付記11に記載のレーダ装置。
 (付記13)
 前記操作決定部が決定した操作をレコメンドするレコメンド部を備える付記11に記載のレーダ装置。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 100 レーダ装置
 101 アンテナ部
 102 送受信部
 103 信号処理部
 104 ビーム制御部
 105 目標検出部
 106 追尾処理部
 107 表示操作部
 110 復調処理部
 111 コヒーレント積分部
 114 表示操作部
 200 学習装置
 201 学習データ生成部
 202 データ収集部
 203 前処理部
 204 学習処理部

Claims (13)

  1.  レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得する取得部と、
     前記動作データ及び前記操作履歴データを用いて、学習データを生成する学習データ生成部と、
     前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する学習処理部と、
     を備える学習装置。
  2.  前記学習データ生成部は、前記操作履歴データに含まれる1つの操作について、当該操作が行われた際に取得した動作データを入力データとし、当該操作を教師ラベルとする学習データを生成する請求項1に記載の学習装置。
  3.  前記動作データは、前記レーダ装置による受信信号、前記受信信号に基づいて検出された目標のプロット、及び、前記目標の航跡の少なくとも1つを含む請求項1又は2に記載の学習装置。
  4.  補助データを取得する補助データ取得部を備え、
     前記学習データ生成部は、さらに前記補助データを用いて前記学習データを生成する請求項1乃至3のいずれか一項に記載の学習装置。
  5.  前記補助データは、気象情報、地形情報、電波環境の情報、空域の使用情報の少なくとも1つを含む請求項4に記載の学習装置。
  6.  前記操作は、前記レーダ装置による受信信号におけるクラッタ領域を設定する操作である請求項1乃至5のいずれか一項に記載の学習装置。
  7.  前記操作は、前記レーダ装置による受信信号に基づいて目標を検出する際に使用するしきい値を調整する操作である請求項1乃至5のいずれか一項に記載の学習装置。
  8.  前記操作は、前記レーダ装置により検出された目標の航跡を作成し、追尾を指示する操作である請求項1乃至5のいずれか一項に記載の学習装置。
  9.  レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得し、
     前記動作データ及び前記操作履歴データを用いて、学習データを生成し、
     前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する学習方法。
  10.  レーダ装置の動作中に生成される動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを前記レーダ装置から取得し、
     前記動作データ及び前記操作履歴データを用いて、学習データを生成し、
     前記学習データを用いて、前記動作データに基づいて前記レーダ装置に対して行うべき操作を決定する操作決定モデルを学習する処理をコンピュータに実行させるプログラムを記録した記録媒体。
  11.  レーダ装置であって、
     動作中に生成される動作データを取得する取得部と、
     前記動作データ、及び、前記レーダ装置に対してオペレータが行った操作を示す操作履歴データを用いて学習済みの操作決定モデルを用いて、前記取得部により取得された前記動作データに基づいて、前記レーダ装置に対して行うべき操作を決定する操作決定部と、
     を備えるレーダ装置。
  12.  前記操作決定部が決定した操作を自動的に実施する自動操作部を備える請求項11に記載のレーダ装置。
  13.  前記操作決定部が決定した操作をレコメンドするレコメンド部を備える請求項11に記載のレーダ装置。
PCT/JP2020/005805 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置 WO2021161512A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022500182A JP7452617B2 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、プログラム、及び、レーダ装置
PCT/JP2020/005805 WO2021161512A1 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置
US17/797,607 US20230056489A1 (en) 2020-02-14 2020-02-14 Learning device, learning method, recording medium, and radar device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005805 WO2021161512A1 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置

Publications (1)

Publication Number Publication Date
WO2021161512A1 true WO2021161512A1 (ja) 2021-08-19

Family

ID=77291620

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005805 WO2021161512A1 (ja) 2020-02-14 2020-02-14 学習装置、学習方法、記録媒体、及び、レーダ装置

Country Status (3)

Country Link
US (1) US20230056489A1 (ja)
JP (1) JP7452617B2 (ja)
WO (1) WO2021161512A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181508A (ja) * 1991-12-30 1993-07-23 Nec Corp Ai人工衛星追跡管制システム
JP2005083909A (ja) * 2003-09-09 2005-03-31 Toshiba Corp レーダ装置
US20180370502A1 (en) * 2017-06-27 2018-12-27 Dura Operating, Llc Method and system for autonomous emergency self-learning braking for a vehicle
CN109272040A (zh) * 2018-09-20 2019-01-25 中国科学院电子学研究所苏州研究院 一种雷达工作模式生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181508A (ja) * 1991-12-30 1993-07-23 Nec Corp Ai人工衛星追跡管制システム
JP2005083909A (ja) * 2003-09-09 2005-03-31 Toshiba Corp レーダ装置
US20180370502A1 (en) * 2017-06-27 2018-12-27 Dura Operating, Llc Method and system for autonomous emergency self-learning braking for a vehicle
CN109272040A (zh) * 2018-09-20 2019-01-25 中国科学院电子学研究所苏州研究院 一种雷达工作模式生成方法

Also Published As

Publication number Publication date
US20230056489A1 (en) 2023-02-23
JP7452617B2 (ja) 2024-03-19
JPWO2021161512A1 (ja) 2021-08-19

Similar Documents

Publication Publication Date Title
US6424288B1 (en) Multi-sweep method and system for detecting and displaying weather information on a weather radar system
EP2419755B1 (en) Methods and apparatus for integration of distributed sensors and airport surveillance radar to mitigate blind spots
EP3339880B1 (en) Adaptive radar system
EP1616205B1 (en) Passive clear air turbulence detection avionics system and method
KR102243363B1 (ko) 레이더 장치 및 그를 이용한 타겟 식별방법
US20130214962A1 (en) Apparatus and method for traffic lane detection
KR20200075754A (ko) 세컨더리 레이더의 메인 안테나 로브의 방위각 정확도 및 패턴을 측정하는 방법 및 그러한 방법을 구현하는 레이더
JP3273530B2 (ja) 気象状況を推定することができる距離計測装置および距離計測方法
US9866422B1 (en) Methods of blind source separation filter resource management
WO2021161512A1 (ja) 学習装置、学習方法、記録媒体、及び、レーダ装置
WO2021161502A1 (ja) 学習装置、学習方法、記録媒体、及び、レーダ装置
US6859160B1 (en) System for estimating receiver utilization
JP2006133203A (ja) ウィンドプロファイラ・システム
US6859161B1 (en) System for time thresholding
JP7416092B2 (ja) 学習装置、学習方法、及び、プログラム
JP3732123B2 (ja) 飛翔体目標類別装置
JP2006220451A (ja) レーダ装置
KR20190096181A (ko) 표적을 탐지하는 방법 및 장치
KR100958374B1 (ko) 가상 레이더 동작 수행이 가능한 비행시뮬레터 장치
KR102068287B1 (ko) 브로드밴드 레이더를 이용한 해적선 탐지 시스템 및 그 방법
CN117240399B (zh) 一种导航诱骗信号处理方法及装置、存储介质、电子设备
RU2400767C2 (ru) Способ радиолокационного обзора пространства (варианты)
US20170299372A1 (en) Automated computation of a dimension of a moving platform
CN113253207B (zh) 一种对防空导弹杀伤目标概率影响仿真评估方法
KR20070016392A (ko) 클러터 상황에서 레이더의 탐지 확률 향상을 위한 장치 및방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20918836

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022500182

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20918836

Country of ref document: EP

Kind code of ref document: A1