JP2020198094A - Article detection method and device - Google Patents

Article detection method and device Download PDF

Info

Publication number
JP2020198094A
JP2020198094A JP2020083129A JP2020083129A JP2020198094A JP 2020198094 A JP2020198094 A JP 2020198094A JP 2020083129 A JP2020083129 A JP 2020083129A JP 2020083129 A JP2020083129 A JP 2020083129A JP 2020198094 A JP2020198094 A JP 2020198094A
Authority
JP
Japan
Prior art keywords
training data
image
radar
acquired
microdoppler
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020083129A
Other languages
Japanese (ja)
Inventor
欣 底
Xin Di
欣 底
ジャン・ジャオユィ
Zhaoyu Zhang
怡 徐
Yi Xu
怡 徐
ティアン・ジュン
Jun Tian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2020198094A publication Critical patent/JP2020198094A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/887Radar or analogous systems specially adapted for specific applications for detection of concealed objects, e.g. contraband or weapons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks

Abstract

To provide an article detection method and a device.SOLUTION: The method includes the steps of: acquiring a piece of training data; performing training on a convolutional neural network using the training data; acquiring a piece of test data for items awaiting detection, the test data including a micro doppler image which is acquired by at least one radar based on a test echo signal; and performing a series of processing on the test data and inputting the processed image into the trained convolutional neural network to determine the detection result of the awaiting article.SELECTED DRAWING: Figure 16

Description

本発明は、通信技術分野に関し、特に、物品検出方法及び装置に関する。 The present invention relates to the field of communication technology, and more particularly to article detection methods and devices.

近年、公共の場所における安全の問題が重要視されている。例えば、規制対象品、可燃物、爆発物などの危険物をどのように検出するかが重要な問題になっている。今のところ、危険物に対しての検出装置が例えば、空港、駅、地下鉄駅、スタジアムなどの混雑した場所で広く用いられている。危険物検出装置は、接触型と非接触型の2種類に分けることができる。接触型検出装置は、不審な物(例えば、液体入りボトル)を検出装置に置いてから検出を行う必要があり、非接触型検出装置は、不審な物が検出装置までの所定範囲内に移動すると、検出を起動して不審な物が危険物に属するかを認識することができる。 In recent years, the issue of safety in public places has been emphasized. For example, how to detect dangerous goods such as regulated products, combustibles, and explosives has become an important issue. So far, hazardous material detectors are widely used in crowded areas such as airports, train stations, subway stations, and stadiums. Dangerous goods detection devices can be divided into two types: contact type and non-contact type. The contact type detection device needs to place a suspicious object (for example, a bottle containing a liquid) on the detection device before performing detection, and the non-contact type detection device moves the suspicious object within a predetermined range to the detection device. Then, the detection can be activated to recognize whether the suspicious object belongs to the dangerous substance.

今のところ、非接触型検出装置について言えば、よくある検出方法の1つがX線検出方法であるが、このような方法は、通常、コストが高く、長時間使用すると、作業員の健康に悪影響を与えることもある。また、異なる物品の材質が異なるため、その反射特性に違いがあり、このような違いも、物品の検出のために用いることができ、即ち、レーダーを設けて検出待ち物品に信号を送信し、検出待ち物品からのエコー信号を用いて分析を行うことで得られた強度、径方向速度などの情報により検出を行うことができる。また、検出の正確性を向上させるために、さらに、複数のレーダーを設置し、複数のレーダーが受信したエコー信号に基づいて分析を行うことで得られた強度、径方向速度などの情報により検出を行うこともできる。 For now, when it comes to non-contact detectors, one of the most common detection methods is the X-ray detection method, which is usually costly and can be used for long periods of time to improve worker health. It can also have an adverse effect. In addition, since the materials of different articles are different, there are differences in their reflection characteristics, and such differences can also be used for detecting articles, that is, a radar is provided to transmit a signal to an article waiting to be detected. Detection can be performed based on information such as intensity and radial velocity obtained by performing analysis using echo signals from articles waiting for detection. Further, in order to improve the accuracy of detection, a plurality of radars are installed and the analysis is performed based on the echo signals received by the plurality of radars, and the detection is performed based on the information such as the intensity and the radial velocity. Can also be done.

近年、ディープラーニングがさまざまな分野で研究のホットスポットになっている。レーダーの分野では、同様に、ディープラーニングアルゴリズムにより、信号に対してその対応する情報処理を行うこともできる。従来の方法に比べ、ディープラーニングアルゴリズムは、深層特徴を自動抽出することができ、高い正確率を取得することができるなどの利点を有するが、訓練データが足りない場合、オーバーフィットの問題が存在する。 In recent years, deep learning has become a hotspot for research in various fields. Similarly, in the field of radar, a deep learning algorithm can be used to perform the corresponding information processing on a signal. Compared to the conventional method, the deep learning algorithm has advantages such as being able to automatically extract deep features and obtaining a high accuracy rate, but there is an overfit problem when training data is insufficient. To do.

上述の問題を解決するために、本発明の実施例は、物品検出方法及び装置を提供する。 To solve the above problems, the embodiments of the present invention provide article detection methods and devices.

本発明の実施例の第一側面によれば、物品を検出する装置が提供され、前記装置は、
訓練データを得るための訓練データ取得ユニットであって、前記訓練データはオリジナル訓練データ及び強化訓練データを含み、各訓練データには危険又は安全という内容のラベルが付けられているもの;
訓練ユニットであって、前記訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを前記畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、前記畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得するもの;
検出待ち物品のテストデータを取得するためのテストデータ取得ユニットであって、前記テストデータは少なくとも1つのレーダーがテストエコー信号に基づいて取得するマイクロドップラー画像を含み、前記テストエコー信号はレーダーの送信する信号が検出待ち物品により反射された後の信号であるもの;及び
処理ユニットであって、前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の前記畳み込みニューラルネットワークに入力し、前記検出待ち物品の検出結果を確定するものを含み、
前記訓練データ取得ユニットは、
オリジナル訓練データ生成ユニットであって、前記少なくとも1つのレーダーが訓練エコー信号に基づいて取得するマイクロドップラー画像に基づいて前記オリジナル訓練データを生成し、前記訓練エコー信号は前記レーダーの送信する信号が既知物品により反射された後の信号であるもの;及び
強化訓練データ取得ユニットであって、取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像を第一順序に従って併合を行うことで、前記強化訓練データを取得するものを含む。
According to the first aspect of the embodiment of the present invention, a device for detecting an article is provided, and the device is
A training data acquisition unit for obtaining training data, the training data including original training data and strengthening training data, and each training data is labeled as dangerous or safe;
In the training unit, the training data is used as an input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, training is performed on the convolutional neural network by a predetermined algorithm, and the convolution after training is performed. What gets a neural network;
A test data acquisition unit for acquiring test data of an article awaiting detection, the test data including a microdoppler image acquired by at least one radar based on a test echo signal, the test echo signal being transmitted by the radar. The signal to be processed is a signal after being reflected by an article waiting to be detected; and a processing unit that processes the microdoppler image of at least one radar included in the test data, and the processed image. Is input to the convolutional neural network after training to determine the detection result of the awaiting detection article.
The training data acquisition unit
An original training data generation unit that generates the original training data based on a microdoppler image acquired by the at least one radar based on the training echo signal, and the training echo signal is known as a signal transmitted by the radar. What is the signal after being reflected by the article; and the reinforcement training data acquisition unit that performs position and / or quantity conversion and / or quantity for a given number of frames in each acquired microdoppler image. A predetermined number of frames are exchanged between multiple microdoppler images for each radar obtained by one or more acquisitions, and / or multiple microdoppler images for each acquired radar. Includes those that acquire the strengthening training data by performing merging according to the first order.

本発明の実施例の第二側面によれば、物品を検出する方法が提供され、前記方法は、
訓練データを取得し、前記訓練データはオリジナル訓練データ及び強化訓練データを含み、各訓練データには危険又は安全という内容のラベルが付けられており;
前記訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを前記畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、前記畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得し;
検出待ち物品のテストデータを取得し、前記テストデータは少なくとも1つのレーダーがテストエコー信号に基づいて取得するマイクロドップラー画像を含み、前記テストエコー信号はレーダーの送信する信号が検出待ち物品により反射された後の信号であり;及び
前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の前記畳み込みニューラルネットワークに入力し、前記検出待ち物品の検出結果を確定することを含み、
訓練データを取得することは、
前記少なくとも1つのレーダーが訓練エコー信号に基づいて取得するマイクロドップラー画像に基づいて前記オリジナル訓練データを生成し、前記訓練エコー信号は前記レーダーの送信する信号が既知物品により反射された後の信号であり;及び
取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像を第一順序に従って併合を行うことで、前記強化訓練データを得ることを含む。
According to a second aspect of an embodiment of the invention, a method of detecting an article is provided, wherein the method is:
Training data is acquired, the training data includes original training data and reinforcement training data, and each training data is labeled as dangerous or safe;
The training data is used as the input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, the convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is obtained;
The test data of the article awaiting detection is acquired, the test data includes a microdoppler image acquired by at least one radar based on the test echo signal, and the test echo signal is a signal transmitted by the radar reflected by the article awaiting detection. The signal after processing; and the microdoppler image of at least one radar included in the test data is processed, and the processed image is input to the convolutional neural network after training, and the article awaiting detection. Including confirming the detection result of
Obtaining training data is
The original training data is generated based on a microdoppler image acquired by the at least one radar based on the training echo signal, and the training echo signal is a signal after the signal transmitted by the radar is reflected by a known article. Yes; and position and / or quantity conversion for a given number of frames in each acquired microdoppler image, and / or multiple micros for each radar obtained by one or more acquisitions. This includes obtaining the enhanced training data by exchanging a predetermined number of frames between Doppler images and / or merging a plurality of micro Doppler images for each acquired radar according to the first order. ..

本発明の実施例の有益な効果は、次の通りであり、即ち、1つ又は複数のレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に対してフレームの位置又は数量の変換を行い、或いは、複数の種類の順序に従って併合を行い、訓練データの強化を実現することにより、ディープラーニングにおけるオーバーフィットの問題を解決することができることにある。 The beneficial effects of the embodiments of the present invention are as follows: one or more radars perform frame position or quantity conversion on the micro-Doppler image acquired based on the training echo signal. Alternatively, the problem of overfitting in deep learning can be solved by merging according to a plurality of types of orders and realizing the enhancement of training data.

実施例1における物品検出装置を示す図である。It is a figure which shows the article detection apparatus in Example 1. FIG. マイクロ波センサーの送信信号を示す図である。It is a figure which shows the transmission signal of a microwave sensor. 実施例1における検出待ち物品のスイングを示す図である。It is a figure which shows the swing of the article waiting for detection in Example 1. FIG. 実施例1におけるマイクロドップラースペクトルを示す図である。It is a figure which shows the micro Doppler spectrum in Example 1. FIG. 実施例1における強化ユニットの構成を示す図である。It is a figure which shows the structure of the reinforcement unit in Example 1. FIG. 実施例1における強化訓練データを示す図である。It is a figure which shows the reinforcement training data in Example 1. 実施例1における強化訓練データを示す図である。It is a figure which shows the reinforcement training data in Example 1. 実施例1における強化訓練データを示す図である。It is a figure which shows the reinforcement training data in Example 1. 実施例1における強化訓練データを示す図である。It is a figure which shows the reinforcement training data in Example 1. 実施例1における強化訓練データを示す図である。It is a figure which shows the reinforcement training data in Example 1. 実施例1における強化訓練データを示す図である。It is a figure which shows the reinforcement training data in Example 1. 実施例1における画像のトリミングを示す図である。It is a figure which shows the trimming of the image in Example 1. FIG. 実施例1における画像サイズの調整を示す図である。It is a figure which shows the adjustment of the image size in Example 1. FIG. 実施例1における処理ユニットの構成を示す図である。It is a figure which shows the structure of the processing unit in Example 1. FIG. 実施例2における物品検出装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the article detection apparatus in Example 2. FIG. 実施例3における物品検出方法のフローチャートである。It is a flowchart of the article detection method in Example 3. 実施例3における物品の検出を示す図である。It is a figure which shows the detection of the article in Example 3. FIG.

以下、添付した図面を参照しながら、本発明を実施するための好適な実施例を詳しく説明する。 Hereinafter, suitable examples for carrying out the present invention will be described in detail with reference to the attached drawings.

なお、当業者が本発明の原理及び実施形態を容易に理解し得るために、本発明の実施例では、マイクロ波レーダーを例として説明を行うが、本発明の実施例は、マイクロ波レーダーに限られない。 In order for those skilled in the art to easily understand the principles and embodiments of the present invention, examples of the present invention will be described using a microwave radar as an example, but examples of the present invention will be described in the microwave radar. Not limited.

実施例1は、物品検出装置を提供する。図1は、該物品検出装置の構成図である。図1に示すように、物品検出装置100は、以下のものを含む。 The first embodiment provides an article detection device. FIG. 1 is a block diagram of the article detection device. As shown in FIG. 1, the article detection device 100 includes the following.

訓練データ取得ユニット101:訓練データを取得し、該訓練データは、オリジナル訓練データ及び強化訓練データを含み、各訓練データには、危険又は安全という内容のラベルが付けられており;
訓練ユニット102:該訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを該畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、該畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得し;
テストデータ取得ユニット103:検出待ち物品のテストデータを取得し、該テストデータは、少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、該テストエコー信号は、レーダーの送信信号が検出待ち物品により反射された後の信号であり;
処理ユニット104:該テストデータに含まれる該少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の畳み込みニューラルネットワークに入力し、該検出待ち物品の検出結果を確定する。
Training Data Acquisition Unit 101: Acquires training data, which includes original training data and enhanced training data, and each training data is labeled as dangerous or safe;
Training unit 102: The training data is used as the input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, the convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is performed. To get;
Test data acquisition unit 103: Acquires test data of an article awaiting detection, the test data includes a microdoppler image acquired by at least one radar based on a test echo signal, the test echo signal being a radar transmission signal. Is the signal after being reflected by the object awaiting detection;
Processing unit 104: Processes the micro-Doppler image of at least one radar included in the test data, inputs the processed image to the convolutional neural network after training, and confirms the detection result of the waiting article. To do.

そのうち、該訓練データ取得ユニット101は、以下のものを含む。 Among them, the training data acquisition unit 101 includes the following.

オリジナル訓練データ生成ユニット(オリジナユニットルと略称する)1011:少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、該オリジナル訓練データを生成し、該訓練エコー信号は、該レーダーの送信信号が既知物品により反射された後の信号であり;
強化訓練データ取得ユニット(強化ユニットと略称する)1012:取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行うことで、該強化訓練データを取得する。
Original training data generation unit (abbreviated as original unit) 1011: At least one radar generates the original training data based on the micro Doppler image acquired based on the training echo signal, and the training echo signal is the training echo signal. The signal after the radar transmission signal has been reflected by a known article;
Reinforcement training data acquisition unit (abbreviated as reinforcement unit) 1012: Converts the position and / or quantity of a predetermined number of frames in each acquired micro-Doppler image, and / or acquires one or more times. Swap a predetermined number of frames between multiple micro-Doppler images for each radar obtained by, and / or merge multiple micro-Doppler images for each acquired radar in a first order. By doing so, the strengthening training data is acquired.

本実施例における上述の装置により、1つ又は複数のレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に対してフレームの位置又は数量の変換を行い、或いは、複数の種類の順序に従って併合を行い、訓練データの強化を実現することにより、ディープラーニングにおけるオーバーフィットの問題を解決することができる。 With the above-mentioned device in this embodiment, one or more radars perform frame position or quantity conversion on the micro Doppler image acquired based on the training echo signal, or merge according to a plurality of types of sequences. By doing so and enhancing training data, the problem of overfitting in deep learning can be solved.

本実施例では、レーダーは、送信アンテナにより電磁波を送信し、そして、電磁波が異なる物体により反射された後のエコー信号を受信する。例えば、レーダーは、24.05GHz〜24.25GHzでワーキングするマイクロ波レーダーであっても良く、それは、検出待ち物品にマイクロ波(例えば、ミリ波)信号、例えば、周波数変調連続波(Frequency-modulated Continuous Wave、FMCW)を送信することができるが、本実施例は、これに限定されず、例えば、該レーダーは、Kaバンドの27GHz〜40GHzでワーキングするマイクロ波装置であっても良いが、ここでは、網羅的な列挙を省略する。 In this embodiment, the radar transmits an electromagnetic wave through a transmitting antenna and receives an echo signal after the electromagnetic wave is reflected by a different object. For example, the radar may be a microwave radar operating from 24.05GHz to 24.25GHz, which may be a microwave (eg, millimeter wave) signal on the waiting object, eg, Frequency-modulated Continuous Wave. , FMCW) can be transmitted, but the present embodiment is not limited to this, for example, the radar may be a microwave device operating in Ka band 27 GHz to 40 GHz, but here. Exhaustive enumeration is omitted.

例えば、レーダーがFMCW(Frequency-modulated Continuous Wave)方式でワーキングするマイクロ波センサーであるときに、図2は、該FMCW方式でワーキングするときの送信信号を示す図であり、該FMCW信号は、鋸歯状であり、図2に示すように、Bは、送信信号の周波数の1つの周期内の変化量(周波数変調帯域幅)を示し、周波数は、1つの周期内で線形に変化し、最小の周波数がf0であり、最大の周波数がfTであり、Tは、周期の長さを示す。以下、説明の便宜のため、1つの周期を1つのchirpと言い、第二所定数のchirpを1つのフレーム(frame)と言う。 For example, when the radar is a microwave sensor working in the FMCW (Frequency-modulated Continuous Wave) method, FIG. 2 is a diagram showing a transmission signal when working in the FMCW method, and the FMCW signal is a sawtooth. As shown in FIG. 2, B indicates the amount of change (frequency modulation bandwidth) of the frequency of the transmitted signal in one period, and the frequency changes linearly in one period and is the minimum. The frequency is f 0 , the maximum frequency is f T , and T indicates the length of the period. Hereinafter, for convenience of explanation, one cycle is referred to as one chirp, and the second predetermined number of chirps is referred to as one frame.

本実施例では、レーダーの距離分解能dresが送信信号の周波数変調帯域幅B及び光速cによって確定されても良く、即ち、dres=c/2Bであり、対応する速度分解能がvres=λ/2Tfであり、Tfは、1つのフレームの時間長さを表し、mTに等しい。なお、上述の説明は、例示に過ぎず、本実施例は、これに限られない。 In this embodiment, the radar range resolution d res may be determined by the frequency modulation bandwidth B and the speed of light c of the transmitted signal, i.e. d res = c / 2B and the corresponding velocity resolution is v res = λ. / 2T f , where T f represents the time length of one frame and is equal to mT. The above description is merely an example, and the present embodiment is not limited to this.

本実施例では、検出待ち物品が移動体(例えば、ヒト)によって運ばれ、該移動体は、所定軸に対してスイングし(ヒトの歩行プロセスも人体の中心軸に沿って左右往復でスイングすることである)、該移動体は、該軸の両側で径方向に沿って方向が相反する運動速度を生成し、該径方向とは、移動体がレーダーに向かう方向を指す。図3は、該移動体のスイングを示す図である。図3に示すように、移動体が所定軸に対してスイングし、スイングするときに、該移動体は、該軸の両側でそれぞれC軸及び方向がC軸の径方向と相反するD軸に沿って運動し、該スイングは、複数回の往復運動であっても良いが、本実施例は、これに限られない。 In this embodiment, the object waiting to be detected is carried by a moving body (for example, a human), and the moving body swings with respect to a predetermined axis (the human walking process also swings back and forth along the central axis of the human body). The moving body produces velocities that are opposite in direction along the radial direction on both sides of the axis, and the radial direction refers to the direction in which the moving body is directed toward the radar. FIG. 3 is a diagram showing the swing of the moving body. As shown in FIG. 3, when the moving body swings and swings with respect to a predetermined axis, the moving body moves to the C-axis and the D-axis whose directions are opposite to the radial direction of the C-axis on both sides of the axis. The swing may be a plurality of reciprocating motions, but the present embodiment is not limited to this.

本実施例では、該移動体、例えば、ヒトが、該軸の両側で径方向に沿って方向が相反する運動速度を生成する他に、全体としてレーダーに向かう径方向移動速度を生成することもできる。該径方向移動速度は、ヒトの歩行速度と同じである。以下、説明の便宜のため、径方向運動速度とは、ヒトを参照物とする運動速度を指す。 In this embodiment, the moving body, for example, a human, may generate radial movement velocities toward the radar as a whole, in addition to generating motion velocities with opposite directions along the radial directions on both sides of the axis. it can. The radial movement speed is the same as the human walking speed. Hereinafter, for convenience of explanation, the radial motion velocity refers to the motion velocity with reference to a human.

マイクロドップラー効果が、物体及びそれによる微動によって引き起こされる物理現象であり、レーダーのエコー信号からターゲット微動特徴を反映するマイクロドップラー画像を抽出することができる。具体的には、レーダーが、移動体の反射によるエコー信号を受信し、該エコー信号と送信信号との間に周波数差があり、該周波数差がレーダーと該移動体との間の距離に正比例し、該送信信号及び反射信号に対して処理を行い、ベースバンド信号を取得し、そのうち、移動体がレーダーに対して径方向に沿って方向が相反する運動速度を有するときに、該ベースバンド信号の周波数が変化し、変化する周波数に径方向運動速度及び移動体とレーダーとの間の距離情報が含まれ、そして、2次元フーリエ変換(2D-FFT)を行うことで、上述のマイクロドップラー画像を得ることができる。 The micro-Doppler effect is a physical phenomenon caused by an object and the resulting tremors, and a micro-Doppler image that reflects the target tremor features can be extracted from the radar echo signal. Specifically, the radar receives the echo signal due to the reflection of the moving body, and there is a frequency difference between the echo signal and the transmitting signal, and the frequency difference is directly proportional to the distance between the radar and the moving body. Then, processing is performed on the transmitted signal and the reflected signal to obtain a baseband signal, and when the moving body has motion velocities opposite to each other in the radial direction with respect to the radar, the baseband is obtained. The frequency of the signal changes, and the changing frequency includes radial motion velocity and distance information between the moving object and the radar, and by performing a two-dimensional Fourier transform (2D-FFT), the above-mentioned microdoppler You can get the image.

本実施例では、送信信号及びエコー信号に対して周波数混合サンプリングを行うことで、第一所定数即ちn個のベースバンド信号行列を得ることができる。送信信号は、周期信号であり、1つのベースバンド信号行列の行数は、第二所定数mに等しく、各行は、1つの周期のサンプリングポイントのベースバンド信号値を表し、該ベースバンド信号行列の列数は、第三所定数kに等しく、該第三所定数kは、ベースバンド信号の1つの周期内のサンプリングポイントの数である。各ベースバンド信号行列に対して2次元フーリエ変換を行い、第二信号行列を取得し、該第二信号行列における各要素の値は、信号強度を表す。各第二信号行列(各第二信号行列が1フレームframeに対応する)について、k列のうちから1列(例えば、信号強度値が最大である要素の所在する列であるが、本実施例は、これに限定されない)を選択し、そして、n個の第二信号行列から選択されたn列に対して併合を行い、特徴行列を取得する。該特徴行列における各要素の値は、信号強度を表する。そして、該特徴行列を変換することでマイクロドップラー画像を取得することができる。 In this embodiment, the first predetermined number, that is, n baseband signal matrices can be obtained by performing frequency mixed sampling on the transmission signal and the echo signal. The transmitted signal is a periodic signal, the number of rows of one baseband signal matrix is equal to the second predetermined number m, and each row represents the baseband signal value of the sampling point of one period, and the baseband signal matrix The number of columns of is equal to the third predetermined number k, and the third predetermined number k is the number of sampling points in one period of the baseband signal. A two-dimensional Fourier transform is performed on each baseband signal matrix to obtain a second signal matrix, and the value of each element in the second signal matrix represents the signal strength. For each second signal matrix (each second signal matrix corresponds to one frame frame), one column out of k columns (for example, the column where the element having the maximum signal strength value is located is located. Selects (but is not limited to) and merges the n columns selected from the n second signal matrices to obtain the feature matrix. The value of each element in the feature matrix represents the signal strength. Then, a micro Doppler image can be acquired by converting the feature matrix.

1つのベースバンド信号行列は、以下の通りである。
(外1)

Figure 2020198094
One baseband signal matrix is as follows.
(Outside 1)
Figure 2020198094

1つの第二信号行列は、以下の通りである。
(外2)

Figure 2020198094
One second signal matrix is as follows.
(Outside 2)
Figure 2020198094

特徴行列は、以下の通りである。
(外3)

Figure 2020198094
The feature matrix is as follows.
(Outside 3)
Figure 2020198094

図4は、変換により得られたマイクロドップラー画像を示す図である。図4に示すように、横座標は、特徴行列の各列のフレーム番号frame 1、frame 2、…、frame nにそれぞれ対応するフレーム番号を示し、縦座標は、1つのフレームに対応する速度値を示し、そのうち、該速度値は、特徴行列の各行のνres、…、m×νresに基づいて1対1のマッピング変換を行うことにより得られたものであり、また、各横、縦座標により確定される座標点のグレースケールは、該信号の信号強度値、即ち、特徴行列における信号強度値を表す。なお、該縦座標における速度値は、相対参照値に過ぎず、また、該1対1のマッピングの方法は、従来技術を参照することができ、ここでは、その詳しい説明を省略する。 FIG. 4 is a diagram showing a micro Doppler image obtained by the conversion. As shown in FIG. 4, the abscissa indicates the frame number corresponding to the frame numbers frame 1, frame 2, ..., Frame n of each column of the feature matrix, and the ordinate coordinates indicate the velocity value corresponding to one frame. Of these, the velocity value was obtained by performing a one-to-one mapping transformation based on ν res , ..., M × ν res of each row of the feature matrix, and each horizontal and vertical. The gray scale of the coordinate points determined by the coordinates represents the signal strength value of the signal, that is, the signal strength value in the feature matrix. The velocity value in the vertical coordinates is only a relative reference value, and the method of one-to-one mapping can refer to the prior art, and detailed description thereof will be omitted here.

本実施例では、少なくとも1つ(p個であり、p≧1)のレーダーが設置されているため、訓練データ取得時に、各レーダーは、全て、上述の方法に従ってそれに対応するマイクロドップラー画像を得ることができる。よって、p個のマイクロドップラー画像を取得することができる。以下、如何にp個のマイクロドップラー画像に対して処理を行って訓練データを得るかについて説明する。 In this embodiment, since at least one radar (p, p ≧ 1) is installed, each radar obtains the corresponding micro Doppler image according to the above method at the time of training data acquisition. be able to. Therefore, p micro-Doppler images can be acquired. Hereinafter, how to process p micro-Doppler images to obtain training data will be described.

本実施例では、該訓練データ取得ユニット101は、少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、複数の訓練データを生成する。各訓練データには、危険又は安全という内容のラベルが付けられている。そのうち、該訓練エコー信号は、レーダーの送信信号が既知物品により反射された後の信号である。 In this embodiment, the training data acquisition unit 101 generates a plurality of training data based on a micro Doppler image acquired by at least one radar based on the training echo signal. Each training data is labeled as dangerous or safe. Among them, the training echo signal is a signal after the radar transmission signal is reflected by a known article.

本実施例では、該訓練データは、オリジナル訓練データ及び強化訓練データを含む。以下、如何にオリジナル訓練データ及び強化訓練データを取得するかについて説明する。 In this embodiment, the training data includes original training data and reinforcement training data. Hereinafter, how to acquire the original training data and the reinforcement training data will be described.

本実施例では、1つの既知物品について、レーダーの数pが1であるときに、オリジナル訓練データ生成ユニット1011は、該1つのレーダーが毎回、訓練エコー信号に基づいて取得した1つのマイクロドップラー画像を1つのオリジナル訓練データとする。レーダーの数pが1よりも大きいときに、オリジナル訓練データ生成ユニット1011は、毎回、p個のレーダーが取得したp個のマイクロドップラー画像に対して第二順序に従って併合を行い、併合により得られた1つの画像を1つのオリジナル訓練データとする。そして、既知物品の類別(危険又は安全)に基づいて、該オリジナル訓練データにラベルを付ける。また、オリジナル訓練データ生成ユニット1011は、1つの既知物品について複数回の検出を行うことで、該既知物品についての複数のオリジナル訓練データを得ても良く、さらに、複数の異なる既知物品に対して上述の処理を行うことで、複数の既知物品についての複数のオリジナル訓練データを取得することもできる。 In this embodiment, for one known article, when the number p of the radar is 1, the original training data generation unit 1011 has one micro-Doppler image acquired by the one radar each time based on the training echo signal. Is one original training data. When the number of radars p is greater than 1, the original training data generation unit 1011 merges the p micro-Doppler images acquired by the p radars in the second order each time, and is obtained by the merge. One image is used as one original training data. Then, the original training data is labeled based on the classification (danger or safety) of the known article. Further, the original training data generation unit 1011 may obtain a plurality of original training data for the known article by performing the detection for one known article a plurality of times, and further, for a plurality of different known articles. By performing the above-mentioned processing, it is possible to acquire a plurality of original training data for a plurality of known articles.

本実施例では、訓練データが足りないことによるオーバーフィットの問題を避けるために、該強化訓練データ取得ユニット1012は、1つ又は複数のレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に対して、フレームの位置又は数量の変換を行い、或いは、複数の種類の順序に従って併合を行うことで、複数の強化訓練データを取得することができる。図5は、該強化訓練データ取得ユニット1012の構成図である。以下、図5に基づいて、該強化訓練データ取得ユニット1012がデータの強化を行う実施方式について説明する。 In this embodiment, in order to avoid the problem of overfitting due to lack of training data, the enhanced training data acquisition unit 1012 is applied to a microdoppler image acquired by one or more radars based on the training echo signal. Therefore, a plurality of reinforcement training data can be acquired by converting the position or quantity of the frame or merging according to a plurality of types of orders. FIG. 5 is a configuration diagram of the reinforcement training data acquisition unit 1012. Hereinafter, an implementation method in which the reinforcement training data acquisition unit 1012 enhances data will be described with reference to FIG.

1つの実施方式では、併合の順序を変換する方法でデータの強化を行うことができる。レーダー数pが1よりも大きいときに、該強化訓練データ取得ユニット1012は、第一強化訓練データ取得ユニット(第一強化ユニットと略称する)501を含み、該第一強化訓練データ取得ユニット501は、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して第二順序とは異なる第一順序に従って併合を行い、そして、毎回の併合により得られた1つの画像を1つの強化訓練データとすることで、複数の強化訓練データを取得することができる。 In one embodiment, the data can be enhanced by transforming the order of merging. When the number of radars p is greater than 1, the reinforcement training data acquisition unit 1012 includes a first reinforcement training data acquisition unit (abbreviated as the first reinforcement unit) 501, and the first reinforcement training data acquisition unit 501 , The microdoppler images corresponding to at least two radars acquired each time are merged according to the first order different from the second order, and one image obtained by each merge is combined with one strengthening training data. By doing so, it is possible to acquire a plurality of strengthening training data.

なお、上述の画像の併合は、左右方向の併合であっても良く、上下方向の併合であっても良い。以下、左右方向の併合を例として説明を行うが、本実施例は、これに限定されない。 The above-mentioned images may be merged in the left-right direction or in the vertical direction. Hereinafter, merging in the left-right direction will be described as an example, but the present embodiment is not limited to this.

図6は、該第一強化訓練データ取得ユニット501が取得した強化訓練データを示す図である。図6に示すように、1つのオリジナル訓練データについて、2つのマイクロドップラー画像X、YをX+Yの順序に従って併合したものであり、データの強化を行うときに、Y+Xの順序に従って併合を行うことができる。なお、以上、p=2を例として説明したが、本実施例は、これに限定されず、例えば、1つのオリジナル訓練データについて、p=3即ち3つのマイクロドップラー画像X、Y、ZをX+Y+Zの順序に従って併合したものであり、データの強化を行うときに、3つのマイクロドップラー画像X、Y、ZをZ+Y+X、及び/又は、X+Z+Yなどの他の種類の順序に従って併合を行い、毎回の併合により得られた1つの画像を1つの強化訓練データとすることもできる。 FIG. 6 is a diagram showing reinforcement training data acquired by the first reinforcement training data acquisition unit 501. As shown in FIG. 6, two micro-Doppler images X and Y are merged according to the order of X + Y for one original training data, and when the data is strengthened, they are merged according to the order of Y + X. It can be performed. Although p = 2 has been described above as an example, this embodiment is not limited to this, and for example, for one original training data, p = 3, that is, three microdoppler images X, Y, and Z are X. It is merged according to the order of + Y + Z, and when enhancing the data, the three microdoppler images X, Y, Z are combined with Z + Y + X, and / or X + Z + Y, etc. It is also possible to perform merging according to the order of the types of, and use one image obtained by each merging as one strengthening training data.

1つの実施方式では、1回又は複数回取得した複数のマイクロドップラー画像における所定数のフレームを交換することでデータの強化を行うことができる。レーダーの数pが1以上であるときに、該強化訓練データ取得ユニット1012は、第二強化訓練データ取得ユニット(第二強化ユニットと略称する)502を含み、該第二強化訓練データ取得ユニット502は、1回取得したオリジナル訓練データ及び/又は強化訓練データについて、他の回で取得した1つのレーダーについての第二マイクロドップラー画像により、該オリジナル訓練データ及び/又は強化訓練データにおける該1つのレーダー又は他のレーダーについての第一マイクロドップラー画像を置換する。そのうち、pが1よりも大きいときに、置換後に、複数のマイクロドップラー画像を併合することで、強化訓練データを得る必要がある。 In one embodiment, the data can be enhanced by exchanging a predetermined number of frames in a plurality of micro-Doppler images acquired once or a plurality of times. When the number p of radars is 1 or more, the strengthening training data acquisition unit 1012 includes a second strengthening training data acquisition unit (abbreviated as a second strengthening unit) 502, and the second strengthening training data acquisition unit 502. With respect to the original training data and / or the strengthening training data acquired once, the one radar in the original training data and / or the strengthening training data by the second microdoppler image about one radar acquired in the other time. Or replace the first microdoppler image for another radar. Of these, when p is greater than 1, it is necessary to obtain reinforcement training data by merging multiple micro-Doppler images after replacement.

例えば、p=1のときに、第1回のテストに係る取得により、1つのマイクロドップラー画像Xをオリジナル訓練データとして取得し、第二回のテストに係る取得により得られたマイクロドップラー画像がX1であり、この場合、X1によりXを置換し、X1を強化訓練データとして取得することができる。 For example, when p = 1, one micro-Doppler image X is acquired as original training data by the acquisition related to the first test, and the micro-Doppler image obtained by the acquisition related to the second test is X1. In this case, X can be replaced by X1 and X1 can be acquired as reinforcement training data.

例えば、p=2のときに、第1回のテストに係る取得により、2つのマイクロドップラー画像X、Yを取得し、併合した後に、X+Y又はY+Xの訓練データを取得し、第二回のテストに係る取得により得られた2つのマイクロドップラー画像がX1、Y1であり、この場合、X1/Y1によりXを置換してYと併合することで、X1/Y1+Y及び/又はY+X1/Y1を強化訓練データとして取得することができ、或いは、X1/Y1によりYを置換してXと併合することで、X1/Y1+X及び/又はX+X1/Y1を強化訓練データとして取得するもできるが、本実施例は、これに限られない。 For example, when p = 2, two microdoppler images X and Y are acquired by the acquisition related to the first test, and after merging, the training data of X + Y or Y + X is acquired, and the second The two microdoppler images obtained from the acquisitions of the two tests are X1 and Y1, in which case X1 / Y1 + Y and / or by substituting X with X1 / Y1 and merging with Y. Y + X1 / Y1 can be acquired as reinforcement training data, or X1 / Y1 + X and / or X + X1 / Y1 can be strengthened by substituting Y with X1 / Y1 and merging with X. Although it can be acquired as data, this embodiment is not limited to this.

この実施方式では、レーダーの数が1よりも大きいときに、該第二マイクロドップラー画像に第一閾値以上の信号強度値が含まれないときに、該第二強化訓練データ取得ユニット502は、所定条件に基づいて該第一マイクロドップラー画像を選択し、該所定条件は、置換後のオリジナル訓練データ及び/又は強化訓練データに第一閾値以上の信号強度値が含まれることを満足するものあり、該第二マイクロドップラー画像に第一閾値以上の信号強度値が含まれるときに、該第二強化訓練データ取得ユニット502は、該第一マイクロドップラー画像をランダム選択しても良い。 In this embodiment, when the number of radars is greater than 1, and the second micro-Doppler image does not contain a signal intensity value greater than or equal to the first threshold, the second reinforcement training data acquisition unit 502 is predetermined. The first micro-Doppler image is selected based on the conditions, and the predetermined conditions satisfy that the original training data and / or the strengthening training data after replacement include a signal strength value equal to or higher than the first threshold value. When the second micro-Doppler image contains a signal strength value equal to or higher than the first threshold value, the second reinforcement training data acquisition unit 502 may randomly select the first micro-Doppler image.

例えば、X1/Y1によりX又はYを置換するかについては、次のようなルールに従って確定されても良く、即ち、X1/Y1に第一閾値以上の信号強度値が含まれるときに、該第一マイクロドップラー画像は、X及びYのいずれかであっても良く、X1/Y1に第一閾値以上の信号強度値が含まれないときに、置換後のオリジナル訓練データ及び/又は強化訓練データに第一閾値以上の信号強度値が含まれるということを満足する必要があり、例えば、Yに第一閾値以上の信号強度値が含まれず、Xに第一閾値以上の信号強度値が含まれる場合、X1/Y1によりYを置換し、これにより、併合後の画像に信号強度値が大きいという特徴が含まれるように保証することができ、これは、物体の検出に有利である。なお、上述の説明は、例示に過ぎず、例えば、該所定条件は、他の条件であっても良く、又は、該第一マイクロドップラー画像を任意選択しても良いが、本実施例は、これに限られない。 For example, whether to replace X or Y with X1 / Y1 may be determined according to the following rule, that is, when X1 / Y1 contains a signal strength value equal to or higher than the first threshold value, the first value is determined. The microdoppler image may be either X or Y, and when X1 / Y1 does not contain a signal strength value equal to or higher than the first threshold value, the original training data and / or the strengthening training data after replacement may be used. It is necessary to satisfy that the signal strength value equal to or higher than the first threshold value is included. For example, when Y does not include the signal strength value equal to or higher than the first threshold value and X contains the signal strength value equal to or higher than the first threshold value. , X1 / Y1 replaces Y, which can ensure that the merged image contains the feature of high signal strength values, which is advantageous for object detection. The above description is merely an example. For example, the predetermined condition may be another condition, or the first micro Doppler image may be arbitrarily selected. However, in this embodiment, the first micro Doppler image may be arbitrarily selected. Not limited to this.

図7は、強化訓練データを示す図である。図7に示すように、X+Yについて、データの強化を行うときに、X1を用いてXを置換してYと併合しても良い。これにより、併合後の画像に信号強度値が大きいという特徴が含まれるように保証することができる。なお、以上、p=2を例として説明したが、本実施例は、これに限定されず、また、ここでは、網羅的な列挙を省略する。 FIG. 7 is a diagram showing reinforcement training data. As shown in FIG. 7, for X + Y, X1 may be used to replace X and merge with Y when enhancing the data. This makes it possible to guarantee that the merged image includes the feature that the signal strength value is large. Although p = 2 has been described above as an example, the present embodiment is not limited to this, and a comprehensive enumeration is omitted here.

1つの実施方式では、1つ又は複数のマイクロドップラー画像における所定数のフレームに対して位置の変換を行うことで、データの強化を行うことができる。レーダーの数pが1以上であるときに、該強化訓練データ取得ユニット1012は、第三強化訓練データ取得ユニット(第三強化ユニットと略称する)503を含み、該第三強化訓練データ取得ユニット503は、1つ又は少なくとも2つのレーダーについてのマイクロドップラー画像における所定数のフレームの位置を所定ルールに従って交換する。そのうち、pが1よりも大きい場合、交換後に、複数のマイクロドップラー画像を併合することで、強化訓練データを得る必要がある。 In one embodiment, the data can be enhanced by converting positions for a predetermined number of frames in one or more micro-Doppler images. When the number p of radars is 1 or more, the reinforcement training data acquisition unit 1012 includes a third reinforcement training data acquisition unit (abbreviated as a third reinforcement unit) 503, and the third reinforcement training data acquisition unit 503. Swaps a predetermined number of frame positions in a microdoppler image for one or at least two radars according to a predetermined rule. If p is greater than 1, it is necessary to obtain reinforcement training data by merging multiple micro-Doppler images after exchange.

該実施方式では、1つのレーダーに対応するマイクロドップラー画像について、その中の所定数のフレームの位置を所定ルールに従って交換しても良い。例えば、p=1のときに、1回のテストに係る取得により、1つのマイクロドップラー画像Xを取得し、Xにおける所定数のフレームの位置を所定ルールに従って交換しても良く、例えば、Xにおける第iフレームと第jフレーム(所定数が2である)を交換しても良く、或いは、Xにおける全てのフレーム(所定数が全てのフレームである)に対して逆順又は他の順序に従って再び並べ替えることで、強化訓練データを取得しても良い。p=2のときに、1回のテストに係る取得により、2つのマイクロドップラー画像X、Yを取得し、Xにおける所定数のフレームの位置を所定ルールに従って交換しても良く、及び/又は、Yにおける所定数のフレームの位置を所定ルールに従って交換しても良く、例えば、X及び/又はYにおける第iフレームと第jフレーム(所定数が2である)を交換しても良く、或いは、X及び/又はYにおける全てのフレーム(所定数が全てのフレームである)に対して逆順又は他の順序に従って再び並べ替え、そして、フレーム位置交換後のマイクロドップラー画像X’及びYを用いて併合処理を行うことで、X+Y及び/又はY+Xを強化訓練データとして取得しても良い。 In the embodiment, the positions of a predetermined number of frames in the micro Doppler image corresponding to one radar may be exchanged according to a predetermined rule. For example, when p = 1, one micro-Doppler image X may be acquired by the acquisition related to one test, and the positions of a predetermined number of frames in X may be exchanged according to a predetermined rule. For example, in X. The i-th frame and the j-th frame (predetermined number is 2) may be exchanged, or all frames in X (predetermined number are all frames) are rearranged in reverse order or other order. By changing, the strengthening training data may be acquired. When p = 2, two micro-Doppler images X and Y may be acquired by one test acquisition, and the positions of a predetermined number of frames in X may be exchanged according to a predetermined rule, and / or The positions of a predetermined number of frames in Y may be exchanged according to a predetermined rule, for example, the i-frame and the j-th frame (the predetermined number is 2) in X and / or Y may be exchanged, or All frames in X and / or Y (a predetermined number are all frames) are rearranged in reverse or other order and merged using the micro-Doppler images X'and Y after frame repositioning. By performing the processing, X + Y and / or Y + X may be acquired as reinforcement training data.

図8及び図9は、強化訓練データを示す図である。図8に示すように、p=2を例とし、X+Yについて、データの強化を行うときに、Xにおける全てのフレームを逆順に従って並べ替えた後にX’を取得し、そして、Yと併合する。図9に示すように、Xにおける第iフレームと第jフレームを交換した後に、Yと併合する。なお、1つのマイクロドップラー画像X又はYにおいて複数回の交換処理を行っても良いが、本実施例は、これに限られない。 8 and 9 are diagrams showing reinforcement training data. As shown in Figure 8, for X + Y, taking p = 2, when performing data enhancement, get X'after sorting all frames in X in reverse order and merge with Y. To do. As shown in FIG. 9, after exchanging the i-th frame and the j-th frame in X, they are merged with Y. It should be noted that one micro-Doppler image X or Y may be exchanged a plurality of times, but this embodiment is not limited to this.

或いは、該実施方式では、レーダーの数pが1よりも大きいときに、p個のレーダーに対応するマイクロドップラー画像における所定数のフレームの位置を所定ルールに従って交換しても良い。例えば、p=2のときに、1回のテストに係る取得により、2つのマイクロドップラー画像X、Yを取得し、Xにおける所定数のフレームの位置とYにおける所定数のフレームの位置を所定ルールに従って交換しても良く、例えば、Xにおける第iフレーム及び第i+1フレームとYにおける第jフレーム及び第j+1フレーム(所定数が2である)を交換し、そして、フレーム位置交換後のマイクロドップラー画像X及びYを用いて併合処理を行うことで、X+Y及び/又はY+Xを強化訓練データとして取得しても良い。 Alternatively, in the embodiment, when the number p of radars is greater than 1, the positions of a predetermined number of frames in the micro-Doppler image corresponding to the p radars may be exchanged according to a predetermined rule. For example, when p = 2, two micro-Doppler images X and Y are acquired by acquisition related to one test, and a predetermined number of frame positions in X and a predetermined number of frame positions in Y are set as a predetermined rule. For example, the i-frame and the i + 1 frame in X and the j-frame and the j + 1-th frame in Y (the predetermined number is 2) are exchanged according to, and after the frame position exchange. X + Y and / or Y + X may be acquired as reinforcement training data by performing the merging process using the micro Doppler images X and Y of.

以上、p=1、2であり、所定数が2であり、及び所定数が全てのフレームであるケースを例として該第三強化訓練データ取得ユニット503について説明したが、本実施例は、これに限定されない。 The third reinforcement training data acquisition unit 503 has been described above by taking as an example a case where p = 1 and 2, the predetermined number is 2, and the predetermined number is all frames. However, this embodiment describes this. Not limited to.

本実施例では、該第三強化訓練データ取得ユニット503は、さらに、第二閾値以上の信号強度値の所在する、位置の交換を行うフレームに対応する径方向速度を、それと交換する対象フレームに対応する径方向速度と一致するように変更(修正)する。図9に示すように、交換を行う第iフレーム及び第jフレームについて、第iフレームの信号強度値が第二閾値以上であり、交換後に、第iフレームの径方向速度を、第jフレームと交換する前に対応する径方向速度と一致するように修正する必要がある。オプションとして、交換後の第jフレーム(信号強度値が第二閾値よりも小さい)に対して速度の修正を行っても良い。 In the present embodiment, the third strengthening training data acquisition unit 503 further sets the radial velocity corresponding to the frame for exchanging the position where the signal strength value equal to or higher than the second threshold value is located to the target frame for exchanging the radial velocity. Change (correct) to match the corresponding radial velocity. As shown in FIG. 9, for the i-frame and the j-frame to be exchanged, the signal strength value of the i-frame is equal to or higher than the second threshold value, and after the exchange, the radial velocity of the i-frame is set to the j-frame. It must be modified to match the corresponding radial velocity before replacement. As an option, the speed may be corrected for the jth frame after replacement (the signal strength value is smaller than the second threshold value).

1つの実施方式では、1つ又は複数のマイクロドップラー画像における所定数のフレームに対して数量の変換を行うことでデータの強化を行うことができる。レーダーの数pが1以上であるときに、該強化訓練データ取得ユニット1012は、第四強化訓練データ取得ユニット(第四強化ユニットと略称する)504を含み、該強化訓練データ取得ユニット1012は、1つ又は少なくとも2つのレーダーについての第一マイクロドップラー画像における所定数のフレームを選択し、選択した該所定数のフレームをその所在する第一マイクロドップラー画像から除去し、そのうち、該所定数のフレームに対応する信号強度値が第三閾値以下であり、或いは、選択した該所定数のフレームをその所在する第一マイクロドップラー画像に重複插入し、そのうち、該所定数のフレームに対応する信号強度値が第四閾値以上である。そのうち、pが1よりも大きいときに、数量変換後に、複数のマイクロドップラー画像を併合することで、強化訓練データを得る必要がある。 In one embodiment, the data can be enhanced by converting the quantity of a predetermined number of frames in one or more micro-Doppler images. When the number p of the radar is 1 or more, the strengthening training data acquisition unit 1012 includes a fourth strengthening training data acquisition unit (abbreviated as a fourth strengthening unit) 504, and the strengthening training data acquisition unit 1012 is Select a predetermined number of frames in the first microdoppler image for one or at least two radars, remove the selected predetermined number of frames from the location of the first microdoppler image, of which the predetermined number of frames. The signal strength value corresponding to is equal to or less than the third threshold value, or the selected predetermined number of frames are duplicated in the first microdoppler image in which the frame is located, and the signal strength value corresponding to the predetermined number of frames is included. Is greater than or equal to the fourth threshold. Of these, when p is greater than 1, it is necessary to obtain reinforcement training data by merging multiple micro-Doppler images after quantity conversion.

例えば、p=1のときに、1回のテストに係る取得により、1つのマイクロドップラー画像Xを取得し、Xから所定数のフレームを選択しても良く、該所定数のフレームに対応する信号強度値が第三閾値以下であり、例えば、第iフレーム及び第jフレームであり、第iフレーム及び第jフレームをXから除去し、強化訓練データを取得しても良い。p=2のときに、1回のテストに係る取得により、2つのマイクロドップラー画像X、Yを取得し、X及び/又はYから所定数のフレームを選択しても良く、該所定数のフレームに対応する信号強度値が第三閾値以下であり、例えば、第iフレーム及び第jフレームであり、第iフレーム及び第jフレームをXから除去し、そして、フレーム除去後のマイクロドップラー画像X及びYを用いて併合処理を行うことで、X+Y及び/又はY+Xを強化訓練データとして取得しても良い。 For example, when p = 1, one microdoppler image X may be acquired by the acquisition related to one test, and a predetermined number of frames may be selected from X, and a signal corresponding to the predetermined number of frames may be selected. The intensity value is equal to or less than the third threshold value, for example, the i-th frame and the j-th frame, and the i-frame and the j-th frame may be removed from X to acquire reinforcement training data. When p = 2, two microdoppler images X and Y may be acquired by the acquisition related to one test, and a predetermined number of frames may be selected from X and / or Y, and the predetermined number of frames may be selected. The signal strength value corresponding to is less than or equal to the third threshold, for example, the i-frame and the j-th frame, the i-frame and the j-th frame are removed from X, and the microdoppler image X and the frame-removed microdoppler image X By performing the merge process using Y, X + Y and / or Y + X may be acquired as reinforcement training data.

例えば、p=1のときに、1回のテストに係る取得により、1つのマイクロドップラー画像Xを取得し、Xから所定数のフレームを選択しても良く、該所定数のフレームに対応する信号強度値が第四閾値以上であり、例えば、第iフレーム及び第jフレームであり、第iフレーム及び第jフレームをXに重複插入し、例えば、元の第iフレームの後に第iフレームを插入し、元の第jフレームの後に第jフレームを插入することで、強化訓練データを取得しても良い。p=2のときに、1回のテストに係る取得により、2つのマイクロドップラー画像X、Yを取得し、X及び/又はYから所定数のフレームを選択しても良く、該所定数のフレームに対応する信号強度値が第四閾値以上であり、例えば、第iフレーム及び第jフレームであり、第iフレーム及び第jフレームをXに重複插入し、例えば、元の第iフレームの後に第iフレームを插入、元の第jフレームの後に第jフレームを插入し、そして、フレーム挿入後のマイクロドップラー画像X及びYを用いて併合処理を行うことで、X+Y及び/又はY+Xを強化訓練データとして取得しても良い。以上、p=1、2であり、所定数が2であることを例として該第四強化訓練データ取得ユニット504について説明したが、本実施例は、これに限定されない。 For example, when p = 1, one microdoppler image X may be acquired by the acquisition related to one test, and a predetermined number of frames may be selected from X, and a signal corresponding to the predetermined number of frames may be selected. The intensity value is equal to or greater than the fourth threshold, for example, the i-frame and the j-frame, and the i-frame and the j-frame are duplicated in X, for example, the i-frame is inserted after the original i-frame. Then, the strengthening training data may be acquired by inserting the jth frame after the original jth frame. When p = 2, two microdoppler images X and Y may be acquired by the acquisition related to one test, and a predetermined number of frames may be selected from X and / or Y, and the predetermined number of frames may be selected. The signal strength value corresponding to is equal to or greater than the fourth threshold value, for example, the i-frame and the j-th frame, and the i-frame and the j-th frame are duplicated in X, for example, after the original i-frame. X + Y and / or Y + X by inserting the i-frame, inserting the j-frame after the original j-frame, and performing the merge process using the micro-Doppler images X and Y after inserting the frame. May be acquired as strengthening training data. The fourth reinforcement training data acquisition unit 504 has been described above by taking as an example that p = 1 and 2 and the predetermined number is 2, but the present embodiment is not limited to this.

本実施例では、フレーム除去又は插入後に、該第一マイクロドップラー画像のフレーム数(時間に対応する)が変化しているから、径方向速度も変化している。よって、該第四強化訓練データ取得ユニット504は、さらに、フレーム除去又は插入後の第一マイクロドップラー画像における各フレームに対応する径方向速度を修正するために用いられ、そのうち、フレーム除去時に、径方向速度を増加させ(これは、時間が短くなるため、速度が増大するに相当する)、フレーム插入時に、径方向速度を減少させる(これは、時間が長くなるため、速度が減少するに相当する)。増加又は減少の比は、除去又は插入されたフレームの数と関連がある。図10及び図11は、強化訓練データ及び速度修正を示す図である。図10に示すように、フレーム重複插入後に、径方向速度を減少させる必要があり、図11に示すように、フレーム除去後に、径方向速度を増加させる必要がある。 In this embodiment, since the number of frames (corresponding to time) of the first micro-Doppler image changes after the frame is removed or inserted, the radial velocity also changes. Therefore, the fourth reinforcement training data acquisition unit 504 is further used to correct the radial velocity corresponding to each frame in the first micro-Doppler image after frame removal or insertion, and the diameter at the time of frame removal. Increases directional velocity (which corresponds to increased velocity due to shorter time) and decreases radial velocity when the frame is inserted (this corresponds to decreased velocity due to longer time) To do). The ratio of increase or decrease is related to the number of frames removed or inserted. 10 and 11 are diagrams showing reinforcement training data and speed correction. As shown in FIG. 10, it is necessary to reduce the radial velocity after the overlapping insertion of frames, and as shown in FIG. 11, it is necessary to increase the radial velocity after removing the frame.

本実施例では、上述の第一強化訓練データ取得ユニット501、第二強化訓練データ取得ユニット502、第三強化訓練データ取得ユニット503、及び第四強化訓練データ取得ユニット504は、単独で実施しても良く、そのうちの2つ、3つ、又は4つを組み合わせて実施しても良いが、本実施例は、これに限られない。 In this embodiment, the above-mentioned first reinforcement training data acquisition unit 501, second reinforcement training data acquisition unit 502, third reinforcement training data acquisition unit 503, and fourth reinforcement training data acquisition unit 504 are carried out independently. It may be carried out in combination of two, three, or four of them, but this embodiment is not limited to this.

本実施例では、訓練速度を向上させるために、訓練データにおける無効な特徴を除去することができる。よって、該訓練データ取得ユニット101は、さらに、以下のものを含む。 In this embodiment, invalid features in the training data can be removed in order to improve the training speed. Therefore, the training data acquisition unit 101 further includes the following.

第一トリミングユニット(オプションであり、図示せず):オリジナル訓練データ及び強化訓練データに対してトリミングを行い、該訓練データにおける反射強度が弱い連続領域を除去し;又は
第一調整ユニット(オプションであり、図示せず):訓練データ画像のサイズを所定サイズに調整する。
First trimming unit (optional, not shown): Trimming the original training data and reinforcement training data to remove continuous regions with weak reflection intensity in the training data; or first adjustment unit (optional) Yes, not shown): Adjust the size of the training data image to a predetermined size.

図12は、訓練データに対してのトリミングを示す図である。図12に示すように、径方向速度がv1よりも大きく且つv2よりも小さい領域に対応する信号反射強度が弱く、この部分の領域を併合後のマイクロドップラー画像からトリミングして除去し、径方向速度がv2以上及びv1以下の領域を残しても良く、例えば、オプションとして、フレーム数がN1よりも大きい領域に対応する信号反射強度が弱く、フレーム数がN1よりも大きい領域をトリミングして除去しても良いが、本実施例は、これに限られない。 FIG. 12 is a diagram showing trimming for training data. As shown in FIG. 12, the signal reflection intensity corresponding to the region where the radial velocity is larger than v1 and smaller than v2 is weak, and this region is trimmed and removed from the merged microdoppler image to remove it in the radial direction. Regions with velocities greater than or equal to v2 and less than or equal to v1 may be left, for example, optionally trimming and removing regions with weaker signal reflection intensity and greater frames than N1 corresponding to regions with more frames than N1. However, this embodiment is not limited to this.

図13は、訓練データに対してのサイズ調整を示す図である。図13に示すように、トリミングを行った後に、各訓練データに対応する画像のサイズが不一致になる可能性があり、該画像のサイズを所定サイズM×Mに調整しても良く、Mは、マイクロドップラー画像における毎行/毎列に含まれる画素の数である(ズームすることにより)。 FIG. 13 is a diagram showing size adjustment for training data. As shown in FIG. 13, after trimming, the sizes of the images corresponding to each training data may be inconsistent, and the size of the images may be adjusted to a predetermined size M × M. , The number of pixels contained in each row / column in a micro-Doppler image (by zooming).

本実施例では、訓練データ取得ユニット101が訓練データを得た後に、訓練ユニット102は、訓練集合の中の訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを該畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、該畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得する。具体的な訓練プロセスについては、従来技術を参照することができるため、ここでは、その詳しい説明を省略する。 In this embodiment, after the training data acquisition unit 101 obtains the training data, the training unit 102 uses the training data in the training set as the input of the convolutional neural network and the corresponding label as the output of the convolutional neural network. , The convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is acquired. Since the prior art can be referred to for the specific training process, detailed description thereof will be omitted here.

本実施例では、畳み込みニューラルネットワークは、順に、第一畳み込み層、第一プーリング層、第二畳み込み層、第二プーリング層、第三畳み込み層、第三プーリング層、第四畳み込み層、第四プーリング層、第一全結合層、第二全結合層、及び第三全結合層を含み、そのうち、第一畳み込み層及び第四畳み込み層の畳み込みカーネルが5×5、第二畳み込み層及び第三畳み込み層の畳み込みカーネルが3×3であり、該第一プーリング層、第二プーリング層、第三プーリング層、及び第四プーリング層は、2×2最大プーリングであり、同じスライディングステップを有し、辺縁(エッジ)の充填がなく、該第一全結合層の出力は、1024個のユニットであり、該第二全結合層の出力は、10個のユニットであり、該第三全結合層の出力は、2個のユニットであり、活性化関数は、線形ランプ関数(ReLU)であり、該第三全結合層の分類アルゴリズムは、正規化指数関数softmaxである。なお、該畳み込みニューラルネットワークは、例示に過ぎず、本実施例は、これに限られない。例えば、該畳み込みニューラルネットワークは、順に、第一畳み込み層組(3×1サイズの畳み込みカーネル64個)、第一プーリング層、第二畳み込み層組(3×1サイズの畳み込みカーネル128個)、第二プーリング層、第三畳み込み層組(3×1サイズの畳み込みカーネル512個)、第三プーリング層、第四畳み込み層組(3×1サイズの畳み込みカーネル256個)、第四プーリング層、第五畳み込み層組(3×1サイズの畳み込みカーネル256個)、第五プーリング層、第一全結合層、第二全結合層、及び第三全結合層を含んでも良く、そのうち、該第一/第二全結合層の出力は、4096次元であり、該第三全結合層の出力は、2個のユニットであり、活性化関数は、線形ランプ関数(ReLU)であり、該第三全結合層の分類アルゴリズムは、正規化指数関数softmaxであり、各畳み込み層組は、連続した2つの畳み込み層を含む。 In this embodiment, the convolutional neural networks are, in order, a first convolutional layer, a first pooling layer, a second convolutional layer, a second pooling layer, a third convolutional layer, a third pooling layer, a fourth convolutional layer, and a fourth convolutional layer. Includes layers, first fully connected layers, second fully connected layers, and third fully connected layers, of which the convolutional kernels of the first and fourth convolutional layers are 5x5, the second and third convolutional layers. The layer convolutional kernel is 3x3, and the first pooling layer, the second pooling layer, the third pooling layer, and the fourth pooling layer are 2x2 maximum pooling, have the same sliding steps, and have sides. With no edge filling, the output of the first fully connected layer is 1024 units and the output of the second fully connected layer is 10 units of the third fully connected layer. The output is two units, the activation function is a linear ramp function (ReLU), and the classification algorithm for the third fully connected layer is the normalization exponential function softmax. The convolutional neural network is merely an example, and the present embodiment is not limited to this. For example, the convolutional neural network has, in order, a first convolutional layer (64 3x1 size convolutional kernels), a first pooling layer, a second convolutional layer (128 3x1 size convolutional kernels), and a first. 2 pooling layer, 3rd convolutional layer (512 3x1 size convolutional kernels), 3rd pooling layer, 4th convolutional layer (256 3x1 size convolutional kernels), 4th pooling layer, 5th It may include a convolutional layer (256 convolutional kernels of 3x1 size), a fifth pooling layer, a first fully connected layer, a second fully connected layer, and a third fully connected layer, of which the first / first The output of the two fully connected layers is 4096 dimensions, the output of the third fully connected layer is two units, the activation function is a linear ramp function (ReLU), and the third fully connected layer. The classification algorithm of is the normalization exponential function softmax, and each convolutional layer contains two consecutive convolutional layers.

本実施例では、該訓練後の畳み込みニューラルネットワークを得た後に、実際の物品の検出を開始しても良く、該p個のレーダーは、ヒト(検出待ち物品を持つ)に信号を送信し、そして、検出待ち物品(ヒトが持つ)により反射された後のテストエコー信号を受信し、テストデータ取得ユニット103は、該少なくとも1つのレーダーのテストエコー信号に基づいて、各レーダーに対応するマイクロドップラー画像を取得する。なお、テストエコー信号に基づいてマイクロドップラー画像を取得する具体的な方法については、前述の訓練エコー信号に基づいてマイクロドップラー画像を得る方法と同じであるため、ここでは、その詳しい説明を省略する。 In this embodiment, the detection of the actual article may be started after obtaining the convolutional neural network after the training, and the p radars send a signal to a human (having an article waiting to be detected). Then, the test echo signal after being reflected by the object waiting to be detected (held by a human) is received, and the test data acquisition unit 103 receives the test echo signal of the at least one radar, and the microdoppler corresponding to each radar is used. Get an image. Since the specific method for acquiring a micro Doppler image based on the test echo signal is the same as the method for obtaining a micro Doppler image based on the training echo signal described above, detailed description thereof will be omitted here. ..

本実施例では、処理ユニット104は、該テストデータに含まれる該少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、レーダーの数が1であるときに、処理ユニット104は、該1つのレーダーがテストエコー信号に基づいて取得した1つのマイクロドップラー画像をテストデータとして処理を行い、検出結果を確定し、レーダーの数が1よりも大きいときに、図14は、該処理ユニット104の構成図であり、図14に示すように、該処理ユニット104は、以下のものを含む。 In this embodiment, the processing unit 104 processes the micro-Doppler image of the at least one radar included in the test data, and when the number of radars is 1, the processing unit 104 is the one. When one micro-Doppler image acquired by the radar based on the test echo signal is processed as test data, the detection result is confirmed, and the number of radars is larger than 1, FIG. 14 shows the configuration of the processing unit 104. FIG. 14 and, as shown in FIG. 14, the processing unit 104 includes:

第一併合ユニット1401:該テストデータに含まれる該少なくとも2つのレーダーのマイクロドップラー画像を1つの画像に併合する。なお、このような画像の併合は、左右方向の併合であっても良く、上下方向の併合であっても良いが、その併合の方法は、訓練データの併合の方法と一致する必要がある。 First Merge Unit 1401: Merges the micro-Doppler images of at least two radars contained in the test data into one image. It should be noted that such merging of images may be merging in the left-right direction or merging in the vertical direction, but the method of merging must be the same as the method of merging training data.

第二トリミングユニット1402(オプション):該1つの画像に対してトリミングを行い、該1つの画像における反射強度が弱い連続領域を除去する。その具体的な実施方式については、第一トリミングユニットを参照することができるため、ここでは、その詳しい説明を省略する。 Second trimming unit 1402 (optional): Trimming is performed on the one image, and a continuous region having a weak reflection intensity in the one image is removed. Since the first trimming unit can be referred to for the specific implementation method, detailed description thereof will be omitted here.

第二調整ユニット1403(オプション):テストデータ画像のサイズを所定サイズに調整する。その具体的な実施方式については、第一調整ユニットを参照することができるため、ここでは、その詳しい説明を省略する。 Second adjustment unit 1403 (optional): Adjusts the size of the test data image to a predetermined size. Since the first adjustment unit can be referred to for the specific implementation method, detailed description thereof will be omitted here.

該処理ユニット104は、処理後の画像を該訓練後の畳み込みニューラルネットワークに入力し、出力の結果が危険又は安全であり、これにより、該検出待ち物品の検出結果を得ることができる。 The processing unit 104 inputs the processed image to the convolutional neural network after the training, and the output result is dangerous or safe, whereby the detection result of the waiting article can be obtained.

本実施例における上述の装置により、1つ又は複数のレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に対してフレームの位置又は数量の変換を行い、或いは、複数の種類の順序に従って併合を行い、訓練データの強化を実現することにより、ディープラーニングにおけるオーバーフィットの問題を解決することができる。
With the above-mentioned device in this embodiment, one or more radars perform frame position or quantity conversion on the micro Doppler image acquired based on the training echo signal, or merge according to a plurality of types of sequences. By doing so and enhancing training data, the problem of overfitting in deep learning can be solved.

本実施例2は、物品検出装置を提供する。図15は、本発明の実施例による物品検出装置のハードウェア構成図である。図15に示すように、装置1500は、1つのインターフェース(図示せず)、中央処理装置(CPU)1520、及び記憶器1510を含んでも良く、記憶器1510は、中央処理装置1520に接続される。そのうち、記憶器1510は、各種のデータを記憶することができ、さらに物品検出用のプログラムを記憶することもでき、且つ中央処理装置1520の制御下で該プログラムを実行し、各種の所定の値、所定の条件などを記憶することができる。該物品検出装置1500は、少なくとも2つのレーダーに接続され、訓練エコー信号及びテストエコー信号などを得て後続の処理を行うために用いられる。 The second embodiment provides an article detection device. FIG. 15 is a hardware configuration diagram of the article detection device according to the embodiment of the present invention. As shown in FIG. 15, device 1500 may include one interface (not shown), central processing unit (CPU) 1520, and storage 1510, which is connected to central processing unit 1520. .. Among them, the storage device 1510 can store various data, can also store a program for detecting an article, and executes the program under the control of the central processing unit 1520 to execute various predetermined values. , Predetermined conditions and the like can be stored. The article detection device 1500 is connected to at least two radars and is used to obtain a training echo signal, a test echo signal, and the like for subsequent processing.

1つの実施方式では、物品検出装置の機能が中央処理装置1520に統合されても良い。そのうち、中央処理装置1520は、次のように構成されても良く、即ち、訓練データを取得し、該訓練データは、オリジナル訓練データ及び強化訓練データを含み、各訓練データには、危険又は安全という内容のラベルが付けられており;該訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを該畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、該畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得し;検出待ち物品のテストデータを取得し、該テストデータは、該少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、該テストエコー信号は、レーダーの送信信号が検出待ち物品により反射された後の信号であり;及び、該テストデータに含まれる該少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の畳み込みニューラルネットワークに入力し、該検出待ち物品の検出結果を確定する。 In one embodiment, the functionality of the article detector may be integrated into the central processing unit 1520. Among them, the central processing apparatus 1520 may be configured as follows, that is, it acquires training data, the training data includes original training data and reinforcement training data, and each training data is dangerous or safe. The training data is used as the input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, and the convolutional neural network is trained by a predetermined algorithm. Obtain a post-training convolutional neural network; obtain test data for an article awaiting detection, the test data containing a microdoppler image acquired by the at least one radar based on the test echo signal, the test echo signal , The signal transmitted by the radar after being reflected by the object awaiting detection; and after processing the microdoppler image of at least one radar contained in the test data and training the processed image. Input to the convolutional neural network of, and determine the detection result of the article waiting to be detected.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、該オリジナル訓練データを生成し、そのうち、該訓練エコー信号は、該レーダーの送信信号が既知物品により反射された後の信号であり;及び、取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行うことで、該強化訓練データを取得する。 In one embodiment, the central processor 1520 may further be configured as follows, i.e., based on the microdoppler image acquired by at least one radar based on the training echo signal, the original training data. The training echo signal is the signal after the radar transmission signal has been reflected by a known article; and the position and / / for a predetermined number of frames in each acquired microdoppler image. Or a quantity conversion and / or a predetermined number of frames exchanged between multiple microdoppler images for each radar obtained by one or more acquisitions and / or acquired. The reinforcement training data is acquired by merging a plurality of microdoppler images for each radar according to the first order.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、レーダーの数が1よりも大きいときに、複数回の取得のうち毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像を第二順序に従って併合し、併合により得られた1つの画像を1つのオリジナル訓練データとすることで、複数のオリジナル訓練データを取得し;及び、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像を該第二順序に従って併合し、毎回の併合により得られた1つの画像を1つの強化訓練データとすることで、複数の強化訓練データを取得する。 In one embodiment, the central processor 1520 may further be configured as follows, i.e., when the number of radars is greater than 1, at least two radars acquired each time out of multiple acquisitions. Multiple original training data were acquired by merging the corresponding microdoppler images according to the second order and using one image obtained by the merging as one original training data; and at least two acquired each time. A plurality of reinforcement training data are acquired by merging the micro-Doppler images corresponding to the radar according to the second order and using one image obtained by each merging as one reinforcement training data.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、1回取得したオリジナル訓練データ及び/又は強化訓練データについて、他の回で取得した1つのレーダーについての第二マイクロドップラー画像により該オリジナル訓練データ及び/又は強化訓練データにおける該1つのレーダー又は他のレーダーについての第一マイクロドップラー画像を置換する。 In one embodiment, the central processor 1520 may be further configured as follows: one radar acquired at one time and / or enhanced training data acquired at another time. The second micro-Doppler image for is replaced with the first micro-Doppler image for the one radar or the other radar in the original training data and / or the enhanced training data.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、1つ又は少なくとも2つのレーダーについてのマイクロドップラー画像における所定数のフレームの位置を所定ルールに従って交換し、第二閾値以上の信号強度値の所在する、位置の交換を行うフレームに対応する径方向速度を、それと交換する対象フレームに対応する径方向速度と一致するように修正する。 In one embodiment, the central processor 1520 may further be configured as follows, i.e., swapping the positions of a predetermined number of frames in a microDoppler image for one or at least two radars according to a predetermined rule. Then, the radial speed corresponding to the frame for which the position is exchanged, where the signal strength value equal to or higher than the second threshold value is located, is corrected so as to match the radial speed corresponding to the target frame to be exchanged with the frame.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、1つ又は少なくとも2つのレーダーについての第一マイクロドップラー画像における所定数のフレームを選択し、選択した該所定数のフレームをその所在する第一マイクロドップラー画像から除去し、そのうち、該所定数のフレームに対応する信号強度値が第三閾値以下であり、或いは、選択した該所定数のフレームをその所在する第一マイクロドップラー画像に重複插入し、そのうち、該所定数のフレームに対応する信号強度値が第四閾値以上である。 In one embodiment, the central processor 1520 may further be configured as follows, i.e., select and select a predetermined number of frames in the first microDoppler image for one or at least two radars. The predetermined number of frames are removed from the first micro-Doppler image in which the predetermined number of frames are located, and the signal strength value corresponding to the predetermined number of frames is equal to or less than the third threshold value, or the selected predetermined number of frames are selected. The first micro-Doppler image in which the image is located is duplicated, and the signal strength value corresponding to the predetermined number of frames is equal to or higher than the fourth threshold value.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、フレーム除去又は插入後の第一マイクロドップラー画像における各フレームに対応する径方向速度を修正し、そのうち、フレーム除去時に、径方向速度を増加させ、フレーム插入時に、径方向速度を減少させる。 In one embodiment, the central processing apparatus 1520 may further be configured as follows, i.e., modifying the radial speed corresponding to each frame in the first microDoppler image after frame removal or insertion. Among them, the radial velocity is increased when the frame is removed, and the radial velocity is decreased when the frame is inserted.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、オリジナル訓練データ及び強化訓練データに対してトリミングを行い、該訓練データにおける反射強度が弱い連続領域を除去し、或いは、訓練データ画像のサイズを所定サイズに調整する。 In one embodiment, the central processing apparatus 1520 may be further configured as follows, i.e., a continuous region in which the original training data and the strengthening training data are trimmed and the reflection intensity in the training data is weak. Or adjust the size of the training data image to a predetermined size.

1つの実施方式では、中央処理装置1520は、さらに、次のように構成されても良く、即ち、レーダーの数が1よりも大きいときに、該テストデータに含まれる該少なくとも2つのレーダーのマイクロドップラー画像を1つの画像として併合し、該1つの画像に対してトリミングを行い、該1つの画像における反射強度が弱い連続領域を除去し、或いは、オプションとして、さらに、テストデータ画像のサイズを所定サイズに調整する。 In one embodiment, the central processor 1520 may be further configured as follows, i.e., when the number of radars is greater than 1, the micro of at least two radars included in the test data. The Doppler images are merged as one image, the one image is trimmed to remove continuous regions with weak reflection intensity in the one image, or, optionally, the size of the test data image is determined. Adjust to size.

なお、中央処理装置1520の具体的な実施方式については、実施例1を参照することができるため、ここでは、その詳しい説明を省略する。 Since the first embodiment can be referred to for a specific implementation method of the central processing unit 1520, detailed description thereof will be omitted here.

他の実施方式では、上述の物品検出装置を中央処理装置1520と接続されるチップ(図示せず)に構成し、中央処理装置1520の制御により、物品検出装置の機能を実現しても良い。 In another embodiment, the above-mentioned article detection device may be configured as a chip (not shown) connected to the central processing unit 1520, and the function of the article detection device may be realized by controlling the central processing unit 1520.

なお、物品検出装置1500は、図15に示す全ての部品を含む必要がない。また、該物品検出装置1500は、さらに、図15に示さない部品を含んでも良く、これについては、従来技術を参照することができる。 The article detection device 1500 does not need to include all the parts shown in FIG. In addition, the article detection device 1500 may further include parts not shown in FIG. 15, for which prior art can be referred to.

本実施例の上述の物品検出装置により、1つ又は複数のレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に対してフレームの位置又は数量の変換を行い、或いは、複数の種類の順序に従って併合を行い、訓練データの強化を実現することにより、ディープラーニングにおけるオーバーフィットの問題を解決することができる。
The above-mentioned article detector of this embodiment transforms the position or quantity of frames on a micro-Doppler image acquired by one or more radars based on a training echo signal, or according to a plurality of types of sequences. By merging and strengthening training data, the problem of overfitting in deep learning can be solved.

本発明の実施例3は、物品検出方法を提供する。該方法が問題を解決する原理が実施例1の装置と同様であるため、その具体的な実施は、実施例1の装置の実施を参照することができ、ここでは、内容が同じである重複説明が省略される。 Example 3 of the present invention provides a method for detecting an article. Since the principle of the method to solve the problem is the same as that of the device of the first embodiment, the specific implementation thereof can be referred to the practice of the device of the first embodiment, where the same content is duplicated. The explanation is omitted.

図16は、本実施例における物品検出方法の1つの実施方式のフローチャートである。図16に示すように、該方法は、以下のステップを含む。 FIG. 16 is a flowchart of one embodiment of the article detection method in this embodiment. As shown in FIG. 16, the method includes the following steps.

ステップ1601:訓練データを取得し、該訓練データは、オリジナル訓練データ及び強化訓練データを含み、各訓練データには、危険又は安全という内容のラベルが付けられており;
ステップ1602:該訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを該畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、該畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得し;
ステップ1603:検出待ち物品のテストデータを取得し、該テストデータは、該少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、そのうち、該テストエコー信号は、レーダーの送信信号が検出待ち物品により反射された後の信号であり;
ステップ1604:該テストデータに含まれる該少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の該畳み込みニューラルネットワークに入力し、該検出待ち物品の検出結果を確定する。
Step 1601: Acquire training data, which includes original training data and intensive training data, and each training data is labeled as dangerous or safe;
Step 1602: The training data is used as the input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, the convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is obtained. Acquired;
Step 1603: Acquire test data of an article awaiting detection, the test data including a microdoppler image acquired by the at least one radar based on a test echo signal, of which the test echo signal is a radar transmission signal. Is the signal after being reflected by the object awaiting detection;
Step 1604: Processing is performed on the micro-Doppler image of the at least one radar included in the test data, the processed image is input to the convolutional neural network after training, and the detection result of the waiting article is determined. To do.

本実施例では、ステップ1601は、少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて該オリジナル訓練データを生成し、そのうち、該訓練エコー信号は、該レーダーの送信信号が既知物品により反射された後の信号であり;及び、取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行うことで、該強化訓練データを取得することを含む。 In this embodiment, step 1601 generates the original training data based on a micro-Doppler image acquired by at least one radar based on the training echo signal, of which the training echo signal is a transmission signal of the radar. A signal after being reflected by a known article; and performing position and / or quantity conversion for a given number of frames in each acquired micro-Doppler image and / or one or more acquisitions. Swap a predetermined number of frames between multiple microdoppler images for each radar obtained by, and / or merge multiple microdoppler images for each acquired radar in a first order. By doing so, it includes acquiring the strengthening training data.

本実施例では、ステップ1601〜ステップ1604の具体的な実施方式については、実施例1における訓練データ取得ユニット101、訓練ユニット102、テストデータ取得ユニット103、及び処理ユニット104を参照することができ、その内容がここに併合され、ここでは、重複説明を省略する。 In this embodiment, the training data acquisition unit 101, the training unit 102, the test data acquisition unit 103, and the processing unit 104 in the first embodiment can be referred to for the specific implementation methods of steps 1601 to 1604. The contents are merged here, and duplicate description is omitted here.

本実施例では、ステップ1601の1つの実施方式では、レーダーの数が1よりも大きいときに、複数回の取得のうち、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して第二順序に従って併合を行い、併合により得られた1つの画像を1つのオリジナル訓練データとすることで、複数のオリジナル訓練データを取得し;及び、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して該第二順序に従って併合を行い、毎回の併合により得られた1つの画像を1つの強化訓練データとすることで、複数の強化訓練データを取得する。 In this embodiment, in one embodiment of step 1601, when the number of radars is greater than 1, the second of the multiple acquisitions is for the microdoppler image corresponding to at least two radars acquired each time. Multiple original training data are acquired by merging in order and using one image obtained by the merging as one original training data; and a microdoppler image corresponding to at least two radars acquired each time. On the other hand, a plurality of reinforcement training data are acquired by performing merging according to the second order and using one image obtained by each merging as one reinforcement training data.

本実施例では、ステップ1601の1つの実施方式では、1回取得したオリジナル訓練データ及び/又は強化訓練データについて、他の回で取得した1つのレーダーについての第二マイクロドップラー画像により該オリジナル訓練データ及び/又は強化訓練データにおける該1つのレーダー又は他のレーダーについての第一マイクロドップラー画像を置換する。 In this embodiment, in one embodiment of step 1601, the original training data and / or the strengthening training data acquired once is based on the second micro-Doppler image of one radar acquired in the other times. And / or replace the first micro-Doppler image for that one radar or other radar in the training data.

本実施例では、ステップ1601の1つの実施方式では、1つ又は少なくとも2つのレーダーについてのマイクロドップラー画像における所定数のフレームの位置を所定ルールに従って交換する。オプションとして、第二閾値以上の信号強度値の所在する、位置の交換を行うフレームに対応する径方向速度を、それと交換する対象フレームに対応する径方向速度と一致するように修正する。 In this embodiment, in one embodiment of step 1601, the positions of a predetermined number of frames in a microDoppler image for one or at least two radars are exchanged according to a predetermined rule. As an option, the radial speed corresponding to the frame for which the position is exchanged, where the signal strength value equal to or higher than the second threshold value is located, is modified so as to match the radial speed corresponding to the target frame to be exchanged with it.

本実施例では、ステップ1601の1つの実施方式では、1つ又は少なくとも2つのレーダーについての第一マイクロドップラー画像における所定数のフレームを選択し、選択した所定数のフレームをその所在する第一マイクロドップラー画像から除去し、そのうち、前記所定数のフレームに対応する信号強度値が第三閾値以下であり、或いは、選択した所定数のフレームをその所在する第一マイクロドップラー画像に重複插入し、そのうち、前記所定数のフレームに対応する信号強度値が第四閾値以上であり、オプションとして、フレーム除去又は插入後の第一マイクロドップラー画像における各フレームに対応する径方向速度を修正し、そのうち、フレーム除去時に、径方向速度を増加させ、フレーム插入時に、径方向速度を減少させる。 In this embodiment, in one embodiment of step 1601, a predetermined number of frames in the first micro Doppler image for one or at least two radars are selected and the selected predetermined number of frames are located in the first micro. It is removed from the Doppler image, and the signal strength value corresponding to the predetermined number of frames is equal to or less than the third threshold value, or the selected predetermined number of frames are duplicated in the first micro Doppler image in which the predetermined number of frames are located. , The signal strength value corresponding to the predetermined number of frames is equal to or higher than the fourth threshold value, and optionally, the radial velocity corresponding to each frame in the first micro-Doppler image after frame removal or insertion is modified, among which frames. At the time of removal, the radial velocity is increased, and at the time of frame insertion, the radial velocity is decreased.

本実施例では、ステップ1604において、レーダーの数が1よりも大きいときに、該テストデータに含まれる該少なくとも2つのレーダーのマイクロドップラー画像に対して処理を行うことは、該テストデータに含まれる該少なくとも2つのレーダーのマイクロドップラー画像を1つの画像として併合し;及び、該1つの画像に対してトリミングを行い、該1つの画像における反射強度が弱い連続領域を除去することを含み、オプションとして、テストデータ画像のサイズを所定サイズに調整することをさらに含む。 In this embodiment, in step 1604, when the number of radars is greater than 1, processing the microdoppler images of at least two radars included in the test data is included in the test data. The microdoppler images of at least two radars are merged into one image; and optionally trimming is performed on the one image to remove continuous regions with low reflection intensity in the one image. It further includes adjusting the size of the test data image to a predetermined size.

図17は、本実施例に係る物品の検出を示す図である。図17に示すように、少なくとも1つのレーダー(2つのみが示されている)が歩行中のヒト(検出待ち物品を持つ)に信号を送信し、そして、反射後のエコー信号を受信し、2つのレーダーに対応するマイクロドップラー画像をそれぞれ取得し、該2つのマイクロドップラー画像に対して併合を行い、そして、トリミング及びサイズ調整の後の画像を訓練後の畳み込みニューラルネットワークに入力し、これにより、検出結果として危険又は安全を得ることができる。 FIG. 17 is a diagram showing detection of an article according to this embodiment. As shown in FIG. 17, at least one radar (only two are shown) sends a signal to a walking human (with an article awaiting detection) and receives a reflected echo signal. The micro-Doppler images corresponding to the two radars are acquired respectively, the two micro-Doppler images are merged, and the image after trimming and sizing is input to the trained convolutional neural network. , Danger or safety can be obtained as a detection result.

本実施例に係る上述の方法により、1つ又は複数のレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に対してフレームの位置又は数量の変換を行い、或いは、複数の種類の順序に従って併合を行い、訓練データの強化を実現することにより、ディープラーニングにおけるオーバーフィットの問題を解決することができる。 According to the method described above according to this embodiment, one or more radars perform frame position or quantity conversion on the micro Doppler image acquired based on the training echo signal, or merge according to a plurality of types of orders. By doing this and realizing the enhancement of training data, the problem of overfitting in deep learning can be solved.

本発明の実施例では、さらに、コンピュータ可読プログラムが提供され、そのうち、物品検出装置中で該プログラムを実行するときに、該プログラムは、コンピュータに、該物品検出装置中で上述の実施例3における物品検出方法を実行させる。 In the examples of the present invention, a computer-readable program is further provided, of which, when the program is executed in the article detection device, the program is sent to the computer in the article detection device according to the above-described third embodiment. Execute the article detection method.

本発明の実施例では、さらに、コンピュータ可読プログラムを記憶した記憶媒体が提供され、そのうち、該コンピュータ可読プログラムは、コンピュータに、物品検出装置中で上述の実施例3における物品検出方法を実行させる。 In an embodiment of the present invention, a storage medium storing a computer-readable program is further provided, in which the computer-readable program causes a computer to execute the article detection method according to the above-described third embodiment in an article detection device.

本発明の実施例で説明した前記方法、装置などは、ハードウェア、処理器により実行されるソフトウェアモジュール、又は両者の組み合わせにより実現することができる。例えば、図1、5、14、15に示す機能ブロック図における1つ又は複数の機能及びび/又は機能ブロック図における1つ又は複数の機能の組み合わせは、コンピュータプログラムにおける各ソフトウェアモジュールに対応しても良く、各ハードウェアモジュールに対応しても良い。また、これらのソフトウェアモジュールは、それぞれ、図16に示す各ステップに対応することができる。これらのハードウェアモジュールは、例えば、FPGA(field-programmable gate array)を用いてこれらのソフトウェアモジュールを固化して実現することができる。 The methods, devices, and the like described in the examples of the present invention can be realized by hardware, software modules executed by a processor, or a combination of both. For example, one or more functions in the functional block diagram shown in FIGS. 1, 5, 14, and 15 and / or a combination of one or more functions in the functional block diagram correspond to each software module in the computer program. It may be compatible with each hardware module. In addition, each of these software modules can correspond to each step shown in FIG. These hardware modules can be realized by solidifying these software modules using, for example, FPGA (field-programmable gate array).

また、本発明の実施例による装置、方法などは、ソフトウェアにより実現されても良く、ハードェアにより実現されてもよく、ハードェア及びびソフトウェアの組み合わせにより実現されても良い。本発明は、このようなコンピュータ可読プログラムにも関し、即ち、前記プログラムは、ロジック部品により実行される時に、前記ロジック部品に、上述の装置又は構成要素を実現させることができ、又は、前記ロジック部品に、上述の方法又はそのステップを実現させることができる。さらに、本発明は、上述のプログラムを記憶した記憶媒体、例えば、ハードディスク、磁気ディスク、光ディスク、DVD、フレッシュメモリなどにも関する。 Further, the apparatus, method, etc. according to the embodiment of the present invention may be realized by software, may be realized by hardware, or may be realized by a combination of hardware and software. The present invention also relates to such a computer-readable program, i.e., when the program is executed by a logic component, the logic component can realize the above-mentioned device or component, or the above-mentioned logic. The component can implement the method described above or a step thereof. Furthermore, the present invention also relates to a storage medium that stores the above-mentioned program, such as a hard disk, a magnetic disk, an optical disk, a DVD, or a fresh memory.

また、上述の実施例などに関し、さらに以下のような付記を開示する。 In addition, the following additional notes will be further disclosed with respect to the above-mentioned examples and the like.

(付記1)
物品を検出する装置であって、
訓練データ取得ユニットであって、訓練データを取得し、前記訓練データはオリジナル訓練データ及び強化訓練データを含み、各訓練データには危険又は安全という内容のラベルが付けられているもの;
訓練ユニットであって、前記訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを前記畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、前記畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得するもの;
テストデータ取得ユニットであって、検出待ち物品のテストデータを取得し、前記テストデータは少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、前記テストエコー信号はレーダーの送信信号が検出待ち物品により反射された後の信号であるもの;及び
処理ユニットであって、前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の畳み込みニューラルネットワークに入力し、前記検出待ち物品の検出結果を確定するものを含み、
前記訓練データ取得ユニットは、
オリジナル訓練データ生成ユニットであって、前記少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、前記オリジナル訓練データを生成し、前記訓練エコー信号は前記レーダーの送信信号が既知物品により反射された後の信号であるもの;及び
強化訓練データ取得ユニットであって、取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行うことで、前記強化訓練データを取得するものを含む、装置。
(Appendix 1)
A device that detects articles
A training data acquisition unit that acquires training data, the training data including original training data and reinforcement training data, and each training data is labeled as dangerous or safe;
In the training unit, the training data is used as an input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, training is performed on the convolutional neural network by a predetermined algorithm, and the convolution after training is performed. What gets a neural network;
A test data acquisition unit that acquires test data of an article awaiting detection, said test data including a microdoppler image acquired by at least one radar based on a test echo signal, the test echo signal being a radar transmission signal. Is the signal after being reflected by the article awaiting detection; and the processing unit that processes the microdoppler image of at least one radar included in the test data and trains the processed image. Includes those that are input to a later convolutional neural network to determine the detection result of the awaiting article.
The training data acquisition unit
An original training data generation unit that generates the original training data based on a microdoppler image acquired by the at least one radar based on the training echo signal, and the training echo signal is known as a transmission signal of the radar. What is the signal after being reflected by the article; and the reinforcement training data acquisition unit that performs position and / or quantity conversion and / or quantity for a given number of frames in each acquired microdoppler image. A predetermined number of frames are exchanged between multiple microdoppler images for each radar obtained by one or more acquisitions, and / or for multiple microdoppler images for each acquired radar. A device that acquires the strengthening training data by performing merging according to the first order.

(付記2)
付記1に記載の装置であって、
レーダーの数が1よりも大きいときに、
前記オリジナル訓練データ生成ユニットは、複数回のうち、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して第二順序に従って併合を行い、併合により得られた1つの画像を1つのオリジナル訓練データとすることで、複数のオリジナル訓練データを取得し;及び/又は
前記強化訓練データ取得ユニットは、第一強化訓練データ取得ユニットを含み、
前記第一強化訓練データ取得ユニットは、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して前記第一順序に従って併合を行い、毎回の併合により得られた1つの画像を1つの強化訓練データとすることで、複数の強化訓練データを取得する、装置。
(Appendix 2)
The device described in Appendix 1
When the number of radars is greater than one
The original training data generation unit merges the micro-Doppler images corresponding to at least two radars acquired each time in a plurality of times according to the second order, and one image obtained by the merge is subjected to one original training. By making the data, a plurality of original training data are acquired; and / or the reinforcement training data acquisition unit includes the first reinforcement training data acquisition unit.
The first reinforcement training data acquisition unit merges the micro Doppler images corresponding to at least two radars acquired each time according to the first order, and one image obtained by each merge is subjected to one reinforcement training. A device that acquires multiple reinforcement training data by using it as data.

(付記3)
付記1又は2に記載の装置であって、
前記強化訓練データ取得ユニットは、第二強化訓練データ取得ユニットをさらに含み、
前記第二強化訓練データ取得ユニットは、1回取得したオリジナル訓練データ及び/又は強化訓練データについて、他の回で取得した1つのレーダーについての第二マイクロドップラー画像により、前記オリジナル訓練データ及び/又は強化訓練データにおける前記1つのレーダー又は他のレーダーについての第一マイクロドップラー画像を置換する、装置。
(Appendix 3)
The device according to Appendix 1 or 2.
The reinforcement training data acquisition unit further includes a second reinforcement training data acquisition unit.
The second strengthening training data acquisition unit uses the original training data and / or the strengthening training data acquired once with the second microdoppler image of one radar acquired at another time. A device that replaces the first microdoppler image for the one radar or the other radar in the training data.

(付記4)
付記1又は2に記載の装置であって、
前記強化訓練データ取得ユニットは、第三強化訓練データ取得ユニットをさらに含み、
前記第三強化訓練データ取得ユニットは、1つ又は少なくとも2つのレーダーについてのマイクロドップラー画像における所定数のフレームの位置を所定ルールに従って交換する、装置。
(Appendix 4)
The device according to Appendix 1 or 2.
The reinforcement training data acquisition unit further includes a third reinforcement training data acquisition unit.
The third reinforcement training data acquisition unit is a device that exchanges the positions of a predetermined number of frames in a micro Doppler image for one or at least two radars according to a predetermined rule.

(付記5)
付記4に記載の装置であって、
前記第三強化訓練データ取得ユニットは、さらに、第二閾値以上の信号強度値の所在する、位置の交換を行うフレームに対応する径方向速度を、それと交換する対象フレームに対応する径方向速度と一致するように修正する、装置。
(Appendix 5)
The device described in Appendix 4,
The third reinforcement training data acquisition unit further sets the radial speed corresponding to the frame for exchanging the position where the signal strength value equal to or higher than the second threshold value is located, and the radial speed corresponding to the target frame to be exchanged with the radial speed. A device that corrects to match.

(付記6)
付記1又は2に記載の装置であって、
前記強化訓練データ取得ユニットは、第四強化訓練データ取得ユニットをさらに含み、
前記第四強化訓練データ取得ユニットは、1つ又は少なくとも2つのレーダーについての第一マイクロドップラー画像における所定数のフレームを選択し、選択した所定数のフレームをその所在する第一マイクロドップラー画像から除去し、前記所定数のフレームに対応する信号強度値が第三閾値以下であり、或いは、選択した所定数のフレームをその所在する第一マイクロドップラー画像に重複插入し、前記所定数のフレームに対応する信号強度値が第四閾値以上である、装置。
(Appendix 6)
The device according to Appendix 1 or 2.
The reinforcement training data acquisition unit further includes a fourth reinforcement training data acquisition unit.
The fourth enhanced training data acquisition unit selects a predetermined number of frames in the first micro-Doppler image for one or at least two radars and removes the selected predetermined number of frames from the located first micro-Doppler image. Then, the signal strength value corresponding to the predetermined number of frames is equal to or less than the third threshold value, or the selected predetermined number of frames are duplicated in the first micro-Doppler image in which the predetermined number of frames are located to correspond to the predetermined number of frames. A device whose signal strength value is equal to or greater than the fourth threshold.

(付記7)
付記6に記載の装置であって、
前記第四強化訓練データ取得ユニットは、さらに、フレーム除去又は插入後の第一マイクロドップラー画像における各フレームに対応する径方向速度に対して修正を行い、フレーム除去時に、径方向速度を増加させ、フレーム插入時に、径方向速度を減少させる、装置。
(Appendix 7)
The device described in Appendix 6
The fourth reinforcement training data acquisition unit further corrects the radial velocity corresponding to each frame in the first microdoppler image after frame removal or insertion, and increases the radial velocity at the time of frame removal. A device that reduces the radial velocity when the frame is inserted.

(付記8)
付記1に記載の装置であって、
前記訓練データ取得ユニットは、
第一トリミングユニットであって、オリジナル訓練データ及び強化訓練データに対してトリミングを行い、前記訓練データにおける反射強度が弱い連続領域を除去するものを含み、
或いは、前記訓練データ取得ユニットは、訓練データ画像のサイズを所定サイズに調整する第一調整ユニットをさらに含む、装置。
(Appendix 8)
The device described in Appendix 1
The training data acquisition unit
The first trimming unit includes a unit that trims the original training data and the strengthening training data to remove a continuous region having a weak reflection intensity in the training data.
Alternatively, the training data acquisition unit further includes a first adjustment unit that adjusts the size of the training data image to a predetermined size.

(付記9)
付記1に記載の装置であって、
レーダーの数が1よりも大きいときに、
前記処理ユニットは、
第一併合ユニットであって、前記テストデータに含まれる少なくとも2つのレーダーのマイクロドップラー画像を1つの画像に併合するもの;及び
第二トリミングユニットであって、前記1つの画像に対してトリミングを行い、前記1つの画像における反射強度が弱い連続領域を除去するものを含む、装置。
(Appendix 9)
The device described in Appendix 1
When the number of radars is greater than one
The processing unit
The first merge unit that merges at least two radar micro-Doppler images contained in the test data into one image; and the second trimming unit that trims the one image. An apparatus that removes a continuous region having a weak reflection intensity in the one image.

(付記10)
付記9に記載の装置であって、
前記処理ユニットは、テストデータ画像サイズを所定サイズに調整する第二調整ユニットをさらに含む、装置。
(Appendix 10)
The device described in Appendix 9
The processing unit further includes a second adjusting unit that adjusts the test data image size to a predetermined size.

(付記11)
物品を検出する方法であって、
訓練データを取得し、前記訓練データはオリジナル訓練データ及び強化訓練データを含み、各訓練データには危険又は安全という内容のラベルが付けられており;
前記訓練データを畳み込みニューラルネットワークの入力とし、それに対応するラベルを前記畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、前記畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得し;
検出待ち物品のテストデータを取得し、前記テストデータは少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、前記テストエコー信号はレーダーの送信信号が検出待ち物品により反射された後の信号であり;及び
前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の前記畳み込みニューラルネットワークに入力し、前記検出待ち物品の検出結果を確定することを含み、
訓練データを取得することは、
前記少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、前記オリジナル訓練データを生成し、前記訓練エコー信号は前記レーダーの送信信号が既知物品により反射された後の信号であり;及び
取得された各マイクロドップラー画像における所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行い、前記強化訓練データを取得することを含む、方法。
(Appendix 11)
A method of detecting articles
Training data is acquired, the training data includes original training data and reinforcement training data, and each training data is labeled as dangerous or safe;
The training data is used as the input of the convolutional neural network, the corresponding label is used as the output of the convolutional neural network, the convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is obtained;
The test data of the awaiting detection article was acquired, the test data including a microdoppler image acquired by at least one radar based on the test echo signal, and the test echo signal was a radar transmission signal reflected by the awaiting detection article. It is a later signal; and the micro-Doppler image of the at least one radar contained in the test data is processed, and the processed image is input to the convolutional neural network after training to obtain the detection-waiting article. Including confirming the detection result
Obtaining training data is
The original training data is generated based on the microdoppler image acquired by the at least one radar based on the training echo signal, and the training echo signal is a signal after the transmission signal of the radar is reflected by a known article. Yes; and position and / or quantity conversion for a given number of frames in each acquired microdoppler image, and / or multiple micros for each radar obtained by one or more acquisitions. A predetermined number of frames are exchanged between Doppler images, and / or a plurality of micro Doppler images for each acquired radar are merged according to the first order to acquire the strengthening training data. Including, method.

(付記12)
付記11に記載の方法であって、
レーダーの数が1よりも大きいときに、
前記オリジナル訓練データを生成することは、
複数回のうち、毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して第二順序に従って併合を行い、併合により得られた1つの画像を1つのオリジナル訓練データとすることで、複数のオリジナル訓練データを取得し;及び/又は
取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行い、前記強化訓練データを取得することは、
毎回取得した少なくとも2つのレーダーに対応するマイクロドップラー画像に対して前記第一順序に従って併合を行い、毎回の併合により得られた1つの画像を1つの強化訓練データとすることで、複数の強化訓練データを取得する、方法。
(Appendix 12)
The method described in Appendix 11
When the number of radars is greater than one
Generating the original training data
By merging the micro Doppler images corresponding to at least two radars acquired each time according to the second order, and using one image obtained by the merging as one original training data, a plurality of times are performed. Acquiring the original training data; and / or merging multiple micro-Doppler images for each acquired radar in the first order to obtain the enhanced training data
Multiple reinforcement trainings are performed by merging the micro Doppler images corresponding to at least two radars acquired each time according to the first order, and using one image obtained by each merging as one reinforcement training data. How to get the data.

(付記13)
付記11又は12に記載の方法であって、
1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、前記強化訓練データを取得することは、
1回取得したオリジナル訓練データ及び/又は強化訓練データについて、他の回で取得した1つのレーダーについての第二マイクロドップラー画像により前記オリジナル訓練データ及び/又は強化訓練データにおける前記1つのレーダー又は他のレーダーについての第一マイクロドップラー画像を置換することを含む、方法。
(Appendix 13)
The method described in Appendix 11 or 12.
Acquiring the enhanced training data by exchanging a predetermined number of frames between a plurality of micro-Doppler images for each radar obtained by one or a plurality of acquisitions is possible.
For the original training data and / or the strengthening training data acquired once, the one radar or the other in the original training data and / or the strengthening training data by the second micro-Doppler image of one radar acquired in the other time. A method that involves replacing a first micro-Doppler image about a radar.

(付記14)
付記11又は12に記載の方法であって、
取得された各マイクロドップラー画像における所定数のフレームに対して位置の変換を行い、前記強化訓練データを取得することは、
1つ又は少なくとも2つのレーダーについてのマイクロドップラー画像における所定数のフレームの位置を所定ルールに従って交換することを含む、方法。
(Appendix 14)
The method described in Appendix 11 or 12.
Performing position conversion for a predetermined number of frames in each acquired micro-Doppler image and acquiring the reinforcement training data is possible.
A method comprising exchanging a predetermined number of frame positions in a micro-Doppler image for one or at least two radars according to a predetermined rule.

(付記15)
付記14に記載の方法であって、さらに、
第二閾値以上の信号強度値の所在する、位置の交換を行うフレームに対応する径方向速度を、それと交換する対象フレームに対応する径方向速度と一致するように修正することを含む、方法。
(Appendix 15)
The method described in Appendix 14, and further
A method comprising modifying the radial velocity corresponding to a frame for which position exchange is performed, where a signal strength value greater than or equal to the second threshold is located, to match the radial velocity corresponding to the frame to be exchanged with it.

(付記16)
付記11又は12に記載の方法であって、
取得された各マイクロドップラー画像における所定数のフレームに対して数量の変換を行い、前記強化訓練データを取得することは、
1つ又は少なくとも2つのレーダーについての第一マイクロドップラー画像における所定数のフレームを選択し、選択した所定数のフレームをその所在する第一マイクロドップラー画像から除去し、前記所定数のフレームに対応する信号強度値が第三閾値以下であり、或いは、選択した所定数のフレームをその所在する第一マイクロドップラー画像に重複插入し、前記所定数のフレームに対応する信号強度値が第四閾値以上であることを含む、方法。
(Appendix 16)
The method described in Appendix 11 or 12.
Performing quantity conversion for a predetermined number of frames in each acquired micro-Doppler image and acquiring the reinforcement training data is possible.
Select a predetermined number of frames in the first micro-Doppler image for one or at least two radars, remove the selected predetermined number of frames from the located first micro-Doppler image, and correspond to the predetermined number of frames. When the signal strength value is equal to or less than the third threshold value, or when a predetermined number of selected frames are duplicated in the first micro-Doppler image where the selected frame is located and the signal strength value corresponding to the predetermined number of frames is equal to or higher than the fourth threshold value. Methods, including being.

(付記17)
付記16に記載の方法であって、さらに、
フレーム除去又は插入後の第一マイクロドップラー画像における各フレームに対応する径方向速度に対して修正を行い、フレーム除去時に、径方向速度を増加させ、フレーム插入時に、径方向速度を減少させることを含む、方法。
(Appendix 17)
The method described in Appendix 16 and further
Correct the radial velocity corresponding to each frame in the first microdoppler image after frame removal or insertion, increase the radial velocity when removing the frame, and decrease the radial velocity when inserting the frame. Including, method.

(付記18)
付記11に記載の方法であって、
訓練データを取得する前に、
前記方法は、さらに、
オリジナル訓練データ及び強化訓練データに対してトリミングを行い、前記訓練データにおける反射強度が弱い連続領域を除去することを含み、
或いは、訓練データ画像のサイズを所定サイズに調整することをさらに含む、方法。
(Appendix 18)
The method described in Appendix 11
Before getting the training data
The method further
Including trimming the original training data and the strengthening training data to remove continuous regions with weak reflection intensity in the training data.
Alternatively, a method further comprising adjusting the size of the training data image to a predetermined size.

(付記19)
付記11に記載の方法であって、
レーダーの数が1よりも大きいときに、前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行うことは、
前記テストデータに含まれる少なくとも2つのレーダーのマイクロドップラー画像を1つの画像に併合し;及び
前記1つの画像に対してトリミングを行い、前記1つの画像における反射強度が弱い連続領域を除去することを含む、方法。
(Appendix 19)
The method described in Appendix 11
When the number of radars is greater than 1, processing the micro-Doppler image of at least one radar contained in the test data can be done.
The micro-Doppler images of at least two radars contained in the test data are merged into one image; and the one image is trimmed to remove continuous regions with weak reflection intensity in the one image. Including, method.

(付記20)
付記19に記載の方法であって、
前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行うことは、さらに、テストデータ画像サイズを所定サイズに調整することを含む、方法。
(Appendix 20)
The method described in Appendix 19
Processing a microDoppler image of at least one radar included in the test data further comprises adjusting the test data image size to a predetermined size.

以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は本発明の技術的範囲に属する。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to this embodiment, and any modification to the present invention belongs to the technical scope of the present invention unless the gist of the present invention is deviated.

Claims (10)

物品を検出する装置であって、
訓練データを取得する訓練データ取得ユニットであって、前記訓練データはオリジナル訓練データ及び強化訓練データを含み、各訓練データには危険又は安全という内容のラベルが付けられている訓練データ取得ユニット;
前記訓練データを畳み込みニューラルネットワークの入力とし、前記訓練データに対応するラベルを前記畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、前記畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得する訓練ユニット;
検出待ち物品のテストデータを取得するテストデータ取得ユニットであって、前記テストデータは少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、前記テストエコー信号は前記少なくとも1つのレーダーの送信した信号が前記検出待ち物品により反射された後の信号であるテストデータ取得ユニット;及び
前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の畳み込みニューラルネットワークに入力し、前記検出待ち物品の検出結果を確定する処理ユニットを含み、
前記訓練データ取得ユニットは、
前記少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、前記オリジナル訓練データを生成するオリジナル訓練データ生成ユニットであって、前記訓練エコー信号は前記少なくとも1つのレーダーの送信した信号が既知物品により反射された後の信号であるオリジナル訓練データ生成ユニット;及び
取得された各マイクロドップラー画像内の所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行い、前記強化訓練データを取得する強化訓練データ取得ユニットを含む、装置。
A device that detects articles
A training data acquisition unit that acquires training data, wherein the training data includes original training data and reinforcement training data, and each training data is labeled as dangerous or safe;
The training data is used as the input of the convolutional neural network, the label corresponding to the training data is used as the output of the convolutional neural network, the convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is used. Training unit to acquire;
A test data acquisition unit that acquires test data of an article awaiting detection, the test data including a microdoppler image acquired by at least one radar based on a test echo signal, the test echo signal being the at least one radar. The test data acquisition unit, which is the signal after the transmitted signal is reflected by the detection waiting article; and the microdoppler image of at least one radar included in the test data, and the processed image. Is input to the convolutional neural network after training, and includes a processing unit that determines the detection result of the awaiting detection article.
The training data acquisition unit
An original training data generation unit that generates the original training data based on a microdoppler image acquired by the at least one radar based on the training echo signal, and the training echo signal is transmitted by the at least one radar. An original training data generation unit that is the signal after the signal is reflected by a known article; and position and / or quantity conversion for a given number of frames in each acquired microdoppler image and / or A predetermined number of frames are exchanged between multiple microdoppler images for each radar obtained by one or more acquisitions, and / or for multiple microdoppler images for each acquired radar. An apparatus including an enhancement training data acquisition unit that merges according to the first order and acquires the enhancement training data.
請求項1に記載の装置であって、
前記少なくとも1つのレーダーの数が1よりも大きいときに、
前記オリジナル訓練データ生成ユニットは、複数回のうち、毎回、取得された少なくとも2つのレーダーに対応するマイクロドップラー画像に対して第二順序に従って併合を行い、併合により得られた1つの画像を1つのオリジナル訓練データとすることで、複数のオリジナル訓練データを取得し;及び/又は
前記強化訓練データ取得ユニットは、第一強化訓練データ取得ユニットを含み、前記第一強化訓練データ取得ユニットは、毎回、取得された少なくとも2つのレーダーに対応するマイクロドップラー画像に対して前記第一順序に従って併合を行い、併合により得られた1つの画像を1つの強化訓練データとすることで、複数の強化訓練データを取得する、装置。
The device according to claim 1.
When the number of at least one radar is greater than one
The original training data generation unit merges the acquired micro-Doppler images corresponding to at least two radars in a second order each time, and one image obtained by the merge is combined into one. By using the original training data, a plurality of original training data are acquired; and / or the strengthening training data acquisition unit includes the first reinforcement training data acquisition unit, and the first reinforcement training data acquisition unit is always used. By merging the acquired micro-Doppler images corresponding to at least two radars according to the first order, and using one image obtained by the merging as one reinforcement training data, a plurality of reinforcement training data can be obtained. The device to get.
請求項1又は2に記載の装置であって、
前記強化訓練データ取得ユニットは、第二強化訓練データ取得ユニットをさらに含み、前記第二強化訓練データ取得ユニットは、或る回で取得されたオリジナル訓練データ及び/又は強化訓練データについて、他の回で取得された1つのレーダーについての第二マイクロドップラー画像により、前記オリジナル訓練データ及び/又は強化訓練データにおける前記1つのレーダー又は他のレーダーについての第一マイクロドップラー画像を置換する、装置。
The device according to claim 1 or 2.
The reinforcement training data acquisition unit further includes a second reinforcement training data acquisition unit, and the second reinforcement training data acquisition unit may be used for the original training data and / or the reinforcement training data acquired at one time at another time. A device that replaces a first microdoppler image for the one radar or other radar in the original training data and / or enhanced training data with a second microdoppler image for one radar acquired in.
請求項1又は2に記載の装置であって、
前記強化訓練データ取得ユニットは、第三強化訓練データ取得ユニットをさらに含み、前記第三強化訓練データ取得ユニットは、1つ又は少なくとも2つのレーダーについてのマイクロドップラー画像中の所定数のフレームの位置を所定ルールに従って交換する、装置。
The device according to claim 1 or 2.
The reinforcement training data acquisition unit further includes a third reinforcement training data acquisition unit, and the third reinforcement training data acquisition unit positions a predetermined number of frames in a microdoppler image for one or at least two radars. A device that is replaced according to the prescribed rules.
請求項4に記載の装置であって、
前記第三強化訓練データ取得ユニットは、さらに、第二閾値以上の信号強度値の所在する、位置の交換を行うフレームに対応する径方向速度を、該フレームと交換する対象フレームに対応する径方向速度と一致するように修正する、装置。
The device according to claim 4.
The third reinforcement training data acquisition unit further sets the radial velocity corresponding to the frame for which the position is exchanged, where the signal strength value equal to or higher than the second threshold value is located, in the radial direction corresponding to the target frame for exchanging the frame. A device that is modified to match the speed.
請求項1又は2に記載の装置であって、
前記強化訓練データ取得ユニットは、第四強化訓練データ取得ユニットをさらに含み、前記第四強化訓練データ取得ユニットは、1つ又は少なくとも2つのレーダーについての第一マイクロドップラー画像中の所定数のフレームを選択し、選択した所定数のフレームをその所在する第一マイクロドップラー画像から除去し、前記所定数のフレームに対応する信号強度値が第三閾値以下であり、或いは、選択した所定数のフレームをその所在する第一マイクロドップラー画像に重複插入し、前記所定数のフレームに対応する信号強度値が第四閾値以上である、装置。
The device according to claim 1 or 2.
The reinforcement training data acquisition unit further includes a fourth reinforcement training data acquisition unit, and the fourth reinforcement training data acquisition unit captures a predetermined number of frames in a first microdoppler image for one or at least two radars. A selected and selected predetermined number of frames are removed from the location of the first microdoppler image, and the signal strength value corresponding to the predetermined number of frames is equal to or less than the third threshold value, or the selected predetermined number of frames are selected. An apparatus in which a first microdoppler image in which the image is located is duplicated and the signal strength value corresponding to the predetermined number of frames is equal to or higher than the fourth threshold value.
請求項6に記載の装置であって、
前記第四強化訓練データ取得ユニットは、さらに、フレーム除去又は插入後の第一マイクロドップラー画像中の各フレームに対応する径方向速度に対して修正を行い、フレーム除去時に、径方向速度を増加させ、フレーム插入時に、径方向速度を減少させる、装置。
The device according to claim 6.
The fourth reinforcement training data acquisition unit further corrects the radial velocity corresponding to each frame in the first microdoppler image after frame removal or insertion, and increases the radial velocity at the time of frame removal. A device that reduces the radial velocity when the frame is inserted.
請求項1に記載の装置であって、
前記訓練データ取得ユニットは、前記オリジナル訓練データ及び前記強化訓練データに対してトリミングを行い、前記訓練データ中の反射強度が弱い連続領域を除去する第一トリミングユニットをさらに含み;又は
前記訓練データ取得ユニットは、訓練データ画像のサイズを所定サイズに調整する第一調整ユニットをさらに含む、装置。
The device according to claim 1.
The training data acquisition unit further includes a first trimming unit that trims the original training data and the strengthening training data to remove a continuous region having a weak reflection intensity in the training data; or the training data acquisition. The unit further comprises a first adjustment unit that adjusts the size of the training data image to a predetermined size.
請求項1に記載の装置であって、
前記少なくとも1つのレーダーの数が1よりも大きいときに、
前記処理ユニットは、
前記テストデータに含まれる少なくとも2つのレーダーのマイクロドップラー画像を併合して1つの画像とする第一併合ユニット;及び
前記1つの画像に対してトリミングを行い、前記1つの画像中の反射強度が弱い連続領域を除去する第二トリミングユニットを含む、装置。
The device according to claim 1.
When the number of at least one radar is greater than one
The processing unit
The first merge unit that merges the micro-Doppler images of at least two radars included in the test data into one image; and the one image is trimmed and the reflection intensity in the one image is weak. A device comprising a second trimming unit that removes a continuous area.
物品を検出する方法であって、
訓練データを取得し、前記訓練データはオリジナル訓練データ及び強化訓練データを含み、各訓練データには危険又は安全という内容のラベルが付けられており;
前記訓練データを畳み込みニューラルネットワークの入力とし、前記訓練データに対応するラベルを前記畳み込みニューラルネットワークの出力とし、所定のアルゴリズムにより、前記畳み込みニューラルネットワークに対して訓練を行い、訓練後の畳み込みニューラルネットワークを取得し;
検出待ち物品のテストデータを取得し、前記テストデータは少なくとも1つのレーダーがテストエコー信号に基づいて取得したマイクロドップラー画像を含み、前記テストエコー信号は前記少なくとも1つのレーダーの送信した信号が前記検出待ち物品により反射された後の信号であり;及び
前記テストデータに含まれる前記少なくとも1つのレーダーのマイクロドップラー画像に対して処理を行い、処理後の画像を訓練後の前記畳み込みニューラルネットワークに入力し、前記検出待ち物品の検出結果を確定することを含み、
前記訓練データを取得することは、
前記少なくとも1つのレーダーが訓練エコー信号に基づいて取得したマイクロドップラー画像に基づいて、前記オリジナル訓練データを生成し、前記訓練エコー信号は前記少なくとも1つのレーダーの送信した信号が既知物品により反射された後の信号であり;及び
取得された各マイクロドップラー画像内の所定数のフレームに対して位置及び/又は数量の変換を行い、及び/又は、1回又は複数回の取得により得られた各レーダーについての複数のマイクロドップラー画像の間で所定数のフレームの交換を行い、及び/又は、取得された各レーダーについての複数のマイクロドップラー画像に対して第一順序に従って併合を行い、前記強化訓練データを取得することを含む、方法。
A method of detecting articles
Training data is acquired, the training data includes original training data and reinforcement training data, and each training data is labeled as dangerous or safe;
The training data is used as the input of the convolutional neural network, the label corresponding to the training data is used as the output of the convolutional neural network, the convolutional neural network is trained by a predetermined algorithm, and the convolutional neural network after training is used. Acquired;
The test data of the article awaiting detection is acquired, the test data includes a microdoppler image acquired by at least one radar based on the test echo signal, and the test echo signal is the signal transmitted by the at least one radar. It is the signal after being reflected by the waiting article; and the microdoppler image of the at least one radar included in the test data is processed, and the processed image is input to the convolution neural network after training. , Including determining the detection result of the awaiting article
Acquiring the training data
The original training data was generated based on the microdoppler image acquired by the at least one radar based on the training echo signal, and the training echo signal was a signal transmitted by the at least one radar reflected by a known article. Later signal; and each radar obtained by performing position and / or quantity conversion for a given number of frames in each acquired microdoppler image and / or one or more acquisitions. A predetermined number of frames are exchanged between the plurality of micro-Doppler images for each radar, and / or the plurality of micro-Doppler images for each acquired radar are merged according to the first order. Methods, including getting.
JP2020083129A 2019-06-03 2020-05-11 Article detection method and device Withdrawn JP2020198094A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910474814.1 2019-06-03
CN201910474814.1A CN112034450A (en) 2019-06-03 2019-06-03 Article detection method and apparatus

Publications (1)

Publication Number Publication Date
JP2020198094A true JP2020198094A (en) 2020-12-10

Family

ID=73575790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020083129A Withdrawn JP2020198094A (en) 2019-06-03 2020-05-11 Article detection method and device

Country Status (2)

Country Link
JP (1) JP2020198094A (en)
CN (1) CN112034450A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508659A (en) * 2021-02-05 2021-03-16 浙江口碑网络技术有限公司 Commodity settlement processing method and device, computing equipment and computer storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114648871B (en) * 2020-12-18 2024-01-02 富士通株式会社 Speed fusion method and device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109214238B (en) * 2017-06-30 2022-06-28 阿波罗智能技术(北京)有限公司 Multi-target tracking method, device, equipment and storage medium
US10346721B2 (en) * 2017-11-01 2019-07-09 Salesforce.Com, Inc. Training a neural network using augmented training datasets
CN108872984B (en) * 2018-03-15 2022-04-08 清华大学 Human body identification method based on multi-base radar micro Doppler and convolutional neural network
CN108899075A (en) * 2018-06-28 2018-11-27 众安信息技术服务有限公司 A kind of DSA image detecting method, device and equipment based on deep learning
CN109359661B (en) * 2018-07-11 2021-09-07 华东交通大学 Sentinel-1 radar image classification method based on convolutional neural network
CN109002890A (en) * 2018-07-11 2018-12-14 北京航空航天大学 The modeling method and device of convolutional neural networks model
CN109117742B (en) * 2018-07-20 2022-12-27 百度在线网络技术(北京)有限公司 Gesture detection model processing method, device, equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508659A (en) * 2021-02-05 2021-03-16 浙江口碑网络技术有限公司 Commodity settlement processing method and device, computing equipment and computer storage medium

Also Published As

Publication number Publication date
CN112034450A (en) 2020-12-04

Similar Documents

Publication Publication Date Title
DE102016107959A1 (en) Structured light based multipath deletion with top imaging
JP2020198094A (en) Article detection method and device
DE102016106511A1 (en) Parametric online calibration and compensation for TOF imaging
CN114972416A (en) Radar-based object tracking using neural networks
US20220277581A1 (en) Hand pose estimation method, device and storage medium
CN106371459A (en) Target tracking method and target tracking device
Fang et al. Superrf: Enhanced 3d rf representation using stationary low-cost mmwave radar
Kim et al. Radar-based human activity recognition combining range–time–Doppler maps and range-distributed-convolutional neural networks
Liu et al. Concealed object detection and recognition system based on millimeter wave FMCW radar
Jain et al. Comparison of edge detectors
Omwenga et al. Cognitive gpr for subsurface object detection based on deep reinforcement learning
JP2021004874A (en) Article detection method and apparatus
Byeong-Ho A Review on Image and Video processing
Decourt et al. A recurrent CNN for online object detection on raw radar frames
Altmann et al. Deep learning for range-Doppler map single frame classifications of cooking processes
Vu et al. Fast factorized backprojection algorithm for UWB SAR image reconstruction
CN108931771A (en) A kind of method for tracking target based on synthetic aperture radar image-forming technology
CN111260607B (en) Automatic suspicious article detection method, terminal equipment, computer equipment and medium
CN110554439B (en) Article detection method and apparatus
de Oliveira et al. Generating synthetic short-range fmcw range-doppler maps using generative adversarial networks and deep convolutional autoencoders
Yan et al. An efficient extended targets detection framework based on sampling and spatio-temporal detection
CN110320530B (en) Terahertz sparse imaging design method based on matrix filling
CN110967763B (en) Article detection method and apparatus
Lang et al. A GAN-Based Augmentation Scheme for SAR Deceptive Jamming Templates with Shadows
CN110793978B (en) Speed correction method, article detection method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20240126