JPH09152480A - Automatic target recognition apparatus - Google Patents

Automatic target recognition apparatus

Info

Publication number
JPH09152480A
JPH09152480A JP7312499A JP31249995A JPH09152480A JP H09152480 A JPH09152480 A JP H09152480A JP 7312499 A JP7312499 A JP 7312499A JP 31249995 A JP31249995 A JP 31249995A JP H09152480 A JPH09152480 A JP H09152480A
Authority
JP
Japan
Prior art keywords
target
identification
input
neural network
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7312499A
Other languages
Japanese (ja)
Inventor
Midori Nakada
みどり 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP7312499A priority Critical patent/JPH09152480A/en
Publication of JPH09152480A publication Critical patent/JPH09152480A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Abstract

PROBLEM TO BE SOLVED: To automatically select a network required for a recognition and reduce the amount of human work, by providing a radar device, a target attribute detection device and a plurality of neural net identification devices. SOLUTION: Information of a speed of a target, etc., from a radar device 5 is received at a target attribute detection device 6, among which a value of an attribute divided through learning is detected. The attribute is input to a neural net selection device 4. The device 4 selects one neural net identification device 7 learning the value of the attribute detected at the device 6 and a characteristic amount extracted at 3 and, inputs the characteristic amount of the target to the selected device 7. The device 7 puts/identifies the characteristic amount in the network. What has a minimum distance of the input characteristic amount and a reference spectrum of each category is an identified category of the target. A final target identification result is hence obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、ニューラルネッ
トを用い、目標の認識を自動で行なうことを目的とする
自動目標認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic target recognition device for automatically recognizing a target by using a neural network.

【0002】[0002]

【従来の技術】図9は従来の自動目標認識装置の全体構
成図である。1は撮像装置で、目標とその背景を撮影す
る装置で、2は撮像装置で得られた原画像から様々な画
像処理を加えて、二値化画像など目標の特徴量が抽出し
やすい処理画像を作る画像処理装置、3は処理された処
理画像から目標の特徴量を作成する特徴抽出装置、7は
抽出された特徴量から目標を識別するニューラルネット
識別装置。但し、従来の自動目標認識装置にはニューラ
ルネット識別装置が1つだけ存在することを特徴として
いる。
2. Description of the Related Art FIG. 9 is an overall configuration diagram of a conventional automatic target recognition apparatus. Reference numeral 1 is an image pickup apparatus, which is an apparatus for photographing a target and its background, and 2 is a processed image such as a binarized image in which various target image features such as a binarized image are easily extracted by adding various image processing to an original image obtained by the image pickup apparatus. 3 is a feature extraction device that creates a target feature amount from the processed image, and 7 is a neural network identification device that identifies the target from the extracted feature amount. However, the conventional automatic target recognition apparatus is characterized in that only one neural network identification apparatus is present.

【0003】図10は図9で用いられている特徴抽出装
置の抽出方法を示した図である。まず、13は画像処理
装置によって画像が二値化され、特徴抽出装置の入力と
なり、次に14は目標の原画像の輪郭、重心を検出し、
15で対数極座標への変換を行ない、16で重心から最
も遠いエッジが規定位置になるように対数軸方向のシフ
トと極方向のシフトを行ない、位置合わせをした画像を
目標の特徴量とする。この特徴量は、位置合わせにより
画面内の位置、大きさ、および回転に理論的に不変であ
る。
FIG. 10 is a diagram showing an extraction method of the feature extraction apparatus used in FIG. First, 13 is an image that is binarized by the image processing device and is input to the feature extraction device. Next, 14 is the contour and barycenter of the target original image.
In step 15, conversion to logarithmic polar coordinates is performed, and in step 16, the logarithmic axis direction shift and the polar direction shift are performed so that the edge farthest from the center of gravity becomes the specified position, and the aligned image is set as the target feature amount. This feature amount is theoretically invariable in position, size, and rotation within the screen due to the alignment.

【0004】ここで、ニューラルネットの学習方法につ
いて説明する。ニューラルネットにはいくつかのアルゴ
リズムがあり、例えば、LVQ(Learning V
ector Quantization)というニュー
ラルネットについて説明をする。LVQは参照ベクトル
と呼ばれる各カテゴリの代表点と、入力データとの距離
を計算し、その距離が最も近いものを入力データの識別
結果とするアルゴリズムである。図11はLVQのアル
ゴリズムを模擬的に表現したものであり、ベクトル空間
上に各カテゴリの参照ベクトル17を一つおく。図12
はLVQの学習方法の一例のフローチャートである。ま
ず、20において学習データと各参照ベクトルとの距離
を計算し、21で学習データに最も近い参照ベクトルを
検出し、22において学習データのカテゴリと識別結果
のカテゴリが同じであるか、つまり識別結果が正しいか
どうか判定し、間違った場合は23で間違ったカテゴリ
の参照ベクトルを学習データから遠ざけるように更新
し、同じであった場合は更新を行なわない。この操作を
学習と呼び、そして24において、すべての学習データ
について学習が行なわれたか、あるいは学習終了条件を
満たしているかの判定を行なう。学習終了条件というの
は、例えば参照ベクトルの更新時に用いる学習レートを
ある値から学習を繰り返していくごとに減少させ、その
学習レートの値が0になったら学習を終了するという条
件である。このようにして、様々なカテゴリの学習デー
タに対して繰り返して行なわれ、学習が終了した時の参
照ベクトルの値が学習によって構成されたネットワーク
である。この一つのネットワークが一つのニューラルネ
ット識別装置そのものを構成している。
Here, a learning method of the neural network will be described. There are several algorithms in the neural network, for example, LVQ (Learning V
A neural network called "ector Quantization" will be described. LVQ is an algorithm that calculates the distance between the representative point of each category called a reference vector and the input data, and uses the one having the shortest distance as the identification result of the input data. FIG. 11 is a simulated representation of the LVQ algorithm, in which one reference vector 17 for each category is placed in the vector space. FIG.
3 is a flowchart of an example of a learning method of LVQ. First, in 20 the distance between the learning data and each reference vector is calculated, in 21 the reference vector closest to the learning data is detected, and in 22 whether the category of the learning data and the category of the discrimination result are the same, that is, the discrimination result. Is determined to be correct, and if wrong, the reference vector of the wrong category is updated at 23 so as to be away from the learning data, and if the same, the update is not performed. This operation is called learning, and in 24, it is determined whether learning has been performed for all learning data or whether the learning end condition is satisfied. The learning end condition is, for example, a condition that the learning rate used when updating the reference vector is decreased from a certain value each time the learning is repeated, and the learning is ended when the value of the learning rate becomes zero. In this way, the network is constructed by learning, in which the value of the reference vector when the learning is completed is repeatedly performed on the learning data of various categories. This one network constitutes one neural network identification device itself.

【0005】従来の自動目標認識装置においては、上記
のニューラルネット識別装置が一つだけ備えられてい
る。例えば学習を行ないたい目標が3種類あり、その目
標の全アスペクトの識別を行なうためには、より細か
く、3機種の目標の全アスペクトの特徴量を学習してお
かなければならないが、ネットワークが一つだけ備えら
れているということは、つまり学習のフェーズは一つだ
けであり、一度に3機種の全アスペクトについて学習を
行なわなければならなかった。
The conventional automatic target recognition device is provided with only one neural network identification device. For example, there are three types of goals to be learned, and in order to identify all the aspects of the goals, it is necessary to learn the feature quantities of all the aspects of the three types of goals more finely. The fact that only one is provided means that there is only one learning phase, and learning had to be done for all three model aspects at once.

【0006】[0006]

【発明が解決しようとする課題】ニューラルネット識別
装置が1つしか存在しないために、目標の特徴量を一括
して学習しなければならず、学習が収束しきれずに認識
に限界が生じてしまう。例えば、目標の正面方向の特徴
量と横方向の特徴量とはかなり異なり、横を向いた同じ
目標の特徴量よりも正面を向いた他の目標の特徴量の方
が似通っているにもかかわらず、同じ目標は同じ目標で
あると学習を行なっているために、認識に無理ができて
しまう。
Since there is only one neural network identification device, it is necessary to collectively learn the target feature amount, and the learning cannot be fully converged, resulting in a limit in recognition. . For example, the features in the front direction and the features in the horizontal direction of the target are quite different, and the features of the other front facing targets are more similar to the features of the same target facing horizontally. However, since the same goal is being learned as the same goal, it is impossible to recognize.

【0007】また、学習を行なっている目標の特徴量が
広い範囲に及んでいるために、識別しやすい属性の領域
と識別しにくい属性の領域とが存在してしまう。例え
ば、異なる目標間で、正面を向いた目標の特徴量の相違
が横向きの目標の特徴量の相違よりも小さく、横向きの
目標が認識できても正面の目標の認識ができないという
現象がおき、逆に正面方向の目標が認識できるまで、学
習繰り返すと、過学習をしてしまい、横向きの目標が認
識できなくなるということも起きてしまう。
[0007] Further, since the feature quantity of the learning target extends over a wide range, there are regions of attributes that are easy to identify and regions of attributes that are difficult to identify. For example, between different targets, the difference in the feature amount of the front facing target is smaller than the difference in the feature amount of the horizontal target, and there is a phenomenon that the front target cannot be recognized even if the horizontal target can be recognized. On the contrary, if the learning is repeated until the target in the front direction can be recognized, over-learning may occur, and the target in the horizontal direction may not be recognized.

【0008】さらに、ニューラルネット識別装置が一つ
であるということは、ネットワークが一つであるという
ことと同じであり、そのためには学習は一度に行なわな
ければならない。例えば目標の全アスペクトの特徴量を
学習するためには多くの特徴量を用意し、一度に学習し
なければならないが、多くの特徴量を一括して学習を行
なうと、学習に時間がかかってしまう。
Furthermore, the fact that there is one neural net identification device is the same as the fact that there is one network, and for that purpose learning must be performed at one time. For example, in order to learn the feature quantities of all target aspects, many feature quantities must be prepared and learned at one time. However, if many feature quantities are learned at once, it takes time to learn. I will end up.

【0009】この発明は、このような問題点を解決する
ために考えられたもので、一つのネットワークでは認識
に限界があった目標を複数のネットワークを用意するこ
とで認識できるようにするものであり、また、より良い
認識を行なうための学習、認識の繰り返し作業の短縮、
さらに、ネットワークを複数用意したことで発生する認
識に必要なネットワークの選択作業を自動で行なうこと
で、ネットワークを増やしたことによる人間の作業量を
減らすことを目的としたものである。
The present invention has been conceived to solve such a problem, and makes it possible to recognize a target, which has a limited recognition in one network, by preparing a plurality of networks. Yes, learning for better recognition, reduction of repeated recognition work,
Furthermore, the purpose of the present invention is to reduce the amount of human work due to the increase in the number of networks by automatically performing the network selection work necessary for recognition that occurs when a plurality of networks are prepared.

【0010】[0010]

【課題を解決するための手段】この発明の実施例1で
は、目標属性を検出する目標属性検出装置と、目標属性
に基づき、ニューラルネット識別装置を選択するニュー
ラルネット選択装置と、複数のニューラルネット識別装
置を備えている。
In a first embodiment of the present invention, a target attribute detecting device for detecting a target attribute, a neural net selecting device for selecting a neural net identifying device based on the target attribute, and a plurality of neural nets. Equipped with an identification device.

【0011】また、この発明の実施例2では、アスペク
トを検出し、複数存在するニューラルネット識別装置の
中から、検出されたアスペクトを含むニューラルネット
識別装置を一つ選択するニューラルネット選択装置を備
えている。
Further, the second embodiment of the present invention is provided with a neural network selecting device for detecting an aspect and selecting one neural network identifying device including the detected aspect from a plurality of existing neural net identifying devices. ing.

【0012】また、この発明の実施例3では、目標まで
のレンジを検出し、複数存在するニューラルネット識別
装置の中から、検出されたレンジを含むニューラルネッ
ト識別装置を一つ選択するニューラルネット選択装置を
備えている。
Also, in the third embodiment of the present invention, a neural network selection is performed in which a range up to a target is detected and one neural network identification device including the detected range is selected from a plurality of existing neural net identification devices. It is equipped with a device.

【0013】さらに、この発明の実施例4では、外部か
ら補正値を入力する外部入力装置と、補正値と目標属性
から目標補正属性領域を計算する目標属性検出装置と、
目標補正属性領域を含むニューラルネット識別装置を一
つ以上選択するニューラルネット選択装置と、各選択さ
れたニューラルネット識別装置の出力値から、最終目標
識別結果を判定する識別判定装置を備えている。
Further, in the fourth embodiment of the present invention, an external input device for inputting a correction value from the outside, a target attribute detection device for calculating a target correction attribute region from the correction value and the target attribute,
It is provided with a neural net selection device that selects one or more neural net identification devices including a target correction attribute region, and an identification determination device that determines the final target identification result from the output value of each selected neural net identification device.

【0014】また、この発明の実施例5では、目標のア
スペクトを検出し、外部入力装置から得た補正アスペク
トを用いて、補正アスペクト領域を計算する目標属性検
出装置を備えている。
Further, the fifth embodiment of the present invention is provided with a target attribute detecting device for detecting a target aspect and using the corrected aspect obtained from the external input device to calculate a corrected aspect region.

【0015】また、この発明の実施例6では、目標のレ
ンジを検出し、外部入力装置から得た補正レンジを用い
て、補正レンジ領域を計算する目標属性検出装置を備え
ている。
Further, the sixth embodiment of the present invention is provided with a target attribute detecting device for detecting a target range and calculating a correction range region using a correction range obtained from an external input device.

【0016】また、この発明の実施例7では、複数のニ
ューラルネット識別装置を選択した場合に、各ニューラ
ルネット識別装置の出力値の最大値を持つニューラルネ
ット識別装置の識別結果を最終目標識別結果と判定する
機能を備えた識別判定装置を備えている。
Further, in the seventh embodiment of the present invention, when a plurality of neural net discriminating devices are selected, the discrimination result of the neural net discriminating device having the maximum output value of each neural net discriminating device is determined as the final target discriminating result. An identification determination device having a function of determining

【0017】また、この発明の実施例8では、複数のニ
ューラルネット識別装置を選択した場合に、各ニューラ
ルネット識別装置の出力値のうち、最もコントラストの
大きいニューラルネット識別装置の識別結果に基づき最
終目標識別結果と判定する機能を備えた識別判定装置を
備えている。
Further, in the eighth embodiment of the present invention, when a plurality of neural net discriminators are selected, the final value is determined based on the discrimination result of the neural net discriminator having the largest contrast among the output values of the neural net discriminators. An identification determination device having a function of determining a target identification result is provided.

【0018】[0018]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

実施例1 図1はこの発明による自動目標認識装置の一実施例の全
体構成図である。1、2、3は従来と同様であり、4は
ニューラルネット選択装置、5はレーダ装置、6は目標
属性検出装置、7はニューラルネット識別装置であり、
目標属性検出装置6はレーダ装置5から得られた目標の
様々な情報からアスペクトやレンジといった目標の属性
を検出する装置であり、ニューラルネット選択装置4は
目標属性検出装置6で得られた属性から必要な数のニュ
ーラルネット識別装置7を選択し、選択されたニューラ
ルネット識別装置7に特徴抽出装置3で抽出された目標
の特徴量を入力する装置である。この発明による自動目
標認識装置は上記1〜7により構成される。
Embodiment 1 FIG. 1 is an overall configuration diagram of an embodiment of an automatic target recognition device according to the present invention. 1, 2 and 3 are the same as the conventional one, 4 is a neural net selection device, 5 is a radar device, 6 is a target attribute detection device, 7 is a neural net identification device,
The target attribute detection device 6 is a device that detects target attributes such as aspect and range from various information of the target obtained from the radar device 5, and the neural network selection device 4 uses the attributes obtained by the target attribute detection device 6. This is a device for selecting a necessary number of neural net identification devices 7 and inputting the target feature amount extracted by the feature extraction device 3 to the selected neural net identification device 7. The automatic target recognition apparatus according to the present invention is constituted by the above 1 to 7.

【0019】このように構成された自動目標認識装置に
おいては、ニューラルネット識別装置が複数用意され、
各ニューラルネット識別装置はネットワークにより構成
されているが、一つのネットワークは、目標の属性がい
くつかの領域に分割され、そのいくつかの領域のうちの
一つの領域に含まれる目標の特徴量について学習を行な
って作成されるものであり、各々のニューラルネット識
別装置を構成するものである。
In the automatic target recognition device thus configured, a plurality of neural net identification devices are prepared,
Each neural net identification device is composed of a network. One network divides the attributes of the target into several areas, and regards the target feature quantity contained in one of the several areas. It is created by learning and constitutes each neural network identification device.

【0020】そして、目標属性検出装置6で、レーダ装
置5から目標の速度や加速度、アスペクト、レンジとい
った情報を受け取り、その中から学習で分割の対象とな
った属性の値を検出し、その属性をニューラルネット選
択装置4に入力する。ニューラルネット識別装置4で
は、目標属性検出装置から受け取った属性の値と、特徴
抽出装置3で抽出された目標の特徴量を受け取り、受け
取った属性の値を含んだ目標の特徴量を学習しているニ
ューラルネット識別装置を一つ選択して、目標の特徴量
を選択したニューラルネット識別装置に入力する。
Then, the target attribute detection device 6 receives information such as the speed, acceleration, aspect, and range of the target from the radar device 5, detects the value of the attribute to be divided by learning from the information, and the attribute is detected. Is input to the neural network selection device 4. The neural network identification device 4 receives the attribute value received from the target attribute detection device and the target feature amount extracted by the feature extraction device 3, and learns the target feature amount including the received attribute value. One of the existing neural network identification devices is selected and the target feature amount is input to the selected neural network identification device.

【0021】ニューラルネット識別装置により選択さ
れ、特徴量が入力されたニューラルネット識別装置は、
ネットワークに特徴量をいれて、識別を行なう。例えば
LVQというニューラルネットを用いると、入力された
特徴量と各カテゴリの参照ベクトルとの距離が最小のも
のが目標の識別されたカテゴリであり、最終目標識別結
果を得ることになる。
The neural network identification device selected by the neural network identification device and inputting the feature quantity is
The features are added to the network for identification. For example, when a neural network called LVQ is used, the one having the smallest distance between the input feature amount and the reference vector of each category is the category in which the target is identified, and the final target identification result is obtained.

【0022】実施例2 図2はこの発明による自動目標認識装置の実施例2の構
成図である。図2における1〜3は従来の装置と同じで
あり、4、5、7は上記実施例1と同様の装置である。
6の目標属性検出装置は、レーダ装置5から入力された
目標情報から、目標のアスペクトを検出し、ニューラル
ネット識別装置に入力する装置であり、この発明による
自動目標認識装置は上記1〜7により構成される。
Embodiment 2 FIG. 2 is a block diagram of Embodiment 2 of the automatic target recognition apparatus according to the present invention. In FIG. 2, 1 to 3 are the same as the conventional device, and 4, 5, and 7 are the same devices as in the first embodiment.
The target attribute detection device 6 is a device for detecting the aspect of the target from the target information input from the radar device 5 and inputting it to the neural network identification device. Composed.

【0023】また、図14は目標の全アスペクト方向を
いくつかの領域に分割した図である。以下に目標属性検
出装置6でアスペクトを検出する自動目標認識装置の動
作について説明する。目標の形状、つまり特徴量はアス
ペクトによってかなり異なっているため、識別に限界が
生じてしまう。そのため、図14に示すように、目標の
全アスペクトをいくつかの領域に分割して、一つの領域
内のアスペクトの目標に対して学習を行ない、一つのネ
ットワークを作成し、一つのニューラルネット識別装置
を構成する。この操作をすべてのアスペクト領域に対し
て行なうことで、複数のニューラルネット識別装置を備
える。
FIG. 14 is a diagram in which the entire target aspect direction is divided into several regions. The operation of the automatic target recognition device for detecting the aspect by the target attribute detection device 6 will be described below. Since the shape of the target, that is, the feature amount varies considerably depending on the aspect, there is a limit to the identification. Therefore, as shown in FIG. 14, all aspects of the target are divided into several areas, learning is performed for the goals of the aspect in one area, one network is created, and one neural net identification is performed. Configure the device. By performing this operation for all the aspect regions, a plurality of neural net identification devices are provided.

【0024】そして、目標属性検出装置6で、アスペク
トを検出し、目標のアスペクトをニューラルネット選択
装置4に入力する。ニューラルネット識別装置は、目標
属性検出装置からアスペクトを受け取り、特徴抽出装置
3で抽出された目標の特徴量も受け取り、受け取ったア
スペクトを学習しているニューラルネット識別装置を一
つ選択して、目標の特徴量をニューラルネット識別装置
に入力する。以下の動作は実施例1に同じである。
Then, the target attribute detection device 6 detects the aspect and inputs the target aspect to the neural network selection device 4. The neural network identification device receives the aspect from the target attribute detection device, also receives the target feature amount extracted by the feature extraction device 3, selects one neural net identification device that is learning the received aspect, and selects the target. The feature amount of is input to the neural network identification device. The following operation is the same as that of the first embodiment.

【0025】実施例3 図3はこの発明による自動目標認識装置の実施例3の構
成図である。図3における1〜3は従来の装置と同じで
あり、4、5、7は上記実施例1と同様の装置である。
6の目標属性検出装置は、レーダ装置5から入力された
目標情報から、目標のレンジを検出し、ニューラルネッ
ト識別装置に入力する装置であり、この発明による自動
目標認識装置は1〜7により構成される。
Third Embodiment FIG. 3 is a configuration diagram of a third embodiment of the automatic target recognition apparatus according to the present invention. In FIG. 3, 1 to 3 are the same as the conventional device, and 4, 5, and 7 are the same devices as in the first embodiment.
The target attribute detection device 6 is a device for detecting the range of the target from the target information input from the radar device 5 and inputting it to the neural network identification device. The automatic target recognition device according to the present invention is composed of 1 to 7. To be done.

【0026】なお、上記実施例2では、ニューラルネッ
ト識別装置のネットワークは目標の全アスペクトを分割
して、各々の領域内の目標に対してネットワークを構築
したが、図15で示すように実施例3では、目標までの
レンジによって、ネットワークを構築するようにする。
つまり、目標属性検出装置6で、実施例2では目標のア
スペクトを検出していたが、実施例3では目標のレンジ
を検出し、ニューラルネット選択装置4に入力する。
In the second embodiment, the network of the neural network identification apparatus divides all aspects of the target and constructs the network for the target in each area. However, as shown in FIG. In 3, the network is constructed according to the range up to the target.
In other words, the target attribute detection device 6 detects the target aspect in the second embodiment, but detects the target range in the third embodiment and inputs it to the neural network selection device 4.

【0027】図15は目標のレンジを分割した図である
が、27の分割した各領域ごとに学習を行ない、ネット
ワークを構築し、ニューラルネット識別装置4を備え
る。したがって、ニューラルネット識別装置4では、目
標属性検出装置6から入力されたレンジの目標の特徴量
を学習しているニューラルネット識別装置を選択し、選
択されたニューラルネット識別装置に特徴抽出装置3か
ら入力された目標の特徴量を入力する。以下の動作は実
施例1と同様に行ない、レンジによる識別の低下に対応
し、識別結果を向上することができるようになる。
FIG. 15 is a diagram in which the target range is divided, but learning is performed for each of the 27 divided regions to construct a network, and a neural network identification device 4 is provided. Therefore, the neural network identification device 4 selects the neural network identification device that is learning the target feature amount of the range input from the target attribute detection device 6, and selects the selected neural network identification device from the feature extraction device 3 Input the feature amount of the input target. The following operation is performed in the same manner as in the first embodiment, and it is possible to improve the identification result in response to the reduction in identification due to the range.

【0028】実施例4 図4は本発明の実施例の一つの全体構成を表したもので
ある。1〜7は実施例1と同様のものであり、8は外部
入力装置、9は識別判定装置であり、この発明による自
動目標認識装置は上記1〜7により構成される。
Embodiment 4 FIG. 4 shows an overall structure of an embodiment of the present invention. 1 to 7 are the same as those in the first embodiment, 8 is an external input device, 9 is an identification determination device, and the automatic target recognition device according to the present invention is constituted by the above 1 to 7.

【0029】以下に、上記の自動目標認識装置の動作に
ついて説明する。外部入力装置8からパラメータとし
て、目標属性検出装置に補正値を入力し、目標属性検出
装置6で、レーダ装置5から得られた属性の値に補正値
を加減算し、目標補正属性領域を計算し、この目標補正
属性領域をニューラルネット選択装置4に入力する。
The operation of the above automatic target recognition apparatus will be described below. A correction value is input as a parameter from the external input device 8 to the target attribute detection device, and the target attribute detection device 6 adds and subtracts the correction value to the value of the attribute obtained from the radar device 5 to calculate the target correction attribute region. The target correction attribute area is input to the neural network selection device 4.

【0030】ニューラルネット選択装置4において、特
徴抽出装置3で抽出された目標の特徴量と目標属性検出
装置6で計算された目標補正属性領域を受け取り、目標
補正属性領域内の属性の値を含む目標の特徴量を学習し
ているニューラルネット識別装置7を選択する。したが
って、このとき、目標補正属性領域が複数のニューラル
ネット識別装置の属性の領域にまたがる場合は、ニュー
ラルネット識別装置は複数選択されることになる。
The neural network selection device 4 receives the target feature amount extracted by the feature extraction device 3 and the target correction attribute region calculated by the target attribute detection device 6, and includes the value of the attribute in the target correction attribute region. The neural network identification device 7 learning the target feature amount is selected. Therefore, at this time, when the target correction attribute area extends over the attribute areas of a plurality of neural net identification devices, a plurality of neural net identification devices are selected.

【0031】選択されたニューラルネット識別装置にニ
ューラルネット選択装置4から特徴量が入力され、各ニ
ューラルネット識別装置において識別を行ない、識別結
果が出力される。ニューラルネット識別装置が複数選択
された場合は、選択されたニューラルネット識別装置か
らの出力と識別結果から、最終的な目標の識別結果を識
別判定装置9で判定を行なう。例えば、LVQのニュー
ラルネットで識別した場合、各ニューラルネット識別装
置で、最も近い参照ベクトルのカテゴリとその参照ベク
トルまでの距離が出力され、すべてのニューラルネット
識別装置の中で最も距離が近い参照ベクトルのカテゴリ
を目標の特徴量の最終目標識別結果とし、目標の識別が
できる。
The feature amount is input from the neural net selection device 4 to the selected neural net identification device, the respective neural net identification devices perform identification, and the identification result is output. When a plurality of neural network identification devices are selected, the identification determination device 9 determines the final target identification result from the output and the identification result from the selected neural network identification device. For example, when identification is performed by an LVQ neural network, each neural network identification device outputs the category of the closest reference vector and the distance to that reference vector, and the reference vector with the shortest distance among all the neural network identification devices. The target can be identified by using the category of as the final target identification result of the target feature amount.

【0032】実施例5 図5はこの発明による自動目標認識装置の実施例5の構
成図である。図5における6の目標属性検出装置と8の
外部入力装置以外は上記実施例4と同様の装置である。
外部入力装置8は、ユーザにより補正アスペクトが入力
され、目標属性検出装置6は、レーダ装置5から入力さ
れた目標情報から目標のアスペクトを検出し、外部入力
装置8から入力された補正アスペクトを用いて、補正ア
スペクト領域を出力する装置であり、この発明による自
動目標認識装置は上記1〜9で構成される。
Embodiment 5 FIG. 5 is a block diagram of Embodiment 5 of the automatic target recognition apparatus according to the present invention. The apparatus is the same as that of the fourth embodiment except for the target attribute detection apparatus 6 and the external input apparatus 8 in FIG.
The external input device 8 is input with a corrected aspect by the user, and the target attribute detection device 6 detects the target aspect from the target information input from the radar device 5 and uses the corrected aspect input from the external input device 8. The apparatus for outputting the corrected aspect area, and the automatic target recognition apparatus according to the present invention is composed of 1 to 9 above.

【0033】以下に、上記の自動目標認識装置の動作に
ついて説明する。まず目標属性検出装置6において目標
のアスペクトを検出し、外部入力装置8から目標属性検
出装置6に補正アスペクトを入力し、目標属性検出装置
6で、レーダ装置5から入力されたアスペクトに補正ア
スペクト値を加減算し、補正アスペクト領域を計算し、
この補正アスペクト領域をニューラルネット選択装置4
に入力する。
The operation of the above automatic target recognition apparatus will be described below. First, the target attribute detection device 6 detects the target aspect, inputs the correction aspect from the external input device 8 to the target attribute detection device 6, and the target attribute detection device 6 corrects the aspect ratio input to the radar device 5. Add / subtract, calculate the corrected aspect area,
This corrected aspect area is set to the neural network selection device 4
To enter.

【0034】ニューラルネット選択装置4において、特
徴抽出装置3で抽出された目標の特徴量と目標属性検出
装置6で計算された補正アスペクト領域を受け取り、補
正アスペクト領域内のアスペクトの目標を学習している
ニューラルネット識別装置7を選択する。したがって、
このとき、補正アスペクト領域が複数のニューラルネッ
ト識別装置のアスペクト領域にまたがる場合は、ニュー
ラルネット識別装置は複数選択される。以下の動作は実
施例4と同じである。
The neural network selection device 4 receives the target feature amount extracted by the feature extraction device 3 and the corrected aspect region calculated by the target attribute detection device 6, and learns the aspect target in the corrected aspect region. The neural network identification device 7 that is present is selected. Therefore,
At this time, when the corrected aspect area extends over the aspect areas of the plurality of neural net identification devices, a plurality of neural net identification devices are selected. The following operation is the same as that of the fourth embodiment.

【0035】実施例6 図6はこの発明による自動目標認識装置の実施例6の構
成図である。図6における6の目標属性検出装置と8の
外部入力装置以外は上記実施例4と同様の装置である。
外部入力装置8はユーザにより補正レンジが入力され、
目標属性検出装置6はレーダ装置5から入力される目標
情報から目標のレンジを検出し、外部入力装置8から入
力される補正レンジを用いて、補正レンジ領域を得る装
置であり、この発明による自動目標認識装置は上記1〜
9により構成される。
Embodiment 6 FIG. 6 is a block diagram of Embodiment 6 of the automatic target recognition apparatus according to the present invention. The apparatus is the same as that of the fourth embodiment except for the target attribute detection apparatus 6 and the external input apparatus 8 in FIG.
A correction range is input by the user to the external input device 8,
The target attribute detection device 6 is a device that detects the range of the target from the target information input from the radar device 5 and obtains the correction range region using the correction range input from the external input device 8. The target recognition device is 1 to
9.

【0036】目標属性検出装置6において目標のレンジ
を検出し、外部入力装置8から目標属性検出装置に補正
レンジを入力し、目標属性検出装置6で、レーダ装置5
から得られたレンジに補正レンジを加減算し、補正レン
ジ領域を計算し、この補正レンジ領域をニューラルネッ
ト選択装置4に入力する。
The target attribute detection device 6 detects the target range, the correction range is input from the external input device 8 to the target attribute detection device, and the target attribute detection device 6 causes the radar device 5 to
The correction range is calculated by adding and subtracting the correction range to and from the range obtained from, and the correction range region is input to the neural network selection device 4.

【0037】ニューラルネット選択装置4において、特
徴抽出装置3で抽出された目標の特徴量と目標属性検出
装置6で計算された補正レンジ領域を受け取り、補正レ
ンジ領域内のレンジの目標を学習しているニューラルネ
ット識別装置7を選択する。実施例5と同様、補正レン
ジ領域が複数のニューラルネット識別装置のレンジ領域
にまたがる場合は、ニューラルネット識別装置は複数選
択される。以下の動作は実施例4と同じである。
The neural network selection device 4 receives the target feature amount extracted by the feature extraction device 3 and the correction range region calculated by the target attribute detection device 6, and learns the range target within the correction range region. The neural network identification device 7 that is present is selected. Similar to the fifth embodiment, when the correction range area extends over the range areas of a plurality of neural net identification devices, a plurality of neural net identification devices are selected. The following operation is the same as that of the fourth embodiment.

【0038】実施例7 図7はこの発明による自動目標認識装置の実施例7の構
成図である。図7における1〜8は上記実施例6と同様
の装置であり、この発明による識別判定装置9は10の
最大値検出器と11の最終目標識別結果出力器により構
成され、自動目標認識装置は上記1〜11で構成され
る。
Embodiment 7 FIG. 7 is a block diagram of Embodiment 7 of the automatic target recognition apparatus according to the present invention. Reference numerals 1 to 8 in FIG. 7 are the same as those in the sixth embodiment, and the discrimination / determination device 9 according to the present invention is composed of 10 maximum value detectors and 11 final target discrimination result output devices. It is composed of 1 to 11 above.

【0039】以下に、上記の自動目標認識装置の動作に
ついて説明する。撮像装置で目標を撮影し、選択された
ニューラルネット識別装置において、目標の特徴量を識
別し、その識別結果が出力されるまでは、上記実施例4
と同様の動作を行なう。
The operation of the above automatic target recognition apparatus will be described below. The target is photographed by the image pickup device, the target feature amount is discriminated by the selected neural network discriminating device, and the discrimination result is output until the discrimination result is output from the fourth embodiment.
The same operation as described above is performed.

【0040】選択されたニューラルネット識別装置7か
ら識別結果が出力され、最大値検出器10に入力され、
そこで、各出力値のうち最も大きい値とその識別結果を
検出し、最終目標識別結果出力器11に入力し、最終目
標識別結果出力器11は入力された識別結果より、最終
目標識別結果を出力する。
The discrimination result is output from the selected neural network discriminating device 7 and is input to the maximum value detector 10.
Therefore, the largest value among the output values and the identification result thereof are detected and input to the final target identification result output device 11, and the final target identification result output device 11 outputs the final target identification result from the input identification result. To do.

【0041】実施例8 図8はこの発明による自動目標認識装置の実施例8の構
成図である。図8における1〜8は上記実施例6と同様
の装置である。この発明による識別判定装置9は12の
コントラスト検出器と最大値検出器10と最終目標識別
結果出力器11により構成され、自動目標認識装置は上
記1〜12で構成される。
Eighth Embodiment FIG. 8 is a block diagram of the eighth embodiment of the automatic target recognition apparatus according to the present invention. The devices 1 to 8 in FIG. 8 are the same as those in the sixth embodiment. The discrimination / determination device 9 according to the present invention comprises 12 contrast detectors, a maximum value detector 10 and a final target discrimination result output device 11, and an automatic target recognition device comprises the above 1-12.

【0042】以下に、上記の自動目標認識装置の動作に
ついて説明する。撮像装置で目標を撮影し、選択された
ニューラルネット識別装置において、目標の特徴量を識
別し、その識別結果が出力されるまでは、上記実施例4
と同様の動作を行なう。
The operation of the above automatic target recognition apparatus will be described below. The target is photographed by the image pickup device, the target feature amount is discriminated by the selected neural network discriminating device, and the discrimination result is output until the discrimination result is output from the fourth embodiment.
The same operation as described above is performed.

【0043】選択されたニューラルネット識別装置7か
ら識別結果が出力され、コントラスト検出器12に入力
され、各ニューラルネット識別装置のコントラストを検
出する。例えば、LVQのニューラルネットについて説
明すると、各ニューラルネット識別装置において、入力
データと各参照ベクトルまでの距離が出力されるが、最
も近い参照ベクトルまでの距離と次に近い参照ベクトル
までの距離の差をコントラストとして、このコントラス
トを検出する。そして、各ニューラルネット識別装置の
コントラストを最大値検出器10に入力し、そこで、最
も大きいコントラストとそのコントラストを出力したニ
ューラルネット識別装置、そのニューラルネット識別装
置の識別結果を検出し、最終目標識別結果出力器11に
入力し、最終目標識別結果出力器11は入力された識別
結果より、最終目標識別結果を出力する。
The identification result is output from the selected neural network identification device 7 and is input to the contrast detector 12 to detect the contrast of each neural network identification device. For example, to describe an LVQ neural network, each neural network identification device outputs the distance between the input data and each reference vector, but the difference between the distance to the closest reference vector and the distance to the next closest reference vector. Is used as the contrast, and this contrast is detected. Then, the contrast of each neural net discriminator is input to the maximum value detector 10, where the maximum contrast and the neural net discriminator that outputs the contrast and the discrimination result of the neural net discriminator are detected to determine the final target. The final target identification result output unit 11 inputs the result to the result output unit 11, and outputs the final target identification result from the input identification result.

【0044】[0044]

【発明の効果】以上のようにこの発明によると、ニュー
ラルネット識別装置を複数備えるようにしたので、広範
囲に及んでいる目標の属性を分割し、各領域に合った学
習を行なうことができるようになり、学習が収束し、学
習の偏りを防ぐことができるようになる。さらに、すべ
ての領域の学習データを一括して学習するよりも各領域
内での学習データが少ないために、学習時間が少なくて
すみ、また、認識を行なった後に、評価を行ない、フィ
ードバックをして学習をしなおす場合も学習データが少
ないので、学習、認識のサイクルが短くてすみ、学習を
しなおす領域のみの学習を行なえばいいので、トータル
では学習時間の短縮をはかることができる。
As described above, according to the present invention, since a plurality of neural network identification devices are provided, it is possible to divide a wide range of target attributes and perform learning suitable for each region. Therefore, the learning is converged and the learning bias can be prevented. In addition, less learning data is needed in each area than learning data in all areas at once, so less learning time is required, and after recognition, evaluation is performed and feedback is given. In the case of re-learning by learning, the learning data is small, the learning and recognition cycle can be short, and only the region for re-learning needs to be learned, so that the total learning time can be shortened.

【0045】また、アスペクトによる目標の特徴量はか
なり変化が大きいが、目標の全アスペクトをいくつかの
アスペクト領域に分割し、各領域内で学習を行なうと、
目標間の特徴量の相違がはっきりし、認識が向上するこ
とができる。
Further, although the target feature amount due to the aspect changes considerably, if the entire target aspect is divided into some aspect regions and learning is performed in each region,
The difference in the feature amount between the targets is clear and the recognition can be improved.

【0046】さらに、大きさに対して不変であるべき目
標の特徴量も、実際の処理では不変にならないことがあ
るために、目標までのレンジにより領域を分割して学習
することで、各レンジに対応した学習を行なうことがで
き、認識を向上することができる。
Further, since the target feature amount that should be invariant with respect to the size may not be invariant in the actual processing, the region is divided according to the range up to the target and learning is performed. The learning corresponding to can be performed, and the recognition can be improved.

【0047】また、ニューラルネット識別装置を一つ以
上選択することができるようにすることで、ニューラル
ネット識別装置とニューラルネット識別装置との境界の
目標に対しても厳密な認識を行なうことができるように
なり、複数個のニューラルネット識別装置の出力から一
つの目標に対する識別結果を得ることもできるようにす
ることで、容易に複数のニューラルネット識別装置を用
いることができる。
Further, by making it possible to select one or more neural net discriminators, it is possible to perform strict recognition on the target at the boundary between the neural net discriminators. As described above, by making it possible to obtain the discrimination result for one target from the outputs of the plural neural network discrimination devices, it is possible to easily use the plural neural net discrimination devices.

【0048】さらに、アスペクト領域を複数選択するこ
とができるようにしたので、アスペクト領域とアスペク
ト領域の境界の識別を厳密に行なえるだけでなく、目標
の速度ベクトル方向のアスペクトと実際の機軸のアスペ
クトとの間の誤差を緩和することができる。
Furthermore, since a plurality of aspect regions can be selected, not only can the boundaries between the aspect regions and the aspect regions be strictly identified, but also the aspect in the target velocity vector direction and the aspect of the actual axis The error between and can be relaxed.

【0049】同時に、レンジ領域を複数選択することが
できるようにしたことで、レンジ領域の分割の境界の目
標がより正確に識別することができるようになる。
At the same time, by making it possible to select a plurality of range areas, it becomes possible to more accurately identify the target of the boundary of the division of the range area.

【0050】また、複数のニューラルネット識別装置が
選択された場合、その最大値を出力結果とすることで、
全体の中で、最も出力が大きい識別結果を自動で選択す
ることができ、容易に識別結果を得ることができる。
Further, when a plurality of neural net identification devices are selected, the maximum value thereof is used as the output result,
Among the whole, the identification result having the largest output can be automatically selected, and the identification result can be easily obtained.

【0051】最後に、複数のニューラルネットが識別さ
れたときに、各ニューラルネット識別装置の出力値のコ
ントラストが最も大きいニューラルネット識別装置の識
別結果を最終的な目標の識別結果とすることにより、各
ニューラルネット識別装置の中で、目標の識別が最も確
実に判定できているニューラルネット識別装置とその識
別結果を得ることができる。
Finally, when a plurality of neural nets are discriminated, the discrimination result of the neural net discriminator having the largest contrast of the output value of each neural net discriminator is used as the final target discrimination result. It is possible to obtain the neural network identification device that can most reliably determine the target identification among the neural network identification devices and the identification result thereof.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施例1を示す自動目標認識装置
の構成図である。
FIG. 1 is a configuration diagram of an automatic target recognition device showing a first embodiment of the present invention.

【図2】 この発明の実施例2を示す自動目標認識装置
の構成図である。
FIG. 2 is a configuration diagram of an automatic target recognition device showing a second embodiment of the present invention.

【図3】 この発明の実施例3を示す自動目標認識装置
の構成図である。
FIG. 3 is a configuration diagram of an automatic target recognition device showing a third embodiment of the present invention.

【図4】 この発明の実施例4を示す自動目標認識装置
の構成図である。
FIG. 4 is a configuration diagram of an automatic target recognition device showing a fourth embodiment of the present invention.

【図5】 この発明の実施例5を示す自動目標認識装置
の構成図である。
FIG. 5 is a configuration diagram of an automatic target recognition device showing a fifth embodiment of the present invention.

【図6】 この発明の実施例6を示す自動目標認識装置
の構成図である。
FIG. 6 is a configuration diagram of an automatic target recognition device showing a sixth embodiment of the present invention.

【図7】 この発明の実施例7を示す自動目標認識装置
の構成図である。
FIG. 7 is a configuration diagram of an automatic target recognition device showing a seventh embodiment of the present invention.

【図8】 この発明の実施例8を示す自動目標認識装置
の構成図である。
FIG. 8 is a configuration diagram of an automatic target recognition apparatus showing an eighth embodiment of the present invention.

【図9】 従来の自動目標認識装置を示す構成図であ
る。
FIG. 9 is a configuration diagram showing a conventional automatic target recognition device.

【図10】 特徴抽出方法を示した構成図である。FIG. 10 is a configuration diagram showing a feature extraction method.

【図11】 LVQのアルゴリズムを模擬的に示した図
である。
FIG. 11 is a diagram schematically showing an LVQ algorithm.

【図12】 LVQの学習方法の一例を示すフローチャ
ートである。
FIG. 12 is a flowchart showing an example of an LVQ learning method.

【図13】 目標の速度ベクトルからアスペクトを検出
する一例の図である。
FIG. 13 is a diagram showing an example of detecting an aspect from a target velocity vector.

【図14】 目標の全アスペクト方向をいくつかの領域
に分割した図である。
FIG. 14 is a diagram in which all target aspect directions are divided into several regions.

【図15】 目標のレンジをいくつかの領域に分割した
図である。
FIG. 15 is a diagram in which the target range is divided into several areas.

【符号の説明】[Explanation of symbols]

1 撮像装置、2 画像処理装置、3 特徴抽出装置、
4 ニューラルネット選択装置、5 レーダ装置、6
目標属性検出装置、7 ニューラルネット識別装置、8
外部入力装置、9 識別判定装置、10 最大値検出
器、11 最終目標識別結果出力器、12 コントラス
ト検出器、13 二値化画像、14 エッジ画像、15
極座標マップ、16 シフトした極座標マップ、17
参照ベクトル、18 学習データ、19 カテゴリと
カテゴリの境界、20 入力データと各参照ベクトルと
の距離計算手順、21 最近接参照ベクトル検出手順、
22 正しいかどうかの判定手順、23 参照ベクトル
の更新方法手順、24 学習データすべての学習を行な
ったかどうかの判定手順、25 航空機、26 全アス
ペクトを分割した領域の一部、27 全レンジを分割し
た領域の一部、28撮像装置。
1 imaging device, 2 image processing device, 3 feature extraction device,
4 Neural network selection device, 5 radar device, 6
Target attribute detection device, 7 Neural network identification device, 8
External input device, 9 discrimination determination device, 10 maximum value detector, 11 final target discrimination result output device, 12 contrast detector, 13 binarized image, 14 edge image, 15
Polar map, 16 Shifted polar map, 17
Reference vector, 18 learning data, 19 categories and category boundaries, 20 distance calculation procedure between input data and each reference vector, 21 closest reference vector detection procedure,
22 correctness determination procedure, 23 reference vector updating method procedure, 24 determination procedure whether all learning data has been learned, 25 aircraft, 26 part of a region divided into all aspects, 27 all ranges divided Part of the area, 28 imagers.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 目標を撮影し、原画像を出力する撮像装
置と、前記撮像装置で作成された原画像が入力され、そ
の原画像を画像処理して作成した処理画像を出力する画
像処理装置と、前記画像処理装置で処理された処理画像
が入力され、処理画像から目標の特徴量を抽出し出力す
る特徴抽出装置と、目標のレンジやアスペクトなどの目
標情報を出力するレーダ装置と、前記レーダ装置から得
られた目標の情報が入力され、識別に必要な情報のみの
目標属性を検出して出力する目標属性検出装置と、前記
特徴抽出装置で抽出された目標の特徴量と前記目標属性
検出装置で検出された目標属性とが入力され、その目標
属性からニューラルネット識別装置を選択し、選択した
ニューラルネット識別装置に対して目標の特徴量を出力
するニューラルネット選択装置と、この入力された目標
の特徴量を用いて、学習、および認識を行ない、識別結
果と出力値を出力する複数のニューラルネット識別装置
を備えたことを特徴とする自動目標認識装置。
1. An image pickup apparatus for photographing a target and outputting an original image, and an image processing apparatus for inputting an original image created by the image pickup apparatus and for processing the original image to output a processed image created. A processed image processed by the image processing device is input, a feature extraction device that extracts and outputs a target feature amount from the processed image, a radar device that outputs target information such as a target range and aspect, Target information obtained from the radar device is input, a target attribute detection device that detects and outputs a target attribute of only information necessary for identification, a target feature amount extracted by the feature extraction device, and the target attribute. The target attribute detected by the detection device is input, the neural network identification device is selected from the target attributes, and the neural network that outputs the target feature amount to the selected neural network identification device is input. Target selecting apparatus and a plurality of neural net identifying apparatuses that perform learning and recognition by using the input target feature amount and output an identification result and an output value. .
【請求項2】 上記レーダ装置で得られた目標情報が入
力され、その目標情報から目標のアスペクトを検出して
出力する目標属性検出装置と、前記目標属性検出装置で
検出されたアスペクトと上記特徴抽出装置で抽出された
目標の特徴量が入力され、このアスペクトを含んだネッ
トワークで構成されている上記ニューラルネット識別装
置を一つ選択し、選択したニューラルネット識別装置に
対して特徴量を出力するニューラルネット選択装置を備
えていることを特徴とする請求項1記載の自動目標認識
装置。
2. A target attribute detection device for inputting target information obtained by the radar device, detecting an aspect of the target from the target information and outputting the target aspect, and an aspect detected by the target attribute detection device and the above characteristics. The target feature amount extracted by the extraction device is input, one of the above-mentioned neural network identification devices configured by a network including this aspect is selected, and the feature amount is output to the selected neural network identification device. The automatic target recognition device according to claim 1, further comprising a neural network selection device.
【請求項3】 上記レーダ装置で得られた目標情報が入
力され、その目標情報から目標のレンジを検出して出力
する目標属性検出装置と、前記目標属性検出装置で検出
されたレンジと上記特徴抽出装置で抽出された目標の特
徴量が入力され、このレンジを含んだネットワークで構
成されている上記ニューラルネット識別装置を一つ選択
し、選択したニューラルネット識別装置に対して特徴量
を出力するニューラルネット選択装置を備えていること
を特徴とする請求項1記載の自動目標認識装置。
3. A target attribute detecting device for inputting target information obtained by the radar device, detecting a range of the target from the target information and outputting the target range, a range detected by the target attribute detecting device, and the above characteristics. The target feature amount extracted by the extraction device is input, one of the above-mentioned neural network identification devices configured by a network including this range is selected, and the feature amount is output to the selected neural network identification device. The automatic target recognition device according to claim 1, further comprising a neural network selection device.
【請求項4】 ユーザが上記目標属性を補正する補正値
を入力し、その補正値を出力する外部入力装置と、上記
レーダ装置から出力された目標属性と前記外部入力装置
から得られた補正値とが入力され、この補正値を用いて
目標属性を補正した補正属性領域を出力する目標属性検
出装置と、前記目標属性検出装置で補正された補正属性
領域と上記特徴抽出装置で抽出された目標の特徴量とが
入力され、補正属性領域内の属性を含んだネットワーク
により構成されている上記ニューラルネット識別装置を
選択し、選択したニューラルネット識別装置に対して目
標の特徴量を出力するニューラルネット選択装置と、前
記ニューラルネット識別装置が複数個選択された場合
は、各ニューラルネット識別装置で得られた出力値と識
別結果が入力され、それらの識別結果から最終的な目標
の識別結果を判定して最終目標識別結果を出力し、ニュ
ーラルネット識別装置が1つ選択された場合は、その選
択されたニューラルネット識別装置の識別結果を最終的
な目標の識別結果として最終目標識別結果を出力する識
別判定装置を備えていることを特徴とする請求項1記載
の自動目標認識装置。
4. A user inputs a correction value for correcting the target attribute and outputs the correction value, a target attribute output from the radar device, and a correction value obtained from the external input device. And a target attribute detection device that outputs a correction attribute region in which the target attribute is corrected using the correction value, a correction attribute region corrected by the target attribute detection device, and a target extracted by the feature extraction device. The neural network for selecting the above-mentioned neural net discriminating device configured by a network including the attributes in the correction attribute region and outputting the target characteristic amount to the selected neural net discriminating device. When a selection device and a plurality of the neural net identification devices are selected, output values and identification results obtained by each neural net identification device are input, The final target identification result is determined from these identification results, the final target identification result is output, and when one neural net identification device is selected, the identification result of the selected neural network identification device is displayed. The automatic target recognition device according to claim 1, further comprising an identification determination device that outputs a final target identification result as a final target identification result.
【請求項5】 ユーザにより補正アスペクトが入力さ
れ、その補正アスペクトを出力する外部入力装置と、外
部入力装置で得られた補正アスペクトと上記レーダ装置
で得られた目標情報とが入力され、この目標情報からア
スペクトを検出して、検出されたアスペクトを補正アス
ペクトを用いて補正した補正アスペクト領域を出力する
目標属性検出装置を備えていることを特徴とする請求項
4記載の自動目標認識装置。
5. A user inputs a correction aspect and outputs the correction aspect, an external input device, a correction aspect obtained by the external input device, and target information obtained by the radar device. 5. The automatic target recognition device according to claim 4, further comprising a target attribute detection device which detects an aspect from the information and outputs a corrected aspect region in which the detected aspect is corrected using the corrected aspect.
【請求項6】 ユーザにより補正レンジが入力され、そ
の補正レンジを出力する外部入力装置と、外部入力装置
で得られた補正レンジと上記レーダ装置で得られた目標
情報とが入力され、この目標情報からレンジを検出し
て、検出されたレンジを補正レンジを用いて補正した補
正レンジ領域を出力する目標属性検出装置を備えている
ことを特徴とする請求項4記載の自動目標認識装置。
6. A correction range is input by a user, an external input device that outputs the correction range, a correction range obtained by the external input device, and target information obtained by the radar device are input, and this target is input. 5. The automatic target recognition device according to claim 4, further comprising a target attribute detection device that detects a range from the information and outputs a corrected range region in which the detected range is corrected using the correction range.
【請求項7】 上記ニューラルネット選択装置が複数個
選択された場合、各ニューラルネット識別装置で得られ
た出力値と識別結果が入力され、入力された複数個の出
力値のなかで、最も大きな出力値が得られたニューラル
ネット識別装置の識別結果を最終的な目標の識別結果と
して最終目標識別結果を出力する識別判定装置を備えて
いることを特徴とする請求項4記載の自動目標認識装
置。
7. When a plurality of the neural network selection devices are selected, the output value obtained by each neural network identification device and the identification result are input, and the largest output value among the plurality of input output values is input. 5. The automatic target recognition device according to claim 4, further comprising a discrimination judgment device for outputting the final target discrimination result as the final target discrimination result based on the discrimination result of the neural net discrimination device for which the output value is obtained. .
【請求項8】 上記ニューラルネット選択装置が複数個
選択された場合、各ニューラルネット識別装置で得られ
た出力値と識別結果が入力され、入力された複数個の出
力値のなかで、各カテゴリ間のコントラストが最も大き
い出力値が得られたニューラルネット識別装置の識別結
果を最終的な目標の識別結果として、最終目標識別結果
を出力する識別判定装置を備えていることを特徴とする
請求項4記載の自動目標認識装置。
8. When a plurality of the neural net selection devices are selected, the output value and the identification result obtained by each neural net identification device are input, and among the plurality of input output values, each category is selected. An identification determination device is provided, which outputs the final target identification result by using the identification result of the neural network identification device that has obtained the output value with the largest contrast between them as the final target identification result. 4. The automatic target recognition device according to 4.
JP7312499A 1995-11-30 1995-11-30 Automatic target recognition apparatus Pending JPH09152480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7312499A JPH09152480A (en) 1995-11-30 1995-11-30 Automatic target recognition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7312499A JPH09152480A (en) 1995-11-30 1995-11-30 Automatic target recognition apparatus

Publications (1)

Publication Number Publication Date
JPH09152480A true JPH09152480A (en) 1997-06-10

Family

ID=18029958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7312499A Pending JPH09152480A (en) 1995-11-30 1995-11-30 Automatic target recognition apparatus

Country Status (1)

Country Link
JP (1) JPH09152480A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4494561B2 (en) * 1999-09-17 2010-06-30 徹 中川 Pattern identification device
JP2012002720A (en) * 2010-06-18 2012-01-05 Oki Electric Ind Co Ltd Information processing apparatus, recognizing system, recognizing method and program
CN108875456A (en) * 2017-05-12 2018-11-23 北京旷视科技有限公司 Object detection method, object detecting device and computer readable storage medium
JP2019106090A (en) * 2017-12-14 2019-06-27 オムロン株式会社 Identification device, identification method, and program
CN111273288A (en) * 2020-03-06 2020-06-12 电子科技大学 Radar unknown target identification method based on long-term and short-term memory network
CN111656399A (en) * 2017-12-01 2020-09-11 皇家飞利浦有限公司 Segmentation system for segmenting an object in an image
JP2022536179A (en) * 2019-07-12 2022-08-12 ザ プロクター アンド ギャンブル カンパニー Systems and methods for providing and visualizing textile information

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4494561B2 (en) * 1999-09-17 2010-06-30 徹 中川 Pattern identification device
JP2012002720A (en) * 2010-06-18 2012-01-05 Oki Electric Ind Co Ltd Information processing apparatus, recognizing system, recognizing method and program
CN108875456A (en) * 2017-05-12 2018-11-23 北京旷视科技有限公司 Object detection method, object detecting device and computer readable storage medium
CN108875456B (en) * 2017-05-12 2022-02-18 北京旷视科技有限公司 Object detection method, object detection apparatus, and computer-readable storage medium
CN111656399A (en) * 2017-12-01 2020-09-11 皇家飞利浦有限公司 Segmentation system for segmenting an object in an image
CN111656399B (en) * 2017-12-01 2024-03-15 皇家飞利浦有限公司 Segmentation system for segmenting objects in an image
JP2019106090A (en) * 2017-12-14 2019-06-27 オムロン株式会社 Identification device, identification method, and program
JP2022536179A (en) * 2019-07-12 2022-08-12 ザ プロクター アンド ギャンブル カンパニー Systems and methods for providing and visualizing textile information
CN111273288A (en) * 2020-03-06 2020-06-12 电子科技大学 Radar unknown target identification method based on long-term and short-term memory network
CN111273288B (en) * 2020-03-06 2022-05-24 电子科技大学 Radar unknown target identification method based on long-term and short-term memory network

Similar Documents

Publication Publication Date Title
US11594070B2 (en) Face detection training method and apparatus, and electronic device
CN112883819A (en) Multi-target tracking method, device, system and computer readable storage medium
CN106874894A (en) A kind of human body target detection method based on the full convolutional neural networks in region
US10235629B2 (en) Sensor data confidence estimation based on statistical analysis
CN106960195A (en) A kind of people counting method and device based on deep learning
CN109697441B (en) Target detection method and device and computer equipment
CN109858547A (en) A kind of object detection method and device based on BSSD
CN107851192B (en) Apparatus and method for detecting face part and face
JP2016099668A (en) Learning method, learning device, image recognition method, image recognition device and program
CN109671055B (en) Pulmonary nodule detection method and device
CN116958584B (en) Key point detection method, regression model training method and device and electronic equipment
CN116342894B (en) GIS infrared feature recognition system and method based on improved YOLOv5
US6614917B1 (en) Dynamic process for identifying objects in multi-dimensional data
CN111353440A (en) Target detection method
US20070223785A1 (en) Image processor and method
CN115359366A (en) Remote sensing image target detection method based on parameter optimization
JPH09152480A (en) Automatic target recognition apparatus
JP5155250B2 (en) Object detection device
KR101991307B1 (en) Electronic device capable of feature vector assignment to a tracklet for multi-object tracking and operating method thereof
CN112784494B (en) Training method of false positive recognition model, target recognition method and device
US6690829B1 (en) Classification system with reject class
US20230315783A1 (en) Classification apparatus, classification method and computer readable medium
JP5318664B2 (en) Object detection device
JP7001150B2 (en) Identification system, model re-learning method and program
JPH09282460A (en) Automatic target recognizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20060302

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20071106

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Effective date: 20071113

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Effective date: 20080311

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Effective date: 20080326

Free format text: JAPANESE INTERMEDIATE CODE: A61

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 5

Free format text: PAYMENT UNTIL: 20130404

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20140404

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250