JPH09282460A - Automatic target recognizing device - Google Patents

Automatic target recognizing device

Info

Publication number
JPH09282460A
JPH09282460A JP8097173A JP9717396A JPH09282460A JP H09282460 A JPH09282460 A JP H09282460A JP 8097173 A JP8097173 A JP 8097173A JP 9717396 A JP9717396 A JP 9717396A JP H09282460 A JPH09282460 A JP H09282460A
Authority
JP
Japan
Prior art keywords
target
identification
feature amount
attribute
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8097173A
Other languages
Japanese (ja)
Inventor
Sachiko Sato
佐知子 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP8097173A priority Critical patent/JPH09282460A/en
Publication of JPH09282460A publication Critical patent/JPH09282460A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically identify a target even when there are radio interference or radio disturbance by providing a target attribute detector detecting a target attribute from feature values and positional information to unnecessitate a radar device. SOLUTION: A position measuring device 9 measures the position of the device itself and the position of the target. A distance between the device and the target is measured from the position and the attitude angle of an image pickup device 1 and a target position within an image when the target moves at an equal speed. A target attribute detector 5 obtains positional information from the position measuring device 9 and measures the speed of the target, acceleration and a range from the locus of he target within the image. In addition a feature value from a feature extractor 3 and a correction value from an external input device 4 are inputted to detect an aspect and its attribute is inputted to a neural network selector 6. The target attribute detector 5 is provided with a neural network learning by the kind of a target and detects the aspect by it.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、ニューラルネッ
トを用いて、画像から物体の認識を自動で行なうことを
目的とする自動目標認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic target recognition device for automatically recognizing an object from an image by using a neural network.

【0002】[0002]

【従来の技術】図7は従来の自動目標認識装置の全体構
成図である。1は撮像装置であり、目標とその背景を撮
影する装置で、2は撮像装置で得られた原画像から様々
な画像処理を加えて、二値化画像など目標の特徴量が抽
出しやすい処理画像を作る画像処理装置、3は処理され
た処理画像から目標の特徴量を作成する特徴抽出装置、
14はレンジやアスペクトなどの目標情報を得るための
レーダ装置、4はユーザが目標情報の補正値を入力する
ための外部入力装置、5はレーダ装置から得られた情報
を識別に必要な情報のみの目標属性を検出して出力する
目標属性検出装置、6は特徴抽出装置にて抽出された特
徴量と目標属性検出装置にて出力された目標補正属性領
域からニューラルネット識別装置を選択するニューラル
ネット選択装置、7は抽出された特徴量から目標を識別
するニューラルネット識別装置、8は各ニューラルネッ
ト識別装置で得られた出力値と識別結果が入力され、そ
れらの識別結果から最終的な目標の識別結果を判定して
最終目標識別結果を出力し、ニューラルネット識別装置
が1つ選択された場合は、その選択されたニューラルネ
ット識別装置の識別結果を最終的な目標の識別結果とし
て最終目標識別結果を出力する識別判定装置、ただし、
従来の自動目標認識装置はレーダ装置から目標の属性情
報を得、目標の属性ごとに、複数の目標に対して1つの
ネットワークを作成し学習および認識を行うニューラル
ネット識別装置を用いることを特徴としている。
2. Description of the Related Art FIG. 7 is an overall configuration diagram of a conventional automatic target recognition apparatus. Reference numeral 1 denotes an image pickup apparatus, which is an apparatus for shooting a target and its background, and 2 is processing for adding various image processing from an original image obtained by the image pickup apparatus to easily extract a target feature amount such as a binary image An image processing device for producing an image, a feature extracting device for producing a target feature amount from a processed image,
Reference numeral 14 is a radar device for obtaining target information such as range and aspect, 4 is an external input device for the user to input a correction value of the target information, and 5 is only information necessary for identifying the information obtained from the radar device. A target attribute detecting device for detecting and outputting the target attribute of the neural network, 6 is a neural network for selecting a neural net identifying device from the feature amount extracted by the feature extracting device and the target correction attribute region output by the target attribute detecting device. A selection device, 7 is a neural net identification device that identifies a target from the extracted feature amount, and 8 is an input of the output value and the identification result obtained by each neural net identification device. When the discrimination result is judged and the final target discrimination result is output and one neural net discriminating device is selected, the discrimination of the selected neural net discriminating device is performed. Result identification determination device outputs the final target identification result as an identification result of the ultimate goal, however,
A conventional automatic target recognition device is characterized by using a neural network identification device that obtains target attribute information from a radar device, creates one network for a plurality of targets for each target attribute, and performs learning and recognition. There is.

【0003】[0003]

【発明が解決しようとする課題】第一の課題は、従来の
自動目標認識装置のレーダによる問題である。防衛の分
野では、レーダにより電波を発することで敵にに探知さ
れる恐れがある。また電波妨害など、正しいレーダ信号
が得られない場合がある。
The first problem is the problem of the radar of the conventional automatic target recognition device. In the field of defense, there is a possibility that an enemy may detect by emitting a radio wave by a radar. In addition, a correct radar signal may not be obtained due to radio wave interference.

【0004】さらに、レーダの人体に対する影響は明ら
かにされていないが、自動目標認識装置の操作を行う人
や、撮影される対象に対する影響があると考えられる
Further, although the influence of the radar on the human body has not been clarified, it is considered that there is an influence on the person who operates the automatic target recognition apparatus and the object to be photographed.

【0005】第二の課題は、従来の自動目標認識装置で
は識別対象の目標をすべてについて学習するため、仮
に、a、b、cの目標を識別する自動識別装置がある場
合、新たにdという目標を識別するためには、既に作成
したニューラルネット識別装置ではdという結果を導け
ないため、各々のニューラルネット識別装置は無効にな
り、学習をすべてやり直す必要がある。
The second problem is that the conventional automatic target recognition apparatus learns all the targets to be identified, so if there is an automatic identification apparatus for identifying the targets a, b, and c, it is newly called d. In order to identify the target, the already created neural net identification device cannot lead to the result d, so that each neural net identification device becomes invalid and it is necessary to redo all learning.

【0006】この発明は、このような問題点を解決する
ために考えられたもので、第一の課題については、レー
ダ装置を位置計測装置に変更すること、次に、ニューラ
ルネット識別装置の学習をアスペクト毎に割り当てるの
ではなく、目標毎に割り当て、目標のアスペクトを答え
るニューラルネットワークを作成することで前記課題を
解決することを目的としたものである。
The present invention was conceived in order to solve such a problem, and the first problem is to change the radar device to a position measuring device, and then learn the neural network identification device. It is an object of the present invention to solve the above-mentioned problem by allocating not to each aspect but to each target and creating a neural network that answers the target aspect.

【0007】[0007]

【課題を解決するための手段】第1の発明では、装置の
位置および目標位置を計測する位置計測装置と、特徴量
と位置情報から目標属性を検出する目標属性検出装置
と、複数存在するニューラルネット識別装置の中から、
検出された目標補正属性領域を含むニューラルネット識
別装置を選択するニューラルネット選択装置を備えてい
る。
According to a first aspect of the present invention, a position measuring device for measuring a position of a device and a target position, a target attribute detecting device for detecting a target attribute from a feature amount and position information, and a plurality of neural networks which exist. From the net identification device,
The neural network selecting device for selecting the neural network identifying device including the detected target correction attribute region is provided.

【0008】また、第2の発明では、アスペクトを検出
するアスペクト検出装置と、複数存在するニューラルネ
ット識別装置の中から、検出されたアスペクト領域を含
むニューラルネット識別装置を選択するニューラルネッ
ト選択装置を備えている。
According to the second aspect of the present invention, there is provided an aspect detecting device for detecting an aspect and a neural net selecting device for selecting a neural net identifying device including a detected aspect region from a plurality of existing neural net identifying devices. I have it.

【0009】また、第3の発明では、目標までのレンジ
を検出するレンジ検出装置と、複数存在するニューラル
ネット識別装置の中から、検出されたレンジ領域を含む
ニューラルネット識別装置を選択するニューラルネット
選択装置を備えている。
According to the third aspect of the invention, a range detecting device for detecting a range to a target and a neural network identifying device including a detected range region are selected from a plurality of existing neural network identifying devices. Equipped with a selection device.

【0010】また、第4の発明では、目標のサイズを検
出するサイズ検出装置と、複数存在するニューラルネッ
ト識別装置の中から、検出されたサイズ領域を含むニュ
ーラルネット識別装置を選択するニューラルネット選択
装置を備えている。
According to the fourth aspect of the invention, a neural network selecting device for detecting a target size and a neural network identifying device for selecting a neural network identifying device including a detected size region from a plurality of existing neural net identifying devices are selected. It is equipped with a device.

【0011】また、第5の発明では、装置自身の位置と
目標の位置を計測する位置計測装置と、目標属性を検出
する目標属性検出装置と、目標のサイズを検出するサイ
ズ検出装置と、目標属性に基づき、ニューラルネット識
別装置を選択するニューラルネット選択装置とを備えて
いる。
Further, in the fifth invention, a position measuring device for measuring the position of the device itself and the position of the target, a target attribute detecting device for detecting the target attribute, a size detecting device for detecting the size of the target, and a target And a neural net selection device that selects a neural net identification device based on the attribute.

【0012】また、第6の発明では、装置自身の位置と
目標の位置を計測する位置計測装置と、特徴量と位置情
報から目標属性を検出する目標属性検出装置と、目標の
サイズを検出するサイズ検出装置と、目標補正属性領域
に基づき、ニューラルネット識別装置を選択するニュー
ラルネット選択装置と、目標別に学習したニューラルネ
ット・アスペクト識別装置とニューラルネットワークに
よるアスペクト検出装置を備えている。
Further, in the sixth invention, a position measuring device for measuring the position of the device itself and the position of the target, a target attribute detecting device for detecting the target attribute from the characteristic amount and position information, and the size of the target are detected. A size detection device, a neural network selection device that selects a neural network identification device based on a target correction attribute region, a neural net aspect identification device that has learned by target, and an aspect detection device that uses a neural network are provided.

【0013】[0013]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

実施の形態1 図1はこの発明による自動目標認識装置の実施の形態1
の全体構成図である。1〜8は従来と同様であり、9は
装置自身の位置および目標の位置を計測する位置計測装
置である。この発明による自動目標認識装置は上記1〜
9により構成される。
First Embodiment FIG. 1 is a first embodiment of an automatic target recognition apparatus according to the present invention.
FIG. 1 to 8 are the same as the conventional one, and 9 is a position measuring device for measuring the position of the device itself and the target position. The automatic target recognition device according to the present invention has
9.

【0014】位置計測装置9で装置の位置と姿勢角が出
力されることで、目標の距離、速度、加速度の検出手法
として次のような方法が挙げられる。まず目標との距離
は、目標が等速度で運動していれば、撮像装置の位置と
姿勢角と画像内の目標位置からパッシブレンジングの手
法を用いて距離を計測することができる。また、立体視
を用いた場合、2つの視点の間隔に精度は依存するが目
標との距離が計測でき、画像内での目標の軌跡から目標
の速度、加速度が計測できる。
The following method can be used as a method for detecting the target distance, velocity, and acceleration when the position measuring device 9 outputs the position and posture angle of the device. First, if the target is moving at a constant velocity, the distance from the target can be measured from the position and posture angle of the imaging device and the target position in the image using a passive ranging method. Further, when stereoscopic vision is used, the distance to the target can be measured although the accuracy depends on the distance between the two viewpoints, and the target velocity and acceleration can be measured from the target trajectory in the image.

【0015】目標属性検出装置5で、位置計測装置8か
ら位置情報を得て、目標の速度、加速度、レンジを計測
し、さらに特徴抽出装置3から特徴量と外部入力装置か
ら補正値が入力されることで、アスペクトを検出し、そ
の属性をニューラルネット選択装置6に入力する。アス
ペクトの検出手法としては、アスペクトによる目標の特
徴量の変化を利用し、目標が車両とか、航空機であると
いった、目標の種別が同じであれば、同じアスペクト領
域の目標形状は似ているので、目標の種別ごとに特徴量
をニューラルネットワーク で学習すると、アスペクト
領域を検出することができる。したがって、目標種別ご
とに学習したニューラルネットワークを目標属性検出装
置に備えることでアスペクトを検出することができる。
また、目標の進行方向からアスペクトを推定することも
可能である。
The target attribute detecting device 5 obtains position information from the position measuring device 8 to measure the target speed, acceleration, and range, and further, the feature amount is inputted from the feature extracting device 3 and the correction value is inputted from the external input device. By doing so, the aspect is detected, and its attribute is input to the neural network selection device 6. As the aspect detection method, the change in the feature amount of the target depending on the aspect is used, and if the target type is the same such as the target is a vehicle or an aircraft, the target shapes in the same aspect region are similar, Aspect regions can be detected by learning the features for each target type using a neural network. Therefore, the aspect can be detected by providing the target attribute detection device with the neural network learned for each target type.
It is also possible to estimate the aspect from the target traveling direction.

【0016】以上のように、位置検出装置と目標属性検
出装置を用いて、レーダ装置がある場合と同等の結果を
得ることになる。
As described above, by using the position detecting device and the target attribute detecting device, the same result as when the radar device is provided can be obtained.

【0017】実施の形態2 図2はこの発明による自動目標認識装置の実施の形態2
の構成図である。1〜4、6〜8は従来と同様であり、
10はアスペクト検出装置で、特徴抽出装置3から得ら
れた特徴量と外部入力装置から入力される目標種別か
ら、アスペクト領域を検出する装置である。この発明に
よる自動目標認識装置は上記1〜7、10により構成さ
れる。
Embodiment 2 FIG. 2 shows Embodiment 2 of the automatic target recognition apparatus according to the present invention.
FIG. 1 to 4 and 6 to 8 are the same as the conventional one,
An aspect detection device 10 is a device that detects an aspect region from the feature amount obtained from the feature extraction device 3 and the target type input from the external input device. The automatic target recognition apparatus according to the present invention is constituted by the above 1 to 7.

【0018】以下に、上記の自動目標識別装置の動作に
ついて説明する。外部入力装置4により航空機であると
か車両であるといった目標の種別を補正値として入力
し、実施の形態1と同様に、アスペクト検出装置により
補正アスペクト領域を検出する。7のニューラルネット
識別装置は、図8は目標の全アスペクト方向をいくつか
の領域に分割した図であるり、図8に示す1つのアスペ
クト量域内の目標に対して学習を行い1つのネットワー
クを作成し、1つのニューラルネットワークを作成し、
1つのニューラルネット識別装置を構成する。
The operation of the above automatic target identifying device will be described below. A target type such as an aircraft or a vehicle is input as a correction value by the external input device 4, and the corrected aspect area is detected by the aspect detection device as in the first embodiment. FIG. 8 is a diagram in which the entire aspect direction of the target is divided into several regions, or the neural net identification device of FIG. 7 learns the target within one aspect amount region shown in FIG. Create one neural network,
One neural net identification device is constructed.

【0019】実施の形態3 図3はこの発明による自動目標認識装置の実施の形態3
の構成図である。1〜4、6〜8は従来と同様であり、
4は外部入力装置で、補正値を出力し、11はレンジ検
出装置で、特徴抽出装置3から得られた特徴量と補正値
から、レンジ領域をニューラルネットにより検出する装
置である。この発明による自動目標認識装置は上記1〜
4、6〜8、11により構成される。
Third Embodiment FIG. 3 shows an automatic target recognition apparatus according to a third embodiment of the present invention.
FIG. 1 to 4 and 6 to 8 are the same as the conventional one,
Reference numeral 4 is an external input device, which outputs a correction value, and 11 is a range detection device, which is a device for detecting a range region by a neural network from the feature amount and the correction value obtained from the feature extraction device 3. The automatic target recognition device according to the present invention has
4, 6 to 8 and 11.

【0020】図9は目標のレンジを分割した図である。
外部入力装置により目標の種別を補正値として入力し、
目標の種別ごとに図で示すレンジ領域を出力するニュー
ラルネットワークをレンジ検出装置に作成する。
FIG. 9 is a diagram in which the target range is divided.
Input the target type as a correction value with an external input device,
A neural network that outputs the range area shown in the figure for each target type is created in the range detection device.

【0021】図11はレンジを検出するための特徴量の
一例である。距離だけが異なる同一目標を例にとると、
21で画像処理装置によって画像が二値化され、特徴抽
出装置の入力となり、22で目標の輪郭、重心を検出
し、23で対数極座標への変換を行う。距離の差が対数
方向のずれとなり23の段階の特徴量を学習させること
で、レンジ領域を出力するニューラルネットワークを作
成することができる。24のように対数軸方向のシフト
を行うと、画面内の大きさに不変な特徴量になる。
FIG. 11 shows an example of the characteristic amount for detecting the range. Taking the same goal with different distances as an example,
At 21 the image is binarized by the image processing device and is input to the feature extraction device, at 22 the target contour and center of gravity are detected, and at 23 the conversion into logarithmic polar coordinates is performed. It is possible to create a neural network that outputs the range region by learning the feature amount in 23 stages, where the difference in distance becomes a shift in the logarithmic direction. When the shift is made in the logarithmic axis direction like 24, the feature amount is invariant to the size in the screen.

【0022】実施の形態4 図4は本発明の実施の形態の一つの全体構成を表したも
のである。1〜4、6〜8は従来と同様であり、12は
サイズ検出装置で、画像処理装置装置2にて得られた二
値化画像から、目標サイズを検出する装置である。この
発明による自動目標認識装置は上記1〜4、6〜8、1
2により構成される。
Embodiment 4 FIG. 4 shows an overall configuration of an embodiment of the present invention. 1 to 4 and 6 to 8 are the same as the conventional ones, and 12 is a size detection device, which is a device for detecting a target size from a binarized image obtained by the image processing device 2. The automatic target recognition apparatus according to the present invention is the above-mentioned 1-4, 6-8, 1
2.

【0023】図10は目標を同一レンジで撮影する場合
と、同一サイズで撮影した場合の例である。図10
(a)は同じ距離から撮影した目標であり、画面内でそ
れぞれ目標の大きさは異なる。図10(b)は2つの目
標の距離を変えることで、画面内では目標の大きさが同
程度になっていることを示す。ニューラルネット識別装
置で認識させる目標を同じサイズに限ることで、識別す
る目標を大きさによる識別の低下に対応し、認識結果を
向上することができる。
FIG. 10 shows an example of shooting the target in the same range and a case of shooting the target in the same size. FIG.
(A) is a target photographed from the same distance, and the sizes of the targets are different on the screen. FIG. 10B shows that by changing the distance between the two targets, the sizes of the targets are almost the same in the screen. By limiting the targets to be recognized by the neural network identification device to the same size, it is possible to improve the recognition result by coping with the reduction of the identification targets due to the size.

【0024】実施の形態5 図5はこの発明による自動目標認識装置の実施の形態5
の構成図である。1〜8は従来の装置と同じであり、9
は実施の形態1と同じであり、12は実施の形態4と同
じ装置である。この発明による自動目標認識装置は上記
1〜9、12により構成される。
Embodiment 5 FIG. 5 shows Embodiment 5 of the automatic target recognition apparatus according to the present invention.
FIG. 1 to 8 are the same as the conventional device, and 9
Is the same as that of the first embodiment, and 12 is the same device as that of the fourth embodiment. The automatic target recognition device according to the present invention is constituted by the above 1 to 9 and 12.

【0025】実施の形態6 図6はこの発明による自動目標認識装置の実施の形態6
の構成図である。1〜8は従来の装置と同様であり、9
は実施の形態1と同じであり、11は実施の形態3と同
じであり、12は実施の形態4と同じ装置であり、13
は目標別に学習し、目標のアスペクトを答えるニューラ
ルネット・アスペクト識別装置。この発明による自動目
標認識装置は上記1〜9、11〜13により構成され
る。
Sixth Embodiment FIG. 6 shows a sixth embodiment of the automatic target recognition apparatus according to the present invention.
FIG. 1 to 8 are the same as the conventional device, and 9
Is the same as the first embodiment, 11 is the same as the third embodiment, 12 is the same device as the fourth embodiment, and 13
Is a neural network and aspect identification device that learns by target and answers the target aspect. The automatic target recognition device according to the present invention is constituted by the above 1-9, 11-13.

【0026】ここでは、ニューラルネット選択装置にて
目標補正属性領域に基づき、ニューラルネット・アスペ
クト識別装置を選択し、目標ごとに、アスペクト領域を
答えるニューラルネットワークを作成して学習および認
識をおこなう。選ばれたニューラルネット識別装置の出
力したアスペクト領域とアスペクト検出装置の出力を比
較し、同一アスペクト領域を出力したニューラルネット
識別装置が1つであれば、ニューラルネット識別装置の
示す目標が最終目標識別結果であり、複数であればもっ
とも出力の大きいものを最終目標識別結果とする。
Here, a neural network / aspect identification device is selected by the neural network selection device based on the target correction attribute region, and a neural network that answers the aspect region for each target is created for learning and recognition. The aspect area output from the selected neural network identification device and the output from the aspect detection device are compared. If there is one neural network identification device that outputs the same aspect area, the target indicated by the neural network identification device is the final target identification. If there are multiple results, the one with the largest output is the final target identification result.

【0027】[0027]

【発明の効果】以上のようにこの発明によると、レーダ
装置が不要になるため、電波障害や妨害画あっても自動
目標識別をすることができる。
As described above, according to the present invention, since the radar device is unnecessary, it is possible to automatically identify the target even if there is a radio interference or an interference image.

【0028】また、目標の全アスペクトをいくつかのア
スペクト領域に分割し、各領域内で学習を行うと、目標
の相違がはっきりし、認識を向上することができる。
Further, if the entire aspect of the target is divided into some aspect regions and learning is performed in each region, the difference in the target becomes clear and the recognition can be improved.

【0029】また、レンジによって目標の特徴量は、理
論的には不変と言われる手法でも実際には不変にならな
いことがあるために、レンジによって領域を分割して学
習することで、各レンジに対応した学習ができ、認識を
向上することができる。
In addition, the target feature quantity may not actually be invariable even by a method that is theoretically invariant depending on the range. Therefore, by dividing the region into regions and learning, It is possible to perform corresponding learning and improve recognition.

【0030】また、レンジの場合と同様にサイズによっ
て目標の特徴量は、理論的には不変と言われる手法でも
実際には不変にならないことがあるために、サイズによ
って領域を分割して学習することで、各サイズに対応し
た学習ができ、認識を向上することができる。
Further, as in the case of the range, the target feature quantity may not be actually changed even by a method which is theoretically invariable depending on the size. Therefore, the area is divided according to the size and learning is performed. Therefore, learning corresponding to each size can be performed, and recognition can be improved.

【0031】さらに、目標補正属性領域と補正サイズ領
域を組み合わせることによって、必要最小限のニューラ
ルネット識別装置を選択することができ、認識率を向上
することができる。
Further, by combining the target correction attribute area and the correction size area, it is possible to select the minimum necessary neural net identification device and improve the recognition rate.

【0032】最後に、ニューラルネット選択装置にて選
択したニューラルネット・アスペクト識別装置で目標の
属性領域内の1つの目標につき1つのニューラルネット
ワークで学習させることで、ネットワークの収束性を良
くし、かつ、新たな目標を学習させる際にも既に学習し
たネットワークをそのまま利用することができる。
Finally, the neural network aspect ratio discriminator selected by the neural net selector selects one neural network for each target in the target attribute region to improve the convergence of the network, and When learning a new goal, the already learned network can be used as it is.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施の形態1を示す自動目標認識
装置の構成図である。
FIG. 1 is a configuration diagram of an automatic target recognition apparatus showing a first embodiment of the present invention.

【図2】 この発明の実施の形態2を示す自動目標認識
装置の構成図である。
FIG. 2 is a configuration diagram of an automatic target recognition device showing a second embodiment of the present invention.

【図3】 この発明の実施の形態3を示す自動目標認識
装置の構成図である。
FIG. 3 is a configuration diagram of an automatic target recognition device showing a third embodiment of the present invention.

【図4】 この発明の実施の形態4を示す自動目標認識
装置の構成図である。
FIG. 4 is a configuration diagram of an automatic target recognition device showing a fourth embodiment of the present invention.

【図5】 この発明の実施の形態5を示す自動目標認識
装置の構成図である。
FIG. 5 is a configuration diagram of an automatic target recognition device showing a fifth embodiment of the present invention.

【図6】 この発明の実施の形態6を示す自動目標認識
装置の構成図である。
FIG. 6 is a configuration diagram of an automatic target recognition device showing a sixth embodiment of the present invention.

【図7】 従来の自動目標認識装置を示す構成図であ
る。
FIG. 7 is a block diagram showing a conventional automatic target recognition device.

【図8】 目標の全アスペクト方向をいくつかの領域に
分割した図である。
FIG. 8 is a diagram in which all target aspect directions are divided into several regions.

【図9】 目標のレンジをいくつかの領域に分割した図
である。
FIG. 9 is a diagram in which a target range is divided into several areas.

【図10】 同一レンジの2車両の画像と同一サイズの
車両の画像の図である。
FIG. 10 is a diagram of an image of a vehicle having the same size as an image of two vehicles having the same range.

【図11】 特徴抽出方法を示した構成図である。FIG. 11 is a configuration diagram showing a feature extraction method.

【符号の説明】[Explanation of symbols]

1 撮像装置 2 画像処理装置 3 特徴抽出装置 4 外部入力装置 5 目標属性検出装置 6 ニューラルネット選択装置 7 ニューラルネット識別装置 8 識別判定装置 9 位置計測装置 10 アスペクト検出装置 11 レンジ検出装置 12 サイズ検出装置 13 ニューラルネット・アスペクト識別装置 14 レーダ装置 15 航空機 16 全アスペクトを分割した領域の一部 17 全レンジを分割した一部 18 撮像装置 21 二値化画像 22 目標の輪郭 23 極座標マップ 24 シフトした極座標マップ 1 Imaging Device 2 Image Processing Device 3 Feature Extraction Device 4 External Input Device 5 Target Attribute Detection Device 6 Neural Net Selection Device 7 Neural Net Discrimination Device 8 Discrimination Judgment Device 9 Position Measurement Device 10 Aspect Detection Device 11 Range Detection Device 12 Size Detection Device 13 Neural Net Aspect Identification Device 14 Radar Device 15 Aircraft 16 Part of Region Divided All Aspects 17 Part of Divided Entire Range 18 Imaging Device 21 Binary Image 22 Target Contour 23 Polar Coordinate Map 24 Shifted Polar Coordinate Map

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 目標を撮影し、原画像を出力する撮像装
置と、前記撮像装置で作成された原画像が入力され、そ
の原画像を画像処理して作成した処理画像を出力する画
像処理装置と、前記画像処理装置で処理された処理画像
が入力され、処理画像から目標の特徴量を抽出し、それ
を出力する特徴抽出装置と、自分自身と撮影した目標の
位置情報を出力する位置計測装置と、ユーザが目標属性
を補正する補正値を入力し、その補正値を出力する外部
入力装置と、前記特徴抽出装置で抽出された目標の特徴
量と前記位置計測装置で出力された位置情報と前記外部
入力装置による補正値から目標のレンジやアスペクトな
どの目標補正属性領域を出力する目標属性検出装置と、
前記目標属性検出装置で検出された目標補正属性領域と
上記特徴抽出装置で抽出された目標の特徴量とが入力さ
れ、目標補正属性領域内の属性を含んだ特徴量を学習す
るネットワークにより構成されているニューラルネット
識別装置を選択し、選択したニューラルネット識別装置
に対して目標の特徴量を出力するニューラルネット選択
装置と、この入力された目標の特徴量を用いて、学習、
および認識を行ない、識別結果と出力値を出力する複数
のニューラルネット識別装置と、前記ニューラルネット
識別装置が複数個選択された場合は、各ニューラルネッ
ト識別装置で得られた出力値と識別結果が入力され、そ
れらの識別結果から最終的な目標の識別結果を判定して
最終目標識別結果を出力し、ニューラルネット識別装置
が1つ選択された場合は、その選択されたニューラルネ
ット識別装置の識別結果を最終的な目標の識別結果とし
て最終目標識別結果を出力する識別判定装置を備えてい
ることを特徴とする自動目標認識装置。
1. An image pickup apparatus for photographing a target and outputting an original image, and an image processing apparatus for inputting an original image created by the image pickup apparatus and for processing the original image to output a processed image created. And a processed image processed by the image processing device is input, a target feature amount is extracted from the processed image and is output, and a position measurement that outputs position information of the target imaged with itself. A device, an external input device for inputting a correction value by which a user corrects a target attribute, and outputting the correction value, a target feature amount extracted by the feature extraction device, and position information output by the position measuring device. And a target attribute detection device that outputs a target correction attribute region such as a target range or aspect from a correction value by the external input device,
The target correction attribute region detected by the target attribute detection device and the target feature amount extracted by the feature extraction device are input, and the network is configured to learn the feature amount including the attribute in the target correction attribute region. A neural network selecting device that outputs a target feature amount to the selected neural net identifying device, and learning using this input target feature amount.
And a plurality of neural net identification devices that perform identification and output identification results and output values, and when a plurality of the neural net identification devices are selected, the output values and identification results obtained by each neural net identification device are The final target identification result is judged from those input results, the final target identification result is output, and when one neural net identification device is selected, the identification of the selected neural network identification device is performed. An automatic target recognition device, comprising: an identification determination device that outputs a final target identification result as a final target identification result.
【請求項2】 外部入力装置で得られた補正値と前記特
徴抽出装置で抽出された目標の特徴量が入力され、補正
アスペクト領域を出力するアスペクト検出装置と、前記
アスペクト検出装置で検出された補正アスペクト領域と
上記特徴抽出装置で抽出された目標の特徴量とが入力さ
れ、補正アスペクト領域内の属性を含んだ特徴量を学習
するネットワークにより構成されている上記ニューラル
ネット識別装置を選択し、選択したニューラルネット識
別装置に対して目標の特徴量を出力するニューラルネッ
ト選択装置を備えていることを特徴とする請求項1記載
の自動目標認識装置。
2. An aspect detection device which receives a correction value obtained by an external input device and a target feature amount extracted by the feature extraction device and outputs a corrected aspect region, and an aspect detection device which detects the aspect ratio region. The correction aspect region and the target feature amount extracted by the feature extraction device are input, and the neural network identification device configured by a network that learns the feature amount including the attribute in the correction aspect region is selected, The automatic target recognition device according to claim 1, further comprising a neural network selection device that outputs a target feature amount to the selected neural network identification device.
【請求項3】 外部入力装置で得られた補正値と前記特
徴抽出装置で抽出された目標の特徴量が入力され、補正
レンジ領域を出力するレンジ検出装置と、前記レンジ検
出装置で出力された補正レンジ領域と上記特徴抽出装置
で抽出された目標の特徴量とが入力され、補正レンジ領
域内の属性を含んだ特徴量を学習するネットワークによ
り構成されている上記ニューラルネット識別装置を選択
し、選択したニューラルネット識別装置に対して目標の
特徴量を出力するニューラルネット選択装置を備えてい
ることを特徴とする請求項1記載の自動目標認識装置。
3. A correction value obtained by an external input device and a target feature amount extracted by the feature extraction device are input, and a range detection device that outputs a correction range region and an output by the range detection device. The correction range region and the target feature amount extracted by the feature extraction device are input, and the neural network identification device configured by a network that learns the feature amount including the attributes in the correction range region is selected, The automatic target recognition device according to claim 1, further comprising a neural network selection device that outputs a target feature amount to the selected neural network identification device.
【請求項4】 外部入力装置で得られた補正値と上記画
像処理装置により二値化された画像から目標の補正サイ
ズ領域を出力するサイズ検出装置と、前記サイズ検出装
置で出力された補正サイズ領域と上記特徴抽出装置で抽
出された目標の特徴量とが入力され、補正サイズ領域内
の属性を含んだ特徴量を学習するネットワークにより構
成されている上記ニューラルネット識別装置を選択し、
選択したニューラルネット識別装置に対して目標の特徴
量を出力するニューラルネット選択装置を備えているこ
とを特徴とする請求項1記載の自動目標認識装置。
4. A size detection device for outputting a target correction size region from a correction value obtained by an external input device and an image binarized by the image processing device, and a correction size output by the size detection device. The region and the target feature amount extracted by the feature extraction device are input, and the neural network identification device configured by a network that learns the feature amount including the attribute in the correction size region is selected,
The automatic target recognition device according to claim 1, further comprising a neural network selection device that outputs a target feature amount to the selected neural network identification device.
【請求項5】 上記位置計測装置と、上記ニューラルネ
ット属性検出装置と、上記サイズ検出装置と、ユーザが
目標属性を補正する補正値を入力し、その補正値を出力
する外部入力装置と、前記目標属性検出装置で検出され
た目標補正属性領域と前記サイズ検出装置で検出された
補正サイズ領域が入力され、入力された属性を含んだ特
徴量を学習するネットワークにより構成さている上記ニ
ューラルネット識別装置を選択し、選択したニューラル
ネット識別装置に対して目標の特徴量を出力するニュー
ラルネット選択装置を備えていることを特徴とする請求
項1記載の自動目標認識装置。
5. The position measuring device, the neural network attribute detecting device, the size detecting device, an external input device for inputting a correction value for a user to correct a target attribute, and outputting the correction value, The neural network identification device, which is configured by a network in which the target correction attribute region detected by the target attribute detection device and the correction size region detected by the size detection device are input, and which learns a feature amount including the input attribute 2. The automatic target recognition device according to claim 1, further comprising a neural net selection device that selects a target feature amount and outputs a target feature amount to the selected neural net identification device.
【請求項6】 上記位置計測装置と、上記ニューラルネ
ット属性検出装置と、上記サイズ検出装置と前記目標属
性検出装置で検出された目標補正属性領域と前記サイズ
検出装置で検出された補正サイズ領域が入力され、入力
された属性を含んだ特徴量を学習するネットワークによ
り構成さている上記ニューラルネット識別装置を選択
し、選択したニューラルネット識別装置に対して目標の
特徴量を出力するニューラルネット選択装置と、前記ニ
ューラルネット選択装置により入力された目標の特徴量
を用いて、目標別に学習、および認識を行ない、目標の
アスペクトを識別し、識別結果と出力値を出力する複数
のニューラルネット・アスペクト識別装置と、上記アス
ペクト検出装置と、前記ニューラルネット・アスペクト
識別装置の出力である識別結果と前記アスペクト検出装
置の出力である補正アスペクト領域を入力とし、最終目
標識別結果を出力する識別判定装置を備えていることを
特徴とする請求項1記載の自動目標認識装置。
6. The position measurement device, the neural network attribute detection device, the target correction attribute region detected by the size detection device and the target attribute detection device, and the correction size region detected by the size detection device. A neural network selection device that selects the above-mentioned neural net identification device that is configured by a network that learns a feature amount that is input and that includes the input attribute, and that outputs a target feature amount to the selected neural net identification device. , A plurality of neural network / aspect identification devices that perform learning and recognition for each target by using the feature amount of the target input by the neural net selection device, identify the target aspect, and output the identification result and the output value And the outputs of the aspect detection device and the neural network aspect identification device. 2. The automatic target recognition device according to claim 1, further comprising an identification determination device which inputs the identification result and the corrected aspect area output from the aspect detection device and outputs the final target identification result.
JP8097173A 1996-04-18 1996-04-18 Automatic target recognizing device Pending JPH09282460A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8097173A JPH09282460A (en) 1996-04-18 1996-04-18 Automatic target recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8097173A JPH09282460A (en) 1996-04-18 1996-04-18 Automatic target recognizing device

Publications (1)

Publication Number Publication Date
JPH09282460A true JPH09282460A (en) 1997-10-31

Family

ID=14185203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8097173A Pending JPH09282460A (en) 1996-04-18 1996-04-18 Automatic target recognizing device

Country Status (1)

Country Link
JP (1) JPH09282460A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020173720A (en) * 2019-04-12 2020-10-22 三菱電機株式会社 Image reading support system and image reading support program
CN112551364A (en) * 2020-11-20 2021-03-26 江阴市智行工控科技有限公司 Composite load position tracking anti-shaking control method based on variable structure neural network
JP2021512378A (en) * 2018-12-29 2021-05-13 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Anchor determination method and equipment, electronic devices and storage media
WO2022038757A1 (en) * 2020-08-21 2022-02-24 三菱電機株式会社 Target identification device, target identification method, and target identification program
KR20220129905A (en) * 2021-03-17 2022-09-26 삼성전자주식회사 Method and apparatus of tracking target objects and electric device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021512378A (en) * 2018-12-29 2021-05-13 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Anchor determination method and equipment, electronic devices and storage media
US11301726B2 (en) 2018-12-29 2022-04-12 Beijing Sensetime Technology Development Co., Ltd. Anchor determination method and apparatus, electronic device, and storage medium
JP2020173720A (en) * 2019-04-12 2020-10-22 三菱電機株式会社 Image reading support system and image reading support program
WO2022038757A1 (en) * 2020-08-21 2022-02-24 三菱電機株式会社 Target identification device, target identification method, and target identification program
CN112551364A (en) * 2020-11-20 2021-03-26 江阴市智行工控科技有限公司 Composite load position tracking anti-shaking control method based on variable structure neural network
CN112551364B (en) * 2020-11-20 2021-07-02 江阴市智行工控科技有限公司 Composite load position tracking anti-shaking control method based on variable structure neural network
KR20220129905A (en) * 2021-03-17 2022-09-26 삼성전자주식회사 Method and apparatus of tracking target objects and electric device
US11790541B2 (en) 2021-03-17 2023-10-17 Samsung Electronics Co., Ltd. Method and apparatus with target object tracking

Similar Documents

Publication Publication Date Title
US20210191524A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
CN101271333B (en) Localization method for a moving robot
CN112883819A (en) Multi-target tracking method, device, system and computer readable storage medium
CN106548451A (en) A kind of car passenger flow crowding computational methods and device
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
CN111652914A (en) Multi-sensor target fusion and tracking method and system
CN104471436B (en) The method and apparatus of the variation of imaging scale for computing object
CN102013007B (en) For detecting the apparatus and method of face
US7006694B1 (en) System and method for pattern identification
CN109344758B (en) Face recognition method based on improved local binary pattern
JPH09282460A (en) Automatic target recognizing device
US5572595A (en) Method of detecting the location of a human being in three dimensions
CN108388854A (en) A kind of localization method based on improvement FAST-SURF algorithms
CN116147618B (en) Real-time state sensing method and system suitable for dynamic environment
JP4745966B2 (en) Automatic target identification system
JP3251840B2 (en) Image recognition device
JPH09152480A (en) Automatic target recognition apparatus
Hadi et al. Fusion of thermal and depth images for occlusion handling for human detection from mobile robot
Mitsudome et al. Autonomous mobile robot searching for persons with specific clothing on urban walkway
JP2693586B2 (en) Image identification / tracking device
JP4412799B2 (en) Aircraft aiming point calculation apparatus and method
JP2983080B2 (en) Object recognition processing method
JPH0624035B2 (en) Driving path identification device
CN113793371A (en) Target segmentation tracking method and device, electronic equipment and storage medium
JPH03238566A (en) Vanishing point detection device