JPH09329659A - Target discrimination device - Google Patents

Target discrimination device

Info

Publication number
JPH09329659A
JPH09329659A JP14627896A JP14627896A JPH09329659A JP H09329659 A JPH09329659 A JP H09329659A JP 14627896 A JP14627896 A JP 14627896A JP 14627896 A JP14627896 A JP 14627896A JP H09329659 A JPH09329659 A JP H09329659A
Authority
JP
Japan
Prior art keywords
target
information
data
shape
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP14627896A
Other languages
Japanese (ja)
Other versions
JP3314858B2 (en
Inventor
Yasuo Ota
泰男 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP14627896A priority Critical patent/JP3314858B2/en
Publication of JPH09329659A publication Critical patent/JPH09329659A/en
Application granted granted Critical
Publication of JP3314858B2 publication Critical patent/JP3314858B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a target discrimination device capable of accurately discriminating a target. SOLUTION: This device is provided with a preprocessing part 12 cutting out the shape of target from digital image data coming from an image input part 11 and extracting the photographing shape data, a three dimensional data memory 13 storing the three dimensional data of target candidates, a target cross section calculation part 14 calculating the azimuth of the target position from the relative position relation between a camera at the photographing time obtained via a photographing situation data input line 17 and the photographed target and calculating a cross section shape of the observed target from the azimuth angle based on the three dimensional data, and a comparison and discrimination part 15 discriminating the target by comparing the photographed shape data of the target from the preprocessing part 12 with the cross section shape calculated by the target cross section calculation part 14. By comparing the target silhouette for the case the target is seen from the position rotated for the depression angle of the camera, and the target silhouette actually photographed, the target is identified.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、光学カメラおよ
びビデオカメラ等の撮像手段で撮影した画像に映し出さ
れる目標を判別する目標判別装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a target discriminating apparatus for discriminating a target shown in an image taken by an image pickup means such as an optical camera and a video camera.

【0002】[0002]

【従来の技術】従来から撮像データに含まれる文字や物
体等判別対象となる目標を原データとの形状のマッチン
グを行うことで、目標の認識を行う様々な装置が提供さ
れている。例えば、図11は、「電子情報通信学会技術
研究報告」(Vol.92 No.433、1993年
1月21日)に示された従来の画像認識をする文字認識
装置の構成図である。図11に示した装置は、画像入力
線6から文字の入力をする文字切り出し部1と、雑音除
去等の処理を行う前処理部2と、切り出した文字の特徴
量を抽出する特徴抽出部3と、文字の原データとなる文
字形状情報を記憶するマッチングパターン記憶部4と、
マッチングパターン記憶部4に記憶されている文字形状
情報に基づいて文字の識別を行いその結果を判別結果出
力線7から出力する識別部5と、を有している。
2. Description of the Related Art Conventionally, various devices have been provided for recognizing a target, such as a character or an object included in image pickup data, by matching the shape of the target with the original data. For example, FIG. 11 is a block diagram of a conventional character recognition device for image recognition shown in "Technical Research Report of Institute of Electronics, Information and Communication Engineers" (Vol. 92 No. 433, January 21, 1993). The apparatus shown in FIG. 11 includes a character cutout unit 1 for inputting a character from an image input line 6, a preprocessing unit 2 for performing processing such as noise removal, and a feature extraction unit 3 for extracting a feature amount of the cutout character. And a matching pattern storage unit 4 that stores character shape information that is original data of characters,
The matching pattern storage unit 4 identifies a character based on the character shape information and outputs the result from the determination result output line 7.

【0003】次に、この装置における動作について説明
する。
Next, the operation of this apparatus will be described.

【0004】認識を行おうとする目標である文字は、文
字切り出し部1で各文字毎に仕切られ入力され、前処理
部2に送られる。前処理部2では、入力された文字の雑
音除去、大きさの正規化等の処理を行い、特徴抽出部3
に送る。特徴抽出部3では、前処理後の文字の輪郭線の
抽出と、各輪郭線の方向指数の計数等を行い、算出した
文字の特徴量を識別部5に送る。識別部5では、送られ
た文字の特徴量を識別関数で算出して判別を行い、最も
近い文字を選択し別結果として出力する。
Characters to be recognized are partitioned and input for each character by the character slicing unit 1 and sent to the preprocessing unit 2. The pre-processing unit 2 performs noise removal of input characters, normalization of size, etc., and the feature extraction unit 3
Send to The feature extraction unit 3 extracts the contour line of the preprocessed character, counts the direction index of each contour line, and sends the calculated feature amount of the character to the identification unit 5. The identification unit 5 calculates the characteristic amount of the sent character by an identification function to make a determination, selects the closest character, and outputs it as another result.

【0005】また、運動する目標物体を識別する目標識
別装置は、特開平7−174837号公報に開示されて
いる。
A target identifying device for identifying a moving target object is disclosed in Japanese Patent Application Laid-Open No. 7-174837.

【0006】[0006]

【発明が解決しようとする課題】従来の目標判別装置は
以上のように構成されているので、画像に映し出された
判別対象の目標がぼやけることなくはっきりと映し出さ
れていなければならず、遠方から撮影した目標等を判別
する際の精度が良くなかった。また、判別には目標の外
形パターンを用いているため、目標を写した角度により
形状が変化してしまうこともあり、更には形状が似通っ
た目標に対して判別が極めて困難になるなどの問題点が
あった。
Since the conventional target discriminating apparatus is constructed as described above, the target to be discriminated to be discriminated in the image must be clearly projected without blurring, and from a distance. The accuracy in determining the shooting target was not good. In addition, since the outer shape of the target is used for the determination, the shape may change depending on the angle at which the target is imaged, and further, it becomes extremely difficult to perform the determination for the targets having similar shapes. There was a point.

【0007】本発明は以上のような問題を解決するため
になされたものであり、その目的は、目標の見かけの方
位による外形の変化、撮像手段のピントボケ、あるいは
遠方からの撮影により画像がぼやけてしまっている場合
であっても目標の判別を高精度に行うことのできる目標
判別装置を提供することにある。
The present invention has been made to solve the above problems, and its object is to blur an image due to a change in outer shape depending on the apparent azimuth of the target, out-of-focus of the image pickup means, or photographing from a distance. An object of the present invention is to provide a target discriminating apparatus capable of discriminating a target with high accuracy even when the target has been exhausted.

【0008】また、撮影した目標の候補として、外形の
類似した目標が存在するとき、それらの目標同士の判別
を可能にする目標判別装置を提供することにある。
It is another object of the present invention to provide a target discriminating device which can discriminate between targets having similar outer shapes as candidates for the photographed targets.

【0009】[0009]

【課題を解決するための手段】以上の目的を達成するた
めに、本発明に係る目標判別装置は、撮像手段により撮
影された画像に映し出される目標を判別する目標判別装
置において、前記撮像手段により撮像された目標の撮像
形状データを得る目標形状データ抽出手段と、目標候補
の3次元データを記憶する目標形状データ記憶手段と、
撮影時における前記撮像手段と目標の位置関係から目標
が位置する方位を算出し、その方位角度から目標を見た
ときの断面形状を前記目標形状データ記憶手段に記憶し
た3次元データに基づいて算出する目標断面算出手段
と、前記目標形状データ抽出手段が抽出した目標の撮像
形状データと、前記目標断面算出手段が算出した断面形
状と、を比較することで目標を判別する比較判別手段
と、を有することを特徴とする。
In order to achieve the above-mentioned object, a target discriminating apparatus according to the present invention is a target discriminating apparatus for discriminating a target displayed in an image photographed by an image pickup means. Target shape data extraction means for obtaining imaged shape data of the imaged target, target shape data storage means for storing three-dimensional data of target candidates,
The azimuth at which the target is located is calculated from the positional relationship between the image pickup means and the target at the time of shooting, and the cross-sectional shape when the target is viewed from the azimuth angle is calculated based on the three-dimensional data stored in the target shape data storage means. A target cross-section calculation means, a target imaging shape data extracted by the target shape data extraction means, and a cross-sectional shape calculated by the target cross-section calculation means. It is characterized by having.

【0010】また、前記比較判別手段は、前記目標断面
算出手段が算出した断面形状に含まれる特有形状と、そ
の特有形状に対応する前記目標データ抽出手段で抽出し
た目標の撮像形状データに含まれる特有形状と、を更に
比較することを特徴とする。更に、その特有形状は、突
起であることを特徴とする。
Further, the comparison / discrimination means is included in the specific shape included in the cross-sectional shape calculated by the target cross-section calculating means and the target imaging shape data extracted by the target data extracting means corresponding to the specific shape. The characteristic shape is further compared. Furthermore, the peculiar shape is characterized in that it is a protrusion.

【0011】また、他の発明は、撮像手段により撮影し
た画像に映し出される目標を判別する目標判別装置にお
いて、前記撮像手段と同時に同一目標に関する支援デー
タを検出する支援データ検出手段と、前記撮像手段によ
り撮像された目標の撮像形状データを得る目標形状デー
タ抽出手段と、前記支援データ検出手段により支援デー
タに基づいて目標判別支援情報を生成する支援情報生成
手段と、目標候補の形状データ及び目標候補の特徴事項
に関する目標特定情報を記憶する目標情報記憶手段と、
前記目標の撮像形状データと前記目標候補の形状データ
との比較結果並びに前記目標判別支援情報と前記目標特
定情報との比較結果に基づいて目標を判別する比較判別
手段と、を有し、目標の撮像形状データかつ目標支援情
報に基づいて目標の判別を行うことを特徴とする。
According to another aspect of the present invention, in a target discriminating apparatus for discriminating a target displayed in an image photographed by the image pickup means, at the same time as the image pickup means, assistance data detection means for detecting assistance data relating to the same target; Target shape data extraction means for obtaining the imaged shape data of the target imaged by means, support information generation means for generating target discrimination support information based on the support data by the support data detection means, shape data of target candidates and target candidates Target information storage means for storing target specifying information relating to the characteristic items of
A comparison determination unit that determines a target based on a comparison result between the target imaging shape data and the target candidate shape data and a comparison result between the target determination support information and the target specifying information; It is characterized in that the target is discriminated based on the imaging shape data and the target support information.

【0012】また、上記他の発明において、前記支援情
報生成手段は、前記支援データ検出手段による目標を写
した赤外線画像に基づいて抽出された目標の熱源位置を
目標判別支援情報として求める熱源位置特定手段を有
し、前記目標情報記憶手段は、目標候補の熱源位置を目
標特定情報として記憶し、前記比較判別手段は、前記支
援情報生成手段が生成した目標の熱源位置と、前記目標
情報記憶手段が記憶する目標候補の熱源位置とを比較す
ることを特徴とする。
Further, in the above-mentioned other invention, the support information generation means obtains the heat source position of the target extracted based on the infrared image of the target by the support data detection means as the target discrimination support information. Means, the target information storage means stores the heat source position of the target candidate as target specifying information, and the comparison and determination means, the target heat source position generated by the support information generation means, and the target information storage means. Is compared with the heat source position of the target candidate stored by.

【0013】また、上記他の発明において、前記支援情
報生成手段は、前記支援データ検出手段による目標を写
した撮像データに基づいて得た目標までの測距データか
ら目標寸法を目標判別支援情報として算出する目標寸法
算出部を有し、前記目標情報記憶手段は、目標候補の寸
法情報を目標特定情報として記憶し、前記比較判別手段
は、前記支援情報生成手段が算出した目標の寸法と、前
記目標情報記憶手段が記憶する目標候補の寸法情報とを
比較することを特徴とする。
Further, in the above-mentioned other invention, the support information generation means uses the target dimension as the target determination support information from the distance measurement data to the target obtained based on the imaging data obtained by copying the target by the support data detection means. A target dimension calculation unit for calculating, the target information storage unit stores the target candidate size information as target specifying information, and the comparison and determination unit, the target size calculated by the support information generation unit; It is characterized in that the size information of the target candidate stored in the target information storage means is compared.

【0014】また、上記他の発明において、前記支援情
報生成手段は、地誌情報と座標情報とを記憶する地誌デ
ータ記憶部と、前記支援データ検出手段による目標を写
した撮像データと前記地誌データ記憶部に記憶した情報
との比較により得られた目標の位置情報を目標判別支援
情報として生成する地誌判定部と、を有し、前記目標情
報記憶手段は、目標候補に関する地誌情報を目標特定情
報として記憶し、前記比較判別手段は、前記支援情報生
成手段が算出した目標の位置情報と、前記目標情報記憶
手段が記憶する目標候補の地誌情報とを比較することを
特徴とする。
Further, in the above-mentioned other invention, the support information generating means includes a geographic data storage section for storing geographic information and coordinate information, image pickup data showing a target by the support data detecting means and the geographic data storage. A topographical information determination means for generating target position information obtained as a result of comparison with the information stored in the division as target determination support information, and the target information storage means uses topographical information regarding target candidates as target identification information. The comparison determination means stores the target position information calculated by the support information generation means and the target candidate topographical information stored in the target information storage means.

【0015】また、上記他の発明において、前記支援情
報生成手段は、目標が搭載しうる電子機器の諸元データ
とを記憶する電子機器諸元データ記憶部と、前記支援デ
ータ検出手段により検出した目標が放射する電波データ
と前記電子機器諸元データ記憶部に記憶した諸元データ
に基づいて特定した目標の搭載電子機器を目標判別支援
情報として生成する搭載電子機器判定部と、を有し、前
記目標情報記憶手段は、目標候補が搭載する電子機器を
目標特定情報として記憶し、前記比較判別手段は、前記
支援情報生成手段が算出した目標の搭載電子機器と、前
記目標情報記憶手段が記憶する目標候補の電子機器とを
比較することを特徴とする。
Further, in the above-mentioned other invention, the support information generating means is detected by an electronic equipment specification data storage section for storing specification data of an electronic equipment which can be mounted on the target, and the support data detecting means. A radio wave data radiated by a target and a mounted electronic device determination unit that generates a target mounted electronic device identified based on the specification data stored in the electronic device specification data storage unit as target determination support information, The target information storage means stores an electronic device mounted on a target candidate as target specifying information, and the comparison and determination means stores the target mounted electronic device calculated by the support information generation means and the target information storage means. It is characterized in that it is compared with an electronic device of a target candidate to be set.

【0016】また、撮像手段により撮影した画像に映し
出される目標を判別する目標判別装置において、前記撮
像手段により撮像された目標の撮像形状データを得る目
標形状データ抽出手段と、各目標候補の速度性能情報を
記憶する速度性能諸元データ記憶手段と、前記撮像手段
と同時に検出した同一目標に対する速度データと、前記
速度性能諸元データ記憶手段が記憶する速度性能情報と
の比較により判別されうる目標候補を選別する目標速度
性能選別手段と、目標候補の形状データを記憶する目標
形状データ記憶手段と、前記目標形状データ記憶手段に
記憶された形状データのうち前記目標速度性能選別手段
が選別した目標候補に対する形状データと、前記目標形
状データ抽出手段が抽出した目標の撮像形状データと、
を比較することで目標を判別する比較判別手段と、を有
することを特徴とする。
Further, in the target discriminating apparatus for discriminating the target displayed in the image photographed by the image pickup means, the target shape data extracting means for obtaining the image pickup shape data of the target photographed by the image pickup means and the speed performance of each target candidate. Speed performance specification data storage means for storing information, speed data for the same target detected at the same time as the imaging means, and target candidates that can be determined by comparison with speed performance information stored in the speed performance specification data storage means. Target speed performance selecting means for selecting the target speed performance selecting means, target shape data storing means for storing shape data of target candidates, and target candidates selected by the target speed performance selecting means from the shape data stored in the target shape data storing means. Shape data for the target imaging shape data extracted by the target shape data extracting means,
And a comparison / determination unit that determines the target by comparing

【0017】更に、撮像手段により撮影した画像に映し
出される目標を判別する目標判別装置において、目標候
補の形状データ及びその目標候補が取る隊形、陣形等に
関する隊形配置情報を記憶する目標情報記憶手段と、目
標候補が取りうる隊形、陣形等の隊形配置情報を記憶す
る目標配置データ記憶手段と、前記撮像手段により撮像
された複数の目標の各撮像形状データを得る目標形状デ
ータ抽出手段と、前記撮像手段により撮像された複数の
目標の配置状況を得る目標配置検出手段と、前記目標配
置検出手段が得た配置状況に対応する隊形配置情報を前
記目標配置データ記憶手段に記憶された隊形配置情報の
中から特定する目標配置判定手段と、前記目標の撮像形
状データと前記目標候補の形状データとの比較結果並び
に前記目標配置判定手段が特定した隊形配置情報と前記
目標情報記憶手段が記憶した隊形配置情報との比較結果
に基づいて目標を判別する比較判別手段と、を有するこ
とを特徴とする。
Further, in a target discriminating device for discriminating a target displayed in an image photographed by the image pickup means, a target information storage means for storing shape data of the target candidate and formation formation information regarding the formation, formation etc. taken by the target candidate. , Target formation data storage means for storing formation formation information such as formations and formations that the target candidate can take; target shape data extraction means for obtaining each image pickup shape data of a plurality of targets imaged by the image pickup means; Target formation detecting means for obtaining the arrangement situation of a plurality of targets imaged by means, and formation formation information corresponding to the arrangement situation obtained by the target arrangement detecting means of formation formation information stored in the target arrangement data storage means. A target placement determining unit that identifies the target placement shape, a comparison result of the target imaging shape data and the target candidate shape data, and the target placement determination Means and having a comparison discriminating means for discriminating a target based on a result of comparison between the identified formation arrangement information and the formation location information target information storage means is stored.

【0018】[0018]

【発明の実施の形態】以下、図面に基づいて、本発明の
好適な実施の形態について説明する。なお、各実施の形
態において同様の要素には同じ符号を付け、重複する場
合はその説明を省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described below with reference to the drawings. Note that, in each embodiment, the same reference numerals are given to the same elements, and the description thereof will be omitted when they overlap.

【0019】実施の形態1.図1は、本発明に係る目標
判別装置の第1の実施の形態を示したブロック構成図で
ある。図1に示した装置は、画像入力部11、前処理部
12、3次元データ記憶部13、目標断面算出部14及
び比較判別部15とで構成される。画像入力部11は、
光学カメラあるいはビデオカメラ等図示しない撮像手段
で撮影した目標の撮像データを画像入力線16を介して
ディジタルデータとして入力する画像データ入力手段で
ある。前処理部12は、入力した画像から目標の領域つ
まり目標の形状を切り取り目標の撮像形状データを抽出
する目標データ抽出手段であり、画像入力部11ととも
に目標形状データ抽出手段を形成する。3次元データ記
憶部13は、目標候補の3次元データを記憶する目標形
状データ記憶手段である。目標断面算出部14は、撮影
状況データ入力線17を介して得た撮影時における撮像
手段と撮像された目標との相対位置関係を表すデータか
ら目標が位置する方位を算出し、その方位角度から目標
を見たときの断面形状を3次元データに基づいて算出す
る目標断面算出手段である。比較判別部15は、前処理
部12からの目標の撮像形状データと、目標断面算出部
14が算出した断面形状とを比較することで目標を判別
する比較判別手段であり、その判別結果を判別結果出力
線18から出力する。
Embodiment 1 FIG. 1 is a block diagram showing a first embodiment of a target discriminating apparatus according to the present invention. The apparatus shown in FIG. 1 includes an image input unit 11, a preprocessing unit 12, a three-dimensional data storage unit 13, a target cross-section calculation unit 14, and a comparison determination unit 15. The image input unit 11
It is an image data input means for inputting target image pickup data photographed by an image pickup means (not shown) such as an optical camera or a video camera as digital data through the image input line 16. The preprocessing unit 12 is a target data extraction unit that cuts out a target region, that is, a target shape from the input image, and extracts target imaging shape data, and forms a target shape data extraction unit together with the image input unit 11. The three-dimensional data storage unit 13 is a target shape data storage unit that stores three-dimensional data of target candidates. The target cross-section calculation unit 14 calculates the azimuth at which the target is located from the data representing the relative positional relationship between the imaging means and the imaged target at the time of shooting, which is obtained through the shooting situation data input line 17, and from the azimuth angle. It is a target cross-section calculation means for calculating the cross-sectional shape when the target is viewed based on the three-dimensional data. The comparison determination unit 15 is a comparison determination unit that determines the target by comparing the target imaging shape data from the preprocessing unit 12 and the cross-sectional shape calculated by the target cross-section calculation unit 14, and determines the determination result. The result is output from the output line 18.

【0020】本実施の形態において特徴的なことは、目
標の形状を比較する情報として目標の断面形状すなわち
シルエットを用いることである。すなわち、撮像した目
標のシルエットと、目標を撮像したカメラの俯角に基づ
いて回転させた位置から見た場合の目標の原データであ
る3次元データのシルエットとを比較するようにしたの
で、目標の見る角度によって目標の形状が異なって見え
るような場合でも正しく目標が何であるかを判別するこ
とができる。
A feature of this embodiment is that the target cross-sectional shape, that is, the silhouette is used as information for comparing the target shapes. That is, since the silhouette of the imaged target is compared with the silhouette of the three-dimensional data that is the original data of the target when viewed from the position rotated based on the depression angle of the camera that captured the target, Even when the shape of the target looks different depending on the viewing angle, it is possible to correctly determine what the target is.

【0021】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0022】まず、撮像手段であるカメラにより目標を
撮影した映像を、画像入力線16から画像入力部11へ
入力する。画像入力部11では、入力された画像をディ
ジタルデータに変換し、1枚の画像として前処理部12
に伝送する。前処理部12では、ディジタル画像の中か
ら、判別を行う目標の領域すなわち目標の形状を切り出
すための処理を行う。ここでは、濃度変換、雑音除去等
の一般的な画像処理を行った上で、対象目標の領域を自
動あるいは手動で切り出す。切り出した領域は、比較判
別部15に送られる。この抽出処理は、従来からある方
法を利用して行えばよい。
First, a video image of a target taken by a camera which is an image pickup means is input to the image input section 11 from the image input line 16. In the image input unit 11, the input image is converted into digital data and the pre-processing unit 12 converts it into one image.
To be transmitted. The pre-processing unit 12 performs processing for cutting out a target area to be discriminated, that is, a target shape from the digital image. Here, general image processing such as density conversion and noise removal is performed, and then the target target area is cut out automatically or manually. The cut-out area is sent to the comparison / determination unit 15. This extraction process may be performed using a conventional method.

【0023】一方、目標を撮影した時のカメラと目標の
相対位置関係を表すデータを、撮影状況データ入力線1
7から目標断面算出部14へ入力する。目標断面算出部
14では、入力された撮影状況データである方位角度に
基づいて、3次元データ記憶部13に記憶しておいた各
目標候補の3次元データを回転させて目標の断面形状を
算出する。このように、目標を撮影した角度により変化
する目標の外形に対応した断面形状つまりマッチングパ
ターンをそれぞれ算出する。算出したマッチングパター
ンは、比較判別部15に伝送する。
On the other hand, data representing the relative positional relationship between the camera and the target when the target is photographed is obtained by the photographing condition data input line 1
It inputs from 7 to the target section calculation part 14. The target cross-section calculation unit 14 calculates the cross-sectional shape of the target by rotating the three-dimensional data of each target candidate stored in the three-dimensional data storage unit 13 based on the azimuth angle that is the input shooting situation data. To do. In this way, the cross-sectional shape, that is, the matching pattern, corresponding to the target outer shape that changes depending on the angle at which the target is photographed is calculated. The calculated matching pattern is transmitted to the comparison / determination unit 15.

【0024】比較判別部15では、前処理部12から送
られる実際に撮像された目標に基づいて得た撮像形状デ
ータと、目標断面算出部14から送られる原データに基
づいて得たマッチングパターンとを比較し、その形状が
最も近いと判断できるマッチングパターンの目標候補を
判別結果として判別結果出力線18から出力する。
In the comparison / discrimination unit 15, the imaging shape data obtained based on the actually imaged target sent from the preprocessing unit 12 and the matching pattern obtained based on the original data sent from the target section calculation unit 14 And a target candidate of a matching pattern whose shape can be determined to be the closest is output from the determination result output line 18 as a determination result.

【0025】以上のようにして、本実施の形態によれ
ば、実際に撮像した目標のシルエットを、目標を撮像し
た方位角度に基づいて回転させた位置から見た場合の目
標候補のシルエットと比較するようにしたので、目標の
見る角度によって目標の形状が異なって見えるような場
合でも正しく目標が何であるかを判別することができ
る。
As described above, according to the present embodiment, the silhouette of the target actually captured is compared with the silhouette of the target candidate when viewed from the position rotated based on the azimuth angle at which the target was captured. Therefore, even when the shape of the target looks different depending on the viewing angle of the target, it is possible to correctly determine what the target is.

【0026】実施の形態2.上記実施の形態1では、撮
像した目標のシルエット全体と、算出して得た目標候補
のシルエット全体とを比較して、目標の判別を行ってい
た。本実施の形態においては、更にシルエットの特有形
状部分を更に比較することでより高精度に目標の判別を
行うことを特徴としている。
Embodiment 2 FIG . In the above-described first embodiment, the target is determined by comparing the entire captured silhouette of the target with the entire calculated silhouette of the target candidate. The present embodiment is characterized in that the target is discriminated with higher accuracy by further comparing the characteristic shapes of the silhouettes.

【0027】図2は、本発明に係る目標判別装置の第2
の実施の形態を示したブロック構成図である。本実施の
形態においては、更に、比較判別手段の一部として、目
標断面算出部14が算出した断面形状に含まれる特有形
状と、その特有形状に対応する前処理部12が抽出した
目標の撮像形状データに含まれる特有形状とを更に比較
する特有形状判定部21とを設け、比較判別部25は、
シルエットの比較のみならず特有形状判定部21による
判定結果をも考慮することを特徴としている。本実施の
形態においては、目標の構造上の特徴を示す特有形状と
して突起の場合で説明するが、シルエット全体の比較に
加えてシルエットが持つ突起数をも比較することで判別
の確度を向上させることができる。
FIG. 2 shows a second target discriminating apparatus according to the present invention.
It is a block diagram showing an embodiment of. In the present embodiment, as a part of the comparison / discrimination means, the specific shape included in the cross-sectional shape calculated by the target cross-section calculating unit 14 and the target imaging extracted by the preprocessing unit 12 corresponding to the specific shape. A unique shape determination unit 21 that further compares the unique shape included in the shape data is provided.
The feature is that not only the comparison of silhouettes but also the determination result by the unique shape determination unit 21 is considered. In the present embodiment, the case where the protrusions are described as the peculiar shape showing the target structural feature is explained, but the accuracy of the discrimination is improved by comparing the number of protrusions of the silhouette in addition to the comparison of the entire silhouettes. be able to.

【0028】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0029】まず、前処理部12が目標の撮像形状デー
タを抽出するまでの処理並びに目標断面算出部14の処
理は、上記実施の形態1と同じであるが、本実施の形態
においては、前処理部12が抽出したディジタルデータ
を比較判別部25のみならず特有形状判定部21にも送
られる。
First, the process until the preprocessing unit 12 extracts the target imaging shape data and the process of the target section calculation unit 14 are the same as those in the first embodiment, but in this embodiment, The digital data extracted by the processing unit 12 is sent not only to the comparison determination unit 25 but also to the unique shape determination unit 21.

【0030】特有形状判定部21は、前処理部12から
送られた目標形状データから突起物の数を算定する。ま
た、目標断面算出部14から送られた断面形状から同様
の算定法方で突起物の数を算定する。目標を撮像した方
位角度に基づいて回転させた位置から見た場合の目標の
断面形状に基づいて突起数を算定し、かつその算定を目
標形状データの場合と同一の算定方法を用いることで突
起としての認定に差はでない。
The unique shape determination unit 21 calculates the number of protrusions from the target shape data sent from the preprocessing unit 12. Further, the number of protrusions is calculated from the cross-sectional shape sent from the target cross-section calculation unit 14 by the same calculation method. By calculating the number of protrusions based on the target cross-sectional shape when viewed from the position rotated based on the azimuth angle at which the target was imaged, and by using the same calculation method as that for the target shape data There is no difference in the certification as.

【0031】比較判別部25では、前処理部12から送
られてくる撮像形状データと、目標断面算出部14から
送られる断面形状とを比較する前に、各比較対象となる
データの突起数を比較する。この突起数の比較した結
果、同数あるいは予め設定された許容範囲内の差の数で
なければ、比較対象とされている目標候補は、撮像され
た目標ではないと判定する。そして、目標でないと判定
されなかった目標候補のみの断面形状と撮像形状データ
とを比較し、その形状が最も近いと判断できる断面形状
つまりマッチングパターンの目標候補を判別結果として
判別結果出力線18から出力する。
The comparison / determination unit 25 determines the number of protrusions of each data to be compared before comparing the imaging shape data sent from the preprocessing unit 12 with the sectional shape sent from the target section calculation unit 14. Compare. As a result of the comparison of the numbers of protrusions, if the number is not the same or the number of differences within the preset allowable range, it is determined that the target candidate to be compared is not the imaged target. Then, the sectional shape of only the target candidate that has not been determined to be not the target is compared with the imaging shape data, and the sectional shape, that is, the matching pattern target candidate whose shape can be determined to be the closest, is determined as the determination result from the determination result output line 18. Output.

【0032】以上のようにして、本実施の形態によれ
ば、目標構造上の特徴を表す突起の数の比較をして目標
候補のマッチングパターンを選択して目標候補を絞り込
んだ上でシルエット全体の比較を行うようにしたので、
外形が似通った判別のしにくい目標等においても精度良
く判別することができる。また、突起数を先に比較する
ことで目標判別に行う全体の処理時間も短縮することが
できる。
As described above, according to the present embodiment, the number of protrusions representing the features of the target structure is compared, the matching pattern of the target candidates is selected, the target candidates are narrowed down, and the entire silhouette is calculated. Since I tried to compare
It is possible to accurately determine even a target or the like having a similar outer shape and difficult to determine. Further, by comparing the number of protrusions first, it is possible to shorten the overall processing time for performing the target determination.

【0033】なお、本実施の形態においては、目標の構
造上の特徴を示す特有形状として突起の場合で説明した
が、例えばくぼみや辺の数等他の特有形状を用いてもよ
いことはいうまでもない。また、突起数を比較した後に
シルエット全体の比較を行ったが、その比較を行う順は
逆であってもよい。
In the present embodiment, the case where the projection is used as the unique shape showing the target structural feature has been described, but it is also possible to use other unique shapes such as depressions and the number of sides. There is no end. Further, although the silhouettes are compared after the number of protrusions is compared, the comparison may be performed in the reverse order.

【0034】実施の形態3.上記各実施の形態において
は、目標の形状に基づいたデータを比較することによっ
て目標の判別を行っていたが、本実施の形態以降におい
ては、目標の持つ形状以外の情報に基づく目標判別支援
情報を生成し、その目標判別支援情報を比較判別時にお
いて考慮することで目標の判別の確度を向上させてい
る。このうち、以降に説明する実施の形態3〜6におい
ては、前述したカメラあるいは支援データ検出手段によ
る支援データに基づいて目標判別支援情報を生成する支
援情報生成手段と、目標候補の形状データ及び目標候補
の特徴事項に関する目標特定情報を記憶する目標情報記
憶手段と、上記実施の形態と同じように目標の撮像形状
データと目標候補の形状データとの比較により目標判別
を行うとともに目標判別支援情報と目標特定情報との比
較結果をも考慮して目標を判別する比較判別手段と、を
設けたことを特徴としている。本実施の形態において
は、形状データとともに赤外線画像を使用して目標の持
つ熱源の位置も合わせて比較判定を行うことを特徴とし
ているため、赤外線画像に基づいて抽出された目標の熱
源位置を目標判別支援情報として求める熱源位置特定手
段を支援情報生成手段として設けている。
Embodiment 3. In each of the above embodiments, the target is discriminated by comparing the data based on the target shape. However, in the present embodiment and thereafter, the target discrimination support information based on the information other than the shape of the target. Is generated and the target discrimination support information is taken into consideration in the comparison discrimination, thereby improving the accuracy of the target discrimination. Among them, in Embodiments 3 to 6 described below, support information generating means for generating target discrimination support information based on the support data from the above-mentioned camera or support data detecting means, shape data of target candidates and targets. Target information storage means for storing target specifying information relating to candidate feature items, and target discrimination support information together with target discrimination by comparing target imaging shape data and target candidate shape data as in the above embodiment. It is characterized in that a comparison determination means for determining a target in consideration of a comparison result with the target specifying information is provided. The present embodiment is characterized in that the infrared image is used together with the shape data to perform the comparison determination by also matching the position of the heat source that the target has, so that the target heat source position extracted based on the infrared image is targeted. The heat source position specifying unit that is obtained as the discrimination support information is provided as the support information generation unit.

【0035】図3は、本発明に係る目標判別装置の第3
の実施の形態を示したブロック構成図である。本実施の
形態における目標判別装置は、前述した画像入力部1
1、前処理部12に加え、熱源位置特定手段として赤外
画像入力部31、赤外画像前処理部32、熱源判定部3
3及び画像位置合わせ部34を、比較判別手段として比
較判別部35を、更に目標情報記憶手段として目標候補
の熱源位置を目標特定情報として記憶するマッチングパ
ターン記憶部36を設けた構成をしている。赤外画像入
力部31は、画像入力部11に入力される画像を撮影す
るときに支援データ検出手段としての赤外線カメラから
同時に同一目標を撮影した赤外線画像を赤外画像入力線
37から入力する。赤外画像前処理部32は、入力した
赤外線画像から目標の領域を切り取る。熱源判定部33
は、赤外画像前処理部32で切り取られた領域の中の熱
源の位置を判定する。画像位置合わせ部34は、前処理
部12で切り取られた目標の領域と熱源判定部33で判
定された熱源の位置を重ね合わせる。比較判別部35
は、画像位置合わせ部34で重ね合わせた画像と比較判
別を行う。
FIG. 3 shows a third target discriminating apparatus according to the present invention.
It is a block diagram showing an embodiment of. The target discriminating apparatus in the present embodiment is the same as the above-mentioned image input unit
1. In addition to the preprocessing unit 12, an infrared image input unit 31, an infrared image preprocessing unit 32, and a heat source determination unit 3 as heat source position specifying means.
3 and the image alignment unit 34, the comparison determination unit 35 as the comparison determination unit, and the matching pattern storage unit 36 that stores the heat source position of the target candidate as the target specifying information as the target information storage unit. . The infrared image input unit 31 inputs, through the infrared image input line 37, an infrared image obtained by simultaneously shooting the same target from the infrared camera as the support data detecting unit when shooting the image input to the image input unit 11. The infrared image preprocessing unit 32 cuts out a target area from the input infrared image. Heat source determination unit 33
Determines the position of the heat source in the region cut by the infrared image preprocessing unit 32. The image registration unit 34 superimposes the position of the heat source determined by the heat source determination unit 33 on the target region cut out by the preprocessing unit 12. Comparison determination unit 35
Performs comparison determination with the image superimposed by the image registration unit 34.

【0036】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0037】まず、画像入力部11及び前処理部12に
おいて行われる目標を撮影した映像から対象となる目標
の領域を切り出し、撮像形状データを抽出するまでの処
理は、上記実施の形態1と同様である。この抽出した目
標の撮像形状データは、画像位置合わせ部34に送られ
る。
First, the processing performed by the image input unit 11 and the pre-processing unit 12 until the target area is cut out from the captured image of the target and the imaging shape data is extracted is the same as in the first embodiment. Is. The extracted target imaging shape data is sent to the image registration unit 34.

【0038】一方、カメラによる目標の撮影と同時に撮
影した赤外線画像を赤外画像入力線37から赤外画像入
力部31へ入力する。赤外画像入力部31では、入力さ
れた赤外線画像をディジタルデータに変換し、1枚の画
像として赤外画像前処理部32に伝送する。赤外画像前
処理部32では、ディジタル画像の中から、判別を行う
目標の領域を切り出すための処理を行う。切り出す処理
は、前処理部12と同じ方法で行う。切り出した領域は
熱源判定部33に送られる。熱源判定部33では、切り
出された赤外線画像の目標領域の輝度分布の広がりか
ら、発熱の中心となる熱源の位置を判定する。判定結果
は、画像位置合わせ部34に送られる。
On the other hand, an infrared image photographed at the same time as the photographing of the target by the camera is inputted from the infrared image input line 37 to the infrared image input section 31. The infrared image input unit 31 converts the input infrared image into digital data and transmits it as one image to the infrared image preprocessing unit 32. The infrared image preprocessing unit 32 performs processing for cutting out a target area to be discriminated from the digital image. The cutting process is performed by the same method as the preprocessing unit 12. The cut out region is sent to the heat source determination unit 33. The heat source determination unit 33 determines the position of the heat source, which is the center of heat generation, from the spread of the luminance distribution of the target area of the cut out infrared image. The determination result is sent to the image registration unit 34.

【0039】画像位置合わせ部34では、前処理部12
から送られる目標を切り出した領域に、熱源判定部33
から送られる熱源の位置を重ね合わせ、生成した目標パ
ターンを目標判別支援情報として比較判別部35に出力
する。マッチングパターン記憶部36は、目標候補の形
状データと各目標候補が持つ熱源の位置とを重ね合わせ
たマッチングパターンを原データとして記憶しているの
で、比較判別部35では、画像位置合わせ部34から送
られる目標パターンと、マッチングパターン記憶部36
が記憶している目標候補のマッチングパターンとを比較
し、比較した結果、それらが最も近いと判断できるマッ
チングパターンの目標候補を判別結果として判別結果出
力線18から出力する。
In the image registration unit 34, the preprocessing unit 12
In the area where the target sent from the
The positions of the heat sources sent from the device are overlapped, and the generated target pattern is output to the comparison / determination unit 35 as target determination support information. Since the matching pattern storage unit 36 stores the matching pattern in which the shape data of the target candidate and the position of the heat source of each target candidate are overlapped as the original data, in the comparison / determination unit 35, from the image registration unit 34. The target pattern to be sent and the matching pattern storage unit 36
Is compared with the matching pattern of the target candidate stored in, and as a result of the comparison, the target candidate of the matching pattern that can be determined to be the closest is output from the determination result output line 18 as the determination result.

【0040】以上のように、本実施の形態によれば、目
標判別のための比較を行う際、形状のみならず熱源位置
を合わせ持ったマッチングパターンを用いるようにした
ので、外形だけでは判断のつきにくいぼやけた撮影画像
においても精度良く目標判別を行うことができる。
As described above, according to the present embodiment, when the comparison for the target determination is performed, the matching pattern having not only the shape but also the heat source position is used. It is possible to accurately determine the target even in a blurred captured image that is hard to stick.

【0041】実施の形態4.図4は、本発明に係る目標
判別装置の第4の実施の形態を示したブロック構成図で
ある。本実施の形態における目標判別装置は、前述した
画像入力部11、前処理部12に加え、測距データ入力
線41から入力される測距データから目標寸法を目標判
別支援情報として算出する支援情報生成手段としての目
標寸法算出部42を設けた構成を有している。測距デー
タは、画像入力部11に入力される画像の撮影と同時に
測定されるカメラから目標までの距離データであり、本
実施の形態においては、目標撮影用のカメラを支援デー
タ検出手段として兼用する。また、本実施の形態におけ
るマッチングパターン記憶部46は、目標候補の寸法情
報を目標特定情報として記憶し、比較判別部45は、こ
れに伴い、目標の形状並びに寸法を比較することにな
る。つまり、実施の形態3においては、目標判別支援情
報として熱源位置を用いたが、本実施の形態において
は、目標の寸法情報を目標判別支援情報として用いるこ
とを特徴としている。
Fourth Embodiment FIG. 4 is a block diagram showing a fourth embodiment of the target discriminating apparatus according to the present invention. The target discriminating apparatus according to the present embodiment includes support information for calculating a target dimension as target discriminating support information from the distance measurement data input from the distance measurement data input line 41 in addition to the image input unit 11 and the preprocessing unit 12 described above. The target dimension calculation unit 42 as a generation unit is provided. The distance measurement data is distance data from the camera to the target, which is measured at the same time as the image input to the image input unit 11 is captured. In the present embodiment, the target image capturing camera is also used as the support data detecting means. To do. Further, the matching pattern storage unit 46 in the present embodiment stores the size information of the target candidate as the target specifying information, and the comparison determination unit 45 accordingly compares the target shapes and sizes. That is, in the third embodiment, the heat source position is used as the target determination support information, but in the present embodiment, the target dimension information is used as the target determination support information.

【0042】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0043】まず、画像入力部11及び前処理部12に
おいて行われる目標を撮影した映像から対象となる目標
の領域を切り出し、撮像形状データを抽出するまでの処
理は、上記実施の形態1と同様である。この抽出した目
標の撮像形状データは、比較判別部45に送られる。
First, the processing performed by the image input unit 11 and the pre-processing unit 12 until the target area is cut out from the captured image of the target and the imaging shape data is extracted is the same as in the first embodiment. Is. The extracted target imaging shape data is sent to the comparison / determination unit 45.

【0044】一方、目標の撮影と同時に測定したカメラ
から目標までの測距データを測距データ入力線41から
目標寸法算出部42に入力する。目標寸法算出部42で
は、入力された測距データとカメラの視野角から対象と
なる目標の領域の寸法を算出する。算出した寸法は、目
標判別支援情報として比較判別部45に送られる。マッ
チングパターン記憶部46は、目標候補の形状データ及
び各目標候補の寸法の情報を含むマッチングパターンを
原データとして記憶しているので、比較判別部45で
は、まず、目標寸法算出部42から送られる対象目標の
寸法と、マッチングパターン記憶部46が記憶している
目標候補の寸法とを比較することで目標候補を選択す
る。そして、その選択した目標候補の形状データと、前
処理部12から送られる目標の撮像形状データとを比較
し、その形状が最も近いと判断できるマッチングパター
ンの目標候補を判別結果として判別結果出力線18から
出力する。
On the other hand, distance measurement data from the camera to the target, which is measured at the same time as the photographing of the target, is input to the target dimension calculation section 42 from the distance measurement data input line 41. The target size calculation unit 42 calculates the size of the target region of interest from the input distance measurement data and the viewing angle of the camera. The calculated dimensions are sent to the comparison / discrimination unit 45 as target discrimination support information. Since the matching pattern storage unit 46 stores the matching pattern including the shape data of the target candidate and the size information of each target candidate as the original data, the comparison / determination unit 45 first sends it from the target size calculation unit 42. The target candidate is selected by comparing the size of the target target with the size of the target candidate stored in the matching pattern storage unit 46. Then, the shape data of the selected target candidate is compared with the target imaging shape data sent from the preprocessing unit 12, and the target result of the matching pattern whose shape is the closest can be determined as the determination result. Output from 18.

【0045】以上のように、本実施の形態によれば、目
標判別のための比較を行う際、形状のみならず目標の寸
法をも目標判別のための支援情報として用いるようにし
たので、外形だけでは判断のつきにくいぼやけた撮影画
像においても精度良く目標判別を行うことができる。
As described above, according to this embodiment, not only the shape but also the size of the target is used as the support information for the target determination when performing the comparison for the target determination. It is possible to accurately determine the target even in a blurred captured image that is difficult to determine by itself.

【0046】なお、上記説明においては、目標の寸法を
比較して目標候補をある程度絞り込んだ上で形状を比較
するようにすることで、目標判別に行う全体の処理時間
も短縮することができる。但し、目標の形状データ及び
寸法情報を用いて行う比較判別処理の手順並びに方法
は、設計事項である。また、撮像データから算出した目
標の寸法と目標の実際の寸法とを比較判別する処理にお
いて、どの程度の差異まで許容するなども設計事項であ
る。
In the above description, by comparing the target dimensions and narrowing down the target candidates to some extent and then comparing the shapes, it is possible to shorten the overall processing time for determining the target. However, the procedure and method of the comparison / determination process performed using the target shape data and the dimension information are design matters. Further, in the process of comparing and discriminating the target dimension calculated from the imaging data and the target actual dimension, it is a design matter to allow up to what difference.

【0047】実施の形態5.図5は、本発明に係る目標
判別装置の第5の実施の形態を示したブロック構成図で
ある。本実施の形態における目標判別装置は、前述した
画像入力部11、前処理部12に加え、地誌情報と座標
情報とを記憶する地誌データ記憶部51及び目標位置デ
ータ入力線52を介して得られるカメラにより写した目
標の撮像データと地誌データ記憶部51に記憶した情報
との比較により得られた目標の位置情報を目標判別支援
情報として生成する地誌判定部53を支援情報生成手段
として設ける。また、本実施の形態におけるマッチング
パターン記憶部56は、目標候補に関する地誌情報を目
標特定情報として記憶し、比較判別部55は、これに伴
い、目標の形状並びに地誌情報を比較することになる。
つまり、本実施の形態においては、目標の地誌情報を目
標判別支援情報として用いることを特徴としている。地
誌情報というのは、平面的な道路等の地図情報以外にも
陸地、海等地形などの立体的な情報を含んでおり、地誌
データ記憶部51には、例えば日本全国をメッシュに分
割してメッシュ毎に地誌情報と座標情報とを記憶してい
る。また、本実施の形態においては、目標撮影用のカメ
ラを支援データ検出手段として兼用する。
Embodiment 5. FIG. 5 is a block diagram showing the fifth embodiment of the target discriminating apparatus according to the present invention. The target discriminating apparatus according to the present embodiment is obtained via the geographic data storage unit 51 that stores geographic information and coordinate information and the target position data input line 52, in addition to the image input unit 11 and the preprocessing unit 12 described above. A geographic determination unit 53, which generates positional information of the target obtained as a result of comparison between the imaged data of the target captured by the camera and the information stored in the geographic data storage unit 51, is provided as support information generation means. Further, the matching pattern storage unit 56 in the present embodiment stores the geographic information about the target candidate as the target specifying information, and the comparison / determination unit 55 accordingly compares the shape of the target and the geographic information.
That is, the present embodiment is characterized in that the target geographical information is used as the target discrimination support information. The topographical information includes three-dimensional information such as land and sea topography in addition to map information such as flat roads. The topographical data storage unit 51 divides the entire country of Japan into meshes, for example. Topographical information and coordinate information are stored for each mesh. Further, in the present embodiment, the camera for target photographing is also used as the assistance data detecting means.

【0048】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0049】まず、画像入力部11及び前処理部12に
おいて行われる目標を撮影した映像から対象となる目標
の領域を切り出し、撮像形状データを抽出するまでの処
理は、上記実施の形態1と同様である。この抽出した目
標の撮像形状データは、比較判別部55に送られる。
First, the processing performed by the image input unit 11 and the preprocessing unit 12 to cut out the target area from the image of the target and extract the imaging shape data is the same as in the first embodiment. Is. The extracted target imaging shape data is sent to the comparison / determination unit 55.

【0050】一方、撮像データを目標位置データ入力線
52から地誌判定部53に入力する。地誌判定部53で
は、入力された撮像データに基づいて目標の位置を地誌
データ記憶部51に記憶している地誌情報と座標情報と
対比させながら得る。そして、目標の位置情報を得る。
位置情報は、例えば目標の位置が道路であれば車両類、
水上であれば船類というような内容になる。位置情報
は、比較判別部55に送られる。
On the other hand, the image pickup data is inputted from the target position data input line 52 to the geographical record judging section 53. The geographic determination unit 53 obtains the target position while comparing the geographic information stored in the geographic data storage unit 51 with the coordinate information based on the input imaged data. Then, the position information of the target is obtained.
The position information is, for example, vehicles if the target position is a road,
If it is on the water, it will be like a ship. The position information is sent to the comparison / determination unit 55.

【0051】比較判別部55では、地誌判定部53から
送られる対象目標の位置情報と、マッチングパターン記
憶部56に記憶している目標候補の車両類、船類等の地
誌情報とを比較することで目標候補を選択する。そし
て、その選択した目標候補の形状データと、前処理部1
2から送られる目標の撮像形状データとを比較し、その
形状が最も近いと判断できるマッチングパターンの目標
候補を判別結果として判別結果出力線18から出力す
る。
The comparison / determination unit 55 compares the position information of the target target sent from the geographic determination unit 53 with the geographic information of the target candidates such as vehicles and ships stored in the matching pattern storage unit 56. Select a target candidate with. Then, the shape data of the selected target candidate and the preprocessing unit 1
2 is compared with the target imaging shape data sent from No. 2 and the target candidate of the matching pattern whose shape is judged to be the closest is output from the judgment result output line 18 as the judgment result.

【0052】以上のように、本実施の形態によれば、目
標判別のための比較を行う際、形状のみならず目標の位
置情報をも目標判別のための支援情報として用いるよう
にしたので、外形だけでは判断のつきにくいぼやけた撮
影画像においても精度良く目標判別を行うことができ
る。また、上記説明においては、目標の地誌情報を比較
して目標候補をある程度絞り込んだ上で形状を比較する
ようにすることで、目標判別に行う全体の処理時間も短
縮することができる。
As described above, according to the present embodiment, not only the shape but also the position information of the target is used as the support information for the target determination when performing the comparison for the target determination. It is possible to accurately determine the target even in a blurred captured image that is difficult to judge only by the outer shape. In the above description, the target geographic information is compared to narrow down the target candidates to some extent and then the shapes are compared, so that the overall processing time for performing the target determination can be shortened.

【0053】実施の形態6.図6は、本発明に係る目標
判別装置の第6の実施の形態を示したブロック構成図で
ある。本実施の形態における目標判別装置は、前述した
画像入力部11、前処理部12に加え、目標が搭載しう
る電子機器の諸元データとを記憶する電子機器諸元デー
タ記憶部61と、目標が放射する電波を受信する支援デ
ータ検出手段から電波データ入力線62を介して送られ
てくる電波データと電子機器諸元データ記憶部61に記
憶した諸元データに基づいて特定した目標の搭載電子機
器を目標判別支援情報として生成する搭載電子機器判定
部63と、を支援情報生成手段として設ける。また、本
実施の形態におけるマッチングパターン記憶部66は、
各目標候補が搭載する電子機器を目標特定情報として記
憶し、比較判別部65は、これに伴い、目標の形状並び
に電子機器の種類を比較することになる。つまり、本実
施の形態においては、目標の搭載電子機器を目標判別支
援情報として用いることを特徴としている。
Sixth Embodiment FIG. 6 is a block diagram showing a sixth embodiment of the target discriminating apparatus according to the present invention. The target discriminating apparatus according to the present embodiment includes, in addition to the image input unit 11 and the preprocessing unit 12 described above, an electronic device specification data storage unit 61 that stores specification data of an electronic device that can be mounted on the target, and a target. The target mounted electronic device specified on the basis of the radio wave data sent from the support data detecting means for receiving the radio wave radiated by the user via the radio wave data input line 62 and the specification data stored in the electronic device specification data storage unit 61. An onboard electronic device determination unit 63 that generates a device as target determination support information is provided as support information generation means. Further, the matching pattern storage unit 66 in the present embodiment is
The electronic device mounted on each target candidate is stored as target specifying information, and the comparison / determination unit 65 accordingly compares the shape of the target and the type of electronic device. That is, the present embodiment is characterized in that the target on-board electronic device is used as the target discrimination support information.

【0054】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0055】まず、画像入力部11及び前処理部12に
おいて行われる目標を撮影した映像から対象となる目標
の領域を切り出し、撮像形状データを抽出するまでの処
理は、上記実施の形態1と同様である。この抽出した目
標の撮像形状データは、比較判別部65に送られる。
First, the processing performed by the image input unit 11 and the preprocessing unit 12 until the target area is cut out from the captured image of the target and the imaging shape data is extracted is the same as in the first embodiment. Is. The extracted target imaging shape data is sent to the comparison / determination unit 65.

【0056】一方、測定した撮影目標の電波データを電
波データ入力線62から搭載電子機器判定部63に入力
する。搭載電子機器判定部63では、入力された電波デ
ータに基づいて、電子機器諸元データ記憶部61に記憶
している電子機器諸元データから、対象目標の放射電波
で考えられる搭載電子機器を特定する。特定した搭載電
子機器情報は、目標判別支援情報として比較判別部65
に送られる。
On the other hand, the measured radio wave data of the photographing target is input from the radio wave data input line 62 to the mounted electronic device determination section 63. Based on the input radio wave data, the on-board electronic device determination unit 63 identifies the on-board electronic device considered to be the target target radiated radio wave from the electronic device specification data stored in the electronic device specification data storage unit 61. To do. The identified on-board electronic device information is used as the target discrimination support information by the comparison / discrimination unit 65.
Sent to

【0057】比較判別部65では、搭載電子機器判定部
63から送られる目標の搭載電子機器情報と、マッチン
グパターン記憶部66に記憶している目標候補のマッチ
ングパターンつまり電子機器情報とを比較することによ
り目標候補をある程度絞り込む。そして、その絞り込ん
だ目標候補の形状データと、前処理部12から送られる
目標の撮像形状データとを比較し、その形状が最も近い
と判断できるマッチングパターンの目標候補を判別結果
として判別結果出力線18から出力する。
The comparison / determination unit 65 compares the target on-vehicle electronic device information sent from the on-vehicle electronic device determination unit 63 with the target candidate matching pattern stored in the matching pattern storage unit 66, that is, the electronic device information. The target candidates are narrowed down to some extent by. Then, the narrowed down target candidate shape data is compared with the target imaging shape data sent from the preprocessing unit 12, and the target candidate of the matching pattern whose shape is the closest can be used as the determination result as a determination result output line. Output from 18.

【0058】以上のように、本実施の形態によれば、目
標判別のための比較を行う際、形状のみならず目標の放
射電波に基づいて特定した搭載する電子機器をも目標判
別のための支援情報として用いるようにしたので、外形
だけでは判断のつきにくいぼやけた撮影画像においても
精度良く目標判別を行うことができる。また、上記説明
においては、目標の電子機器情報を比較して目標候補を
ある程度絞り込んだ上で形状を比較するようにすること
で、目標判別に行う全体の処理時間も短縮することがで
きる。
As described above, according to the present embodiment, when performing comparison for target determination, not only the shape but also the mounted electronic device specified based on the target radiated radio wave can be used for target determination. Since the information is used as the support information, it is possible to accurately determine the target even in a blurred captured image that is difficult to determine only by the outer shape. Further, in the above description, by comparing the target electronic device information, narrowing down the target candidates to some extent, and then comparing the shapes, it is possible to shorten the overall processing time for performing the target determination.

【0059】実施の形態7.図7は、本発明に係る目標
判別装置の第7の実施の形態を示したブロック構成図で
ある。本実施の形態における目標判別装置は、前述した
画像入力部11、前処理部12に加え、各目標候補の速
度性能情報を記憶する速度性能諸元データ記憶手段とし
ての速度性能諸元データ記憶部71と、目標速度データ
入力線72を介して入力される速度データと、速度性能
諸元データ記憶部71が記憶する速度性能情報との比較
により判別されうる目標候補を選別する目標速度性能選
別手段としての目標速度性能選別部73と、目標候補の
形状データを記憶する目標形状データ記憶手段としての
マッチングパターン記憶部76と、マッチングパターン
記憶部76に記憶された形状データのうち目標速度性能
選別部73が選別した目標候補に対する形状データと、
前処理部12が抽出した目標の撮像形状データとを比較
することで目標を判別する比較判別手段としての比較判
別部75とを有している。本実施の形態において特徴的
なことは、目標の形状のみならず目標の移動速度をも考
慮して目標の判別を行うことである。
Embodiment 7. FIG. 7 is a block diagram showing a seventh embodiment of the target discriminating apparatus according to the present invention. The target discriminating apparatus according to the present embodiment includes, in addition to the image input unit 11 and the preprocessing unit 12 described above, a speed performance specification data storage unit as a speed performance specification data storage unit that stores speed performance information of each target candidate. 71, target speed performance selection means for selecting target candidates that can be determined by comparing speed data input via the target speed data input line 72 with speed performance information stored in the speed performance specification data storage unit 71. Target speed / performance sorting unit 73, a matching pattern storage unit 76 as a target shape data storage unit that stores target candidate shape data, and a target speed / performance sorting unit of the shape data stored in the matching pattern storage unit 76. Shape data for target candidates selected by 73,
The pre-processing unit 12 includes a comparison / determination unit 75 as a comparison / determination unit that determines the target by comparing it with the target imaging shape data extracted. What is characteristic of this embodiment is that the target is determined in consideration of not only the shape of the target but also the moving speed of the target.

【0060】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0061】まず、画像入力部11及び前処理部12に
おいて行われる目標を撮影した映像から対象となる目標
の領域を切り出し、撮像形状データを抽出するまでの処
理は、上記実施の形態1と同様である。この抽出した目
標の撮像形状データは、比較判別部75に送られる。
First, the processing performed by the image input unit 11 and the preprocessing unit 12 until the target area of interest is cut out from the image of the target and the imaging shape data is extracted is the same as in the first embodiment. Is. The extracted target imaging shape data is sent to the comparison / determination unit 75.

【0062】一方、カメラによる目標の撮影と同時に測
定した同一目標の速度データを目標速度データ入力線7
2から目標速度性能選別部73に入力する。目標速度性
能選別部73には、入力された目標の速度データに基づ
いて、速度性能諸元データ記憶部71に記憶している目
標の持つ速度性能諸元データから、対象目標の移動速度
で考えられる目標候補を選別する。例えば、速度データ
が100km/hのとき、最高速度が100km/hに
満たない目標候補は選択されない。このようにして、目
標の実際の移動速度に基づいて目標候補を絞り込む。選
別された目標候補は、比較判別部75に送られる。
On the other hand, the speed data of the same target measured simultaneously with the shooting of the target by the camera is used as the target speed data input line 7
Input from 2 to the target speed performance selection unit 73. Based on the input target speed data, the target speed / performance sorting unit 73 considers the target target moving speed from the speed / performance specification data of the target stored in the speed / performance specification data storage unit 71. Select target candidates that can be used. For example, when the speed data is 100 km / h, target candidates whose maximum speed is less than 100 km / h are not selected. In this way, target candidates are narrowed down based on the actual moving speed of the target. The selected target candidates are sent to the comparison / determination unit 75.

【0063】比較判別部75では、目標速度性能選別部
73から送られる目標候補に基づいてマッチングパター
ン記憶部76に記憶している目標候補のマッチングパタ
ーンつまり形状データを選択して取り出し、前処理部1
2から送られる対象目標の撮像形状データと比較し、そ
の形状が最も近いと判断できるマッチングパターンの目
標候補を判別結果として判別結果出力線18から出力す
る。
The comparison / determination unit 75 selects and extracts the matching pattern, that is, the shape data of the target candidate stored in the matching pattern storage unit 76 based on the target candidate sent from the target speed / performance selection unit 73, and the preprocessing unit. 1
The target candidate of the matching pattern that can be judged to have the closest shape is output from the judgment result output line 18 as a judgment result.

【0064】以上のように、本実施の形態によれば、目
標判別のための比較を行う際、目標の実際の移動速度に
基づいて目標候補を予め絞り込み、その絞り込んだ目標
候補に対してのみ形状による比較判別処理を施すように
したので、外形が類似した目標が存在するときでも移動
速度に差異がある場合には精度良く目標判別を行うこと
ができる。また、目標候補をある程度絞り込んだ上で形
状を比較するようにすることで、目標判別に行う全体の
処理時間も短縮することができる。
As described above, according to the present embodiment, when the comparison for the target determination is performed, the target candidates are narrowed down in advance based on the actual moving speed of the target, and only the narrowed down target candidates are selected. Since the comparison and determination processing is performed based on the shape, even when there are targets having similar outer shapes, the targets can be accurately determined when there is a difference in moving speed. Further, by narrowing down the target candidates to some extent and then comparing the shapes, it is possible to reduce the overall processing time for performing the target determination.

【0065】実施の形態8.図8は、本発明に係る目標
判別装置の第8の実施の形態を示したブロック構成図で
ある。本実施の形態における目標判別装置は、前述した
画像入力部11、前処理部12に加え、撮影された画像
の中に並んでいる複数の目標の配置状況を得る目標配置
検出手段としての目標配置算出部81と、目標候補が取
りうる隊形、陣形等の隊形配置情報を記憶する目標配置
データ記憶手段としての隊形・配置データ記憶部82
と、目標配置算出部81が得た配置状況に対応する隊形
配置情報を隊形・配置データ記憶部82に記憶された隊
形配置情報の中から特定する目標配置判定手段としての
隊形・配置判定部83と、を有している。また、本実施
の形態におけるマッチングパターン記憶部86は、目標
候補の形状データ及びその目標候補が取る隊形、陣形等
に関する隊形配置情報を記憶する目標情報記憶手段であ
り、比較判別部85は、上述した目標の形状データのみ
ならず隊形・配置判定部83が特定した隊形配置情報と
マッチングパターン記憶部86が記憶した隊形配置情報
との比較結果に基づいて目標を判別する比較判別手段で
ある。
Embodiment 8. FIG. 8 is a block diagram showing the eighth embodiment of the target discriminating apparatus according to the present invention. In addition to the image input unit 11 and the pre-processing unit 12 described above, the target discriminating apparatus according to the present embodiment has a target placement as a target placement detecting unit that obtains the placement status of a plurality of targets lined up in a captured image. A calculation unit 81 and a formation / arrangement data storage unit 82 as a target arrangement data storage unit that stores formation formation information such as formations and formations that target candidates can take.
And the formation / arrangement determination unit 83 as a target arrangement determination unit that identifies formation formation information corresponding to the arrangement situation obtained by the target arrangement calculation unit 81 from the formation arrangement information stored in the formation / arrangement data storage unit 82. And have. Further, the matching pattern storage unit 86 in the present embodiment is a target information storage unit that stores shape data of target candidates and formation formation information regarding formations, formations and the like taken by the target candidates, and the comparison determination unit 85 is described above. The comparison / determination means determines the target based on not only the target shape data but also the formation formation information specified by the formation / placement determination unit 83 and the formation formation information stored in the matching pattern storage unit 86.

【0066】本実施の形態においては、目標が隊形等を
形成している場合に、その目標の隊形等の配置情報を目
標判別支援情報として用いて目標の判別を行うことであ
る。
In the present embodiment, when the target forms a formation or the like, the target determination is performed by using the arrangement information of the formation of the target as the target determination support information.

【0067】次に、本実施の形態における動作について
説明する。
Next, the operation of this embodiment will be described.

【0068】まず、画像入力部11及び前処理部12に
おいて行われる目標を撮影した映像から対象となる目標
の領域を切り出し、撮像形状データを抽出するまでの処
理は、上記実施の形態1と同様である。但し、本実施の
形態においては、複数の目標に対して抽出処理が行われ
る。この抽出した目標の撮像形状データは、比較判別部
85及び目標配置算出部81に送られる。
First, the processing performed by the image input unit 11 and the preprocessing unit 12 until the target area is cut out from the image of the target and the imaging shape data is extracted is the same as in the first embodiment. Is. However, in the present embodiment, the extraction process is performed for a plurality of targets. The extracted target imaging shape data is sent to the comparison / determination unit 85 and the target placement calculation unit 81.

【0069】目標配置算出部81では、前処理部12か
ら送られた各対象目標の領域の配置関係を算出し、隊形
・配置判定部83に送る。隊形・配置判定部83では、
入力された目標の配置関係に基づいて、隊形・配置デー
タ記憶部82に記憶している目標候補の考えられる隊形
・陣形等の隊形配置情報から、対象目標の配置で考えら
れる隊形を判定する。なお、この判定処理において、必
ずしも単一の隊形に特定する必要はない。判定し選出さ
れた隊形配置情報は、比較判別部85に送られる。
The target placement calculation unit 81 calculates the placement relationship of the regions of each target target sent from the preprocessing unit 12, and sends it to the formation / placement determination unit 83. In the formation / placement determination unit 83,
Based on the input placement relationship of the targets, formation formations that are considered for the placement of the target target are determined from formation formation information such as formations and formations of possible target candidates stored in the formation / placement data storage unit 82. In this determination process, it is not always necessary to specify a single formation. The formation formation information determined and selected is sent to the comparison / determination unit 85.

【0070】比較判別部85では、隊形・配置判定部8
3から送られる対象目標の隊形配置情報から、マッチン
グパターン記憶部86に記憶している目標候補のマッチ
ングパターンつまり隊形配置情報と比較を行う。そし
て、比較した結果、選択された目標候補に対して、マッ
チングパターン記憶部86に記憶しているその目標候補
の形状データと前処理部12から送られる対象目標の撮
像形状データと比較し、その形状が最も近いと判断でき
るマッチングパターンの目標候補を判別結果として判別
結果出力線18から出力する。
In the comparison / determination unit 85, the formation / placement determination unit 8
From the formation formation information of the target target sent from No. 3, it is compared with the matching pattern of the target candidate stored in the matching pattern storage unit 86, that is, formation formation information. Then, as a result of the comparison, for the selected target candidate, the shape data of the target candidate stored in the matching pattern storage unit 86 and the imaging shape data of the target target sent from the preprocessing unit 12 are compared, The target candidate of the matching pattern that can be determined to have the closest shape is output from the determination result output line 18 as the determination result.

【0071】以上のように、本実施の形態によれば、目
標判別のための比較を行う際、複数の目標で隊形が組ま
れている場合には、目標の隊形配置情報に基づいて目標
候補を予め絞り込み、その絞り込んだ目標候補に対して
のみ形状による比較判別処理を施すようにしたので、外
形だけでは判断のつきにくいぼやけた撮影画像において
も精度良く目標判別を行うことができる。また、目標候
補をある程度絞り込んだ上で形状を比較するようにする
ことで、目標判別に行う全体の処理時間も短縮すること
ができる。また、隊形に特徴がある場合には外形の類似
した目標が存在するときでもそれらの目標同士の判別を
も確度よく行うことができる。
As described above, according to the present embodiment, when the formations are formed by a plurality of targets when performing the comparison for the target discrimination, the target candidates are formed based on the formation formation information of the targets. Since the target is narrowed down in advance and the comparison and determination processing based on the shape is performed only on the narrowed down target candidates, the target determination can be accurately performed even in a blurred captured image that is difficult to determine only by the outer shape. Further, by narrowing down the target candidates to some extent and then comparing the shapes, it is possible to reduce the overall processing time for performing the target determination. Further, when the formation has a characteristic, even when there are targets having similar outer shapes, it is possible to accurately discriminate between the targets.

【0072】なお、上記の例においては、隊形を形成す
る目標が全て同じ場合で説明したが、異なる目標で形成
する場合には、隊形を構成する目標の種類などの情報を
持たせることにより目標判別支援情報として利用するこ
とが可能である。
In the above example, all the targets forming the formation are the same. However, when forming different targets, the target is formed by giving information such as the type of the target forming the formation. It can be used as discrimination support information.

【0073】実施の形態9.上記各実施の形態におい
て、目標の一般的な形状データの比較のみならず、形状
のシルエットや構造上の特徴あるいは別途用いた目標判
別支援情報により精度良く目標判別を行うことについて
説明した。本実施の形態においては、図9及び図10に
示したように、前述した目標の熱源位置、寸法等全ての
目標判別支援情報を用いて目標判別を行う目標判別装置
を提供している。従って、本実施の形態におけるマッチ
ングパターン記憶部96は、目標候補の形状データに加
えて上記各実施の形態において説明した各目標特定情報
等を記憶し、比較判別部95は、目標の形状データ並び
にマッチングパターン記憶部96が記憶する目標特定情
報等と上記各実施の形態において説明した目標判別支援
情報等の比較結果に基づいて目標を判別することにな
る。
Ninth Embodiment In each of the above-described embodiments, not only comparison of general target shape data but also accurate determination of a target based on a silhouette of a shape, a structural feature, or target determination support information used separately has been described. In the present embodiment, as shown in FIG. 9 and FIG. 10, a target discriminating apparatus for discriminating a target using all the target discriminating support information such as the above-mentioned target heat source position and dimensions is provided. Therefore, the matching pattern storage unit 96 in the present embodiment stores each target specifying information and the like described in each of the above-described embodiments in addition to the target candidate shape data, and the comparison determination unit 95 determines the target shape data and the target shape data. The target is discriminated based on the result of comparison between the target specifying information and the like stored in the matching pattern storage unit 96 and the target discriminating support information and the like described in the above embodiments.

【0074】本実施の形態における動作は、上記各実施
の形態で説明したものの組合せで構成されるため、各構
成要素の動作についての説明を省略する。比較判別部9
5による比較判別処理においてどの目標判別支援情報等
から順に用いて目標候補の絞り込みを行うかは、単なる
設計事項である。これにより、本実施の形態において
は、上記各実施の形態と同じ効果を奏することができ
る。
Since the operation of this embodiment is composed of a combination of those described in each of the above embodiments, the description of the operation of each component will be omitted. Comparison determination unit 9
Which target discrimination support information or the like is used in order to narrow down the target candidates in the comparison and discrimination processing according to 5 is merely a design matter. As a result, in this embodiment, the same effect as that of each of the above embodiments can be obtained.

【0075】なお、本実施の形態においては、上記各実
施の形態で説明した構成要素を全て具備する構成とした
が、本装置を適用する分野、用途に応じて適宜選択し組
み合わせて使用すればよい。
In this embodiment, all the constituent elements described in each of the above-mentioned embodiments are provided, but it is possible to appropriately select and combine them according to the field to which the apparatus is applied and the application. Good.

【0076】[0076]

【発明の効果】本発明によれば、実際に撮像した目標の
撮像形状データを、目標を撮像した方位角度に基づいて
回転させた位置から見た場合の目標の断面形状すなわち
シルエットと比較するようにしたので、目標の見る角度
によって目標の形状が異なって見えるような場合でも正
しく目標が何であるかを判別することが可能となる。
According to the present invention, the imaged shape data of the target actually imaged is compared with the sectional shape of the target when viewed from the position rotated based on the azimuth angle of the imaged target, that is, the silhouette. Therefore, even when the shape of the target looks different depending on the viewing angle of the target, it is possible to correctly determine what the target is.

【0077】また、シルエット全体の比較のみならず、
特有形状の比較をも行うようにしたので、より高精度に
目標の判別を行うことが可能となる。また、突起数など
の特有形状による比較を先に行って目標候補を絞り込ん
だ上でシルエット全体の比較を行うようにすれば、目標
判別に行う全体の処理時間をも短縮することができる。
Further, not only the comparison of the entire silhouettes,
Since the comparison of the peculiar shapes is also performed, the target can be discriminated with higher accuracy. In addition, if the comparison of the entire silhouette is performed after the target candidates are narrowed down by performing the comparison based on the unique shape such as the number of protrusions, it is possible to shorten the entire processing time for performing the target determination.

【0078】また、目標判別のための比較を行う際、形
状のみならず熱源位置を合わせ持ったマッチングパター
ンを用いるようにしたので、外形だけでは判断のつきに
くいぼやけた撮影画像においても精度良く目標判別を行
うことができる。また、外形の類似した目標が存在する
ときでも目標判別支援情報として熱源位置を別途用いて
比較するようにしたので、それらの目標同士の判別をも
確度よく行うことが可能となる。
Further, since the matching pattern having not only the shape but also the position of the heat source is used when the comparison for the target discrimination is performed, the target can be accurately targeted even in the blurred image which is difficult to judge only by the outer shape. It is possible to make a distinction. Further, even when there are targets having similar outer shapes, the heat source positions are separately used as the target determination support information for comparison, so that it is possible to accurately determine the targets.

【0079】また、目標判別のための比較を行う際、形
状のみならず目標の寸法をも目標判別のための支援情報
として用いるようにしたので、外形だけでは判断のつき
にくいぼやけた撮影画像においても精度良く目標判別を
行うことができる。また、外形の類似した目標が存在す
るときでも目標判別支援情報として目標の寸法を別途用
いて比較するようにしたので、それらの目標同士の判別
をも確度よく行うことが可能となる。
Further, when the comparison for the target discrimination is performed, not only the shape but also the target dimension is used as the support information for the target discrimination. Can also accurately determine the target. Further, even when there are targets having similar outer shapes, the target dimensions are separately used as the target discrimination support information for comparison, and therefore it is possible to accurately discriminate between the targets.

【0080】また、目標判別のための比較を行う際、形
状のみならず目標の位置情報をも目標判別のための支援
情報として用いるようにしたので、外形だけでは判断の
つきにくいぼやけた撮影画像においても精度良く目標判
別を行うことができる。また、外形の類似した目標が存
在するときでも目標判別支援情報として目標の地誌情報
を別途用いて比較するようにしたので、それらの目標同
士の判別をも確度よく行うことが可能となる。
Further, when the comparison for the target discrimination is performed, not only the shape but also the position information of the target is used as the support information for the target discrimination. The target can be determined with high accuracy. Further, even when there are targets having similar outlines, the target geographic information is separately used as the target determination support information for comparison, so that it is possible to accurately determine the targets.

【0081】また、目標判別のための比較を行う際、形
状のみならず目標の放射電波に基づいて特定した搭載す
る電子機器をも目標判別のための支援情報として用いる
ようにしたので、外形だけでは判断のつきにくいぼやけ
た撮影画像においても精度良く目標判別を行うことがで
きる。また、外形の類似した目標が存在するときでも目
標判別支援情報として目標の地誌情報を別途用いて比較
するようにしたので、それらの目標同士の判別をも確度
よく目標判別を行うことが可能となる。
Further, when the comparison for the target discrimination is performed, not only the shape but also the mounted electronic device specified based on the target radiated radio wave is used as the support information for the target discrimination. With this, it is possible to accurately determine the target even in a blurred captured image that is difficult to determine. Further, even when there are targets having similar outlines, the target geographic information is separately used as the target determination support information for comparison, so that it is possible to accurately determine the targets even when the targets are distinguished from each other. Become.

【0082】また、目標判別のための比較を行う際、目
標の実際の移動速度に基づいて目標候補を予め絞り込
み、その絞り込んだ目標候補に対してのみ形状による比
較判別処理を施すようにしたので、外形が類似した目標
が存在するときでも移動速度に差異がある場合には精度
良く目標判別を行うことができる。また、目標候補をあ
る程度絞り込んだ上で形状を比較するようにすること
で、目標判別に行う全体の処理時間も短縮することがで
きる。
Further, when performing the comparison for the target discrimination, the target candidates are narrowed down in advance based on the actual moving speed of the target, and only the narrowed down target candidates are subjected to the comparison discrimination processing based on the shape. Even when there is a target having a similar outer shape, the target can be accurately determined when the moving speeds are different. Further, by narrowing down the target candidates to some extent and then comparing the shapes, it is possible to reduce the overall processing time for performing the target determination.

【0083】また、目標判別のための比較を行う際、複
数の目標で隊形が組まれている場合には、形状のみなら
ず目標の隊形配置情報をも目標判別のための支援情報と
して用いるようにしたので、外形だけでは判断のつきに
くいぼやけた撮影画像においても精度良く目標判別を行
うことができる。また、隊形に特徴がある場合には外形
の類似した目標が存在するときでもそれらの目標同士の
判別をも確度よく行うことができる。また、隊形配置情
報により目標候補をある程度絞り込んだ上で形状を比較
するようにすれば、目標判別に行う全体の処理時間も短
縮することができる。
In addition, when making a comparison for the purpose discrimination, if the formation is composed of a plurality of targets, not only the shape but also the formation formation information of the target should be used as the support information for the purpose discrimination. Therefore, it is possible to accurately determine the target even in a blurred captured image that is difficult to determine only by the outer shape. Further, when the formation has a characteristic, even when there are targets having similar outer shapes, it is possible to accurately discriminate between the targets. Further, if the target candidates are narrowed down to some extent by the formation formation information and then the shapes are compared, the overall processing time for the target determination can be shortened.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明に係る目標判別装置の第1の実施の形
態を示したブロック構成図である。
FIG. 1 is a block configuration diagram showing a first embodiment of a target discriminating apparatus according to the present invention.

【図2】 本発明に係る目標判別装置の第2の実施の形
態を示したブロック構成図である。
FIG. 2 is a block configuration diagram showing a second embodiment of a target discriminating apparatus according to the present invention.

【図3】 本発明に係る目標判別装置の第3の実施の形
態を示したブロック構成図である。
FIG. 3 is a block configuration diagram showing a third embodiment of a target discriminating apparatus according to the present invention.

【図4】 本発明に係る目標判別装置の第4の実施の形
態を示したブロック構成図である。
FIG. 4 is a block configuration diagram showing a fourth embodiment of a target discriminating apparatus according to the present invention.

【図5】 本発明に係る目標判別装置の第5の実施の形
態を示したブロック構成図である。
FIG. 5 is a block configuration diagram showing a fifth embodiment of a target discriminating apparatus according to the present invention.

【図6】 本発明に係る目標判別装置の第6の実施の形
態を示したブロック構成図である。
FIG. 6 is a block configuration diagram showing a sixth embodiment of a target discriminating apparatus according to the present invention.

【図7】 本発明に係る目標判別装置の第7の実施の形
態を示したブロック構成図である。
FIG. 7 is a block configuration diagram showing a seventh embodiment of a target discriminating apparatus according to the present invention.

【図8】 本発明に係る目標判別装置の第8の実施の形
態を示したブロック構成図である。
FIG. 8 is a block diagram showing an eighth embodiment of the target discriminating apparatus according to the present invention.

【図9】 本発明に係る目標判別装置の第9の実施の形
態の一部を示したブロック構成図である。
FIG. 9 is a block configuration diagram showing a part of a ninth embodiment of a target discriminating apparatus according to the present invention.

【図10】 本発明に係る目標判別装置の第9の実施の
形態の他の一部を示したブロック構成図である。
FIG. 10 is a block diagram showing another part of the ninth embodiment of the target discriminating apparatus according to the present invention.

【図11】 従来の画像認識をする文字認識装置の構成
図である。
FIG. 11 is a configuration diagram of a conventional character recognition device for image recognition.

【符号の説明】[Explanation of symbols]

11 画像入力部、12 前処理部、13 3次元デー
タ記憶部、14 目標断面算出部、15,25,35,
45,55,65,75,85,95 比較判別部、1
6 画像入力線、17 撮影状況データ入力線、18
判別結果出力線、21 特有形状判定部、31 赤外画
像入力部、32 赤外画像前処理部、33 熱源判定
部、34 画像位置合わせ部、36,46,56,6
6,76,86,96 マッチングパターン記憶部、3
7 赤外画像入力線、41 測距データ入力線、42
目標寸法算出部、51 地誌データ記憶部、52 目標
位置データ入力線、53 地誌判定部、61 電子機器
諸元データ記憶部、62 電波データ入力線、63 搭
載電子機器判定部、71 速度性能諸元データ記憶部、
72 目標速度データ入力線、73 目標速度性能選別
部、81 目標配置算出部、82 隊形・配置データ記
憶部、83 隊形・配置判定部。
11 image input unit, 12 pre-processing unit, 13 three-dimensional data storage unit, 14 target section calculation unit, 15, 25, 35,
45, 55, 65, 75, 85, 95 Comparison determination unit, 1
6 image input line, 17 shooting condition data input line, 18
Discrimination result output line, 21 Unique shape determination unit, 31 Infrared image input unit, 32 Infrared image preprocessing unit, 33 Heat source determination unit, 34 Image alignment unit, 36, 46, 56, 6
6,76,86,96 matching pattern storage unit, 3
7 Infrared image input line, 41 Distance measurement data input line, 42
Target dimension calculation unit, 51 Topographic data storage unit, 52 Target position data input line, 53 Topographical determination unit, 61 Electronic equipment specification data storage unit, 62 Radio wave data input line, 63 Onboard electronic equipment determination unit, 71 Speed performance specifications Data storage,
72 target speed data input line, 73 target speed performance selection unit, 81 target placement calculation unit, 82 formation / placement data storage unit, 83 formation / placement determination unit.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により撮影された画像に映し出
される目標を判別する目標判別装置において、 前記撮像手段により撮像された目標の撮像形状データを
得る目標形状データ抽出手段と、 目標候補の3次元データを記憶する目標形状データ記憶
手段と、 撮影時における前記撮像手段と目標の位置関係から目標
が位置する方位を算出し、その方位角度から目標を見た
ときの断面形状を前記目標形状データ記憶手段に記憶し
た3次元データに基づいて算出する目標断面算出手段
と、 前記目標形状データ抽出手段が抽出した目標の撮像形状
データと、前記目標断面算出手段が算出した断面形状
と、を比較することで目標を判別する比較判別手段と、 を有することを特徴とする目標判別装置。
1. A target discriminating device for discriminating a target displayed in an image photographed by an image pickup means, a target shape data extracting means for obtaining imaged shape data of a target imaged by said image pickup means, and a three-dimensional target candidate. A target shape data storage means for storing data, an azimuth in which the target is located is calculated from a positional relationship between the image pickup means and the target at the time of photographing, and a sectional shape when the target is viewed from the azimuth angle is stored in the target shape data storage. Comparing the target cross-section calculation means for calculating based on the three-dimensional data stored in the means, the target imaging shape data extracted by the target shape data extraction means, and the cross-sectional shape calculated by the target cross-section calculation means. And a target discriminating device for discriminating a target according to the above.
【請求項2】 前記比較判別手段は、前記目標断面算出
手段が算出した断面形状に含まれる特有形状と、その特
有形状に対応する前記目標データ抽出手段で抽出した目
標の撮像形状データに含まれる特有形状と、を更に比較
することを特徴とする請求項1記載の目標判別装置。
2. The comparison / discrimination means is included in the specific shape included in the cross-sectional shape calculated by the target cross-section calculating means and the target imaging shape data extracted by the target data extracting means corresponding to the specific shape. The target discriminating apparatus according to claim 1, further comprising a comparison with the unique shape.
【請求項3】 前記特有形状は、突起であることを特徴
とする請求項2記載の目標判別装置。
3. The target discriminating apparatus according to claim 2, wherein the peculiar shape is a protrusion.
【請求項4】 撮像手段により撮影した画像に映し出さ
れる目標を判別する目標判別装置において、 前記撮像手段と同時に同一目標に関する支援データを検
出する支援データ検出手段と、 前記撮像手段により撮像された目標の撮像形状データを
得る目標形状データ抽出手段と、 前記支援データ検出手段により支援データに基づいて目
標判別支援情報を生成する支援情報生成手段と、 目標候補の形状データ及び目標候補の特徴事項に関する
目標特定情報を記憶する目標情報記憶手段と、 前記目標の撮像形状データと前記目標候補の形状データ
との比較結果並びに前記目標判別支援情報と前記目標特
定情報との比較結果に基づいて目標を判別する比較判別
手段と、 を有し、目標の撮像形状データかつ目標支援情報に基づ
いて目標の判別を行うことを特徴とする目標判別装置。
4. A target discriminating apparatus for discriminating a target displayed in an image photographed by an image pickup means, the assistance data detecting means for detecting assistance data for the same target at the same time as the image pickup means, and the target imaged by the image pickup means. Target shape data extraction means for obtaining the imaged shape data of the target, support information generation means for generating the target discrimination support information based on the support data by the support data detection means, and the target regarding the shape data of the target candidate and the characteristic items of the target candidate. Target information storage means for storing specific information, and a target is discriminated based on a comparison result between the target imaging shape data and the target candidate shape data and a comparison result between the target discrimination support information and the target specific information. And a comparing and determining means, for determining the target based on the target imaging shape data and the target support information. And a target discriminating device.
【請求項5】 前記支援情報生成手段は、 前記支援データ検出手段による目標を写した赤外線画像
に基づいて抽出された目標の熱源位置を目標判別支援情
報として求める熱源位置特定手段を有し、 前記目標情報記憶手段は、目標候補の熱源位置を目標特
定情報として記憶し、 前記比較判別手段は、前記支援情報生成手段が生成した
目標の熱源位置と、前記目標情報記憶手段が記憶する目
標候補の熱源位置とを比較することを特徴とする請求項
4記載の目標判別装置。
5. The support information generating means includes heat source position specifying means for obtaining target heat source position extracted based on an infrared image of the target by the support data detecting means as target discrimination support information, The target information storage means stores the heat source position of the target candidate as target specifying information, and the comparison and determination means, the target heat source position generated by the support information generation means, and the target candidate stored by the target information storage means. The target discriminating apparatus according to claim 4, wherein the target position is compared with a heat source position.
【請求項6】 前記支援情報生成手段は、 前記支援データ検出手段による目標を写した撮像データ
に基づいて得た目標までの測距データから目標寸法を目
標判別支援情報として算出する目標寸法算出部を有し、 前記目標情報記憶手段は、目標候補の寸法情報を目標特
定情報として記憶し、 前記比較判別手段は、前記支援情報生成手段が算出した
目標の寸法と、前記目標情報記憶手段が記憶する目標候
補の寸法情報とを比較することを特徴とする請求項4記
載の目標判別装置。
6. The target size calculation unit, wherein the support information generation unit calculates a target size as target determination support information from distance measurement data up to the target obtained based on imaging data obtained by copying the target by the support data detection unit. The target information storage means stores dimension information of target candidates as target specifying information, and the comparison and determination means stores the target dimensions calculated by the support information generation means and the target information storage means. The target discriminating device according to claim 4, wherein the target discriminating device compares the dimensional information of the target candidate to be processed.
【請求項7】 前記支援情報生成手段は、 地誌情報と座標情報とを記憶する地誌データ記憶部と、 前記支援データ検出手段による目標を写した撮像データ
と前記地誌データ記憶部に記憶した情報との比較により
得られた目標の位置情報を目標判別支援情報として生成
する地誌判定部と、 を有し、 前記目標情報記憶手段は、目標候補に関する地誌情報を
目標特定情報として記憶し、 前記比較判別手段は、前記支援情報生成手段が算出した
目標の位置情報と、前記目標情報記憶手段が記憶する目
標候補の地誌情報とを比較することを特徴とする請求項
4記載の目標判別装置。
7. The support information generating means includes a geographic data storage section for storing geographic information and coordinate information, imaging data showing a target by the support data detecting means, and information stored in the geographic data storage section. The topographical information determination unit that generates the position information of the target obtained as a result of the target determination support information, and the target information storage unit stores the topographical information about the target candidate as the target identification information. The target discriminating device according to claim 4, wherein the means compares the position information of the target calculated by the support information generating means with the geographic information of the target candidate stored in the target information storing means.
【請求項8】 前記支援情報生成手段は、 目標が搭載しうる電子機器の諸元データとを記憶する電
子機器諸元データ記憶部と、 前記支援データ検出手段により検出した目標が放射する
電波データと前記電子機器諸元データ記憶部に記憶した
諸元データに基づいて特定した目標の搭載電子機器を目
標判別支援情報として生成する搭載電子機器判定部と、 を有し、 前記目標情報記憶手段は、目標候補が搭載する電子機器
を目標特定情報として記憶し、 前記比較判別手段は、前記支援情報生成手段が算出した
目標の搭載電子機器と、前記目標情報記憶手段が記憶す
る目標候補の電子機器とを比較することを特徴とする請
求項4記載の目標判別装置。
8. The electronic device specification data storage unit for storing the specification data of an electronic device that can be mounted on the target, and the radio wave data radiated by the target detected by the support data detection unit. And a mounted electronic device determination unit that generates target mounted electronic device specified as target discrimination support information based on the specification data stored in the electronic device specification data storage unit, and the target information storage unit includes An electronic device mounted on the target candidate is stored as target specifying information, and the comparison / determination unit stores the target electronic device calculated by the support information generating unit, and a target candidate electronic device stored by the target information storage unit. 5. The target discriminating device according to claim 4, characterized in that
【請求項9】 撮像手段により撮影した画像に映し出さ
れる目標を判別する目標判別装置において、 前記撮像手段により撮像された目標の撮像形状データを
得る目標形状データ抽出手段と、 各目標候補の速度性能情報を記憶する速度性能諸元デー
タ記憶手段と、 前記撮像手段と同時に検出した同一目標に対する速度デ
ータと、前記速度性能諸元データ記憶手段が記憶する速
度性能情報との比較により判別されうる目標候補を選別
する目標速度性能選別手段と、 目標候補の形状データを記憶する目標形状データ記憶手
段と、 前記目標形状データ記憶手段に記憶された形状データの
うち前記目標速度性能選別手段が選別した目標候補に対
する形状データと、前記目標形状データ抽出手段が抽出
した目標の撮像形状データと、を比較することで目標を
判別する比較判別手段と、 を有することを特徴とする目標判別装置。
9. A target discriminating apparatus for discriminating a target displayed in an image photographed by an image pickup means, a target shape data extracting means for obtaining image pickup shape data of the target imaged by said image pickup means, and a speed performance of each target candidate. Speed performance specification data storage means for storing information, speed data for the same target detected at the same time as the imaging means, and target candidates that can be determined by comparison with speed performance information stored by the speed performance specification data storage means Target speed performance selection means for selecting the target speed performance selection means, target shape data storage means for storing the shape data of the target candidates, and target candidates selected by the target speed performance selection means from the shape data stored in the target shape data storage means. By comparing the shape data for the target image pickup shape data extracted by the target shape data extraction means. Target discriminating apparatus characterized by having a comparison discriminating means for discriminating.
【請求項10】 撮像手段により撮影した画像に映し出
される目標を判別する目標判別装置において、 目標候補の形状データ及びその目標候補が取る隊形、陣
形等に関する隊形配置情報を記憶する目標情報記憶手段
と、 目標候補が取りうる隊形、陣形等の隊形配置情報を記憶
する目標配置データ記憶手段と、 前記撮像手段により撮像された複数の目標の各撮像形状
データを得る目標形状データ抽出手段と、 前記撮像手段により撮像された複数の目標の配置状況を
得る目標配置検出手段と、 前記目標配置検出手段が得た配置状況に対応する隊形配
置情報を前記目標配置データ記憶手段に記憶された隊形
配置情報の中から特定する目標配置判定手段と、 前記目標の撮像形状データと前記目標候補の形状データ
との比較結果並びに前記目標配置判定手段が特定した隊
形配置情報と前記目標情報記憶手段が記憶した隊形配置
情報との比較結果に基づいて目標を判別する比較判別手
段と、 を有することを特徴とする目標判別装置。
10. A target discriminating device for discriminating a target displayed in an image photographed by an image pickup means, and target information storage means for storing shape data of the target candidate and formation formation information regarding the formation, formation etc. taken by the target candidate. Target formation data storage means for storing formation formation information such as formations and formations that the target candidate can take; target shape data extraction means for obtaining each image pickup shape data of a plurality of targets imaged by the image pickup means; Target placement detection means for obtaining the placement situation of a plurality of targets imaged by means, and formation formation information corresponding to the placement situation obtained by the target placement detection means of formation formation information stored in the target placement data storage means. A target placement determining unit that identifies the target placement shape, a comparison result of the target imaging shape data and the target candidate shape data, and the target placement determination A target discriminating device comprising: comparison discriminating means for discriminating a target based on a comparison result of the formation formation information specified by the setting means and the formation formation information stored in the target information storage means.
JP14627896A 1996-06-07 1996-06-07 Target discriminator Expired - Fee Related JP3314858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14627896A JP3314858B2 (en) 1996-06-07 1996-06-07 Target discriminator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14627896A JP3314858B2 (en) 1996-06-07 1996-06-07 Target discriminator

Publications (2)

Publication Number Publication Date
JPH09329659A true JPH09329659A (en) 1997-12-22
JP3314858B2 JP3314858B2 (en) 2002-08-19

Family

ID=15404113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14627896A Expired - Fee Related JP3314858B2 (en) 1996-06-07 1996-06-07 Target discriminator

Country Status (1)

Country Link
JP (1) JP3314858B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004257924A (en) * 2003-02-27 2004-09-16 Nissan Motor Co Ltd Object detector
JP2006174440A (en) * 2000-02-21 2006-06-29 Sharp Corp Image compositing apparatus
JP2006285627A (en) * 2005-03-31 2006-10-19 Hokkaido Univ Device and method for retrieving similarity of three-dimensional model
JP2010270947A (en) * 2009-05-20 2010-12-02 Mitsubishi Electric Corp Guidance device and target determining device
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174440A (en) * 2000-02-21 2006-06-29 Sharp Corp Image compositing apparatus
JP4658787B2 (en) * 2000-02-21 2011-03-23 シャープ株式会社 Image synthesizer
JP2004257924A (en) * 2003-02-27 2004-09-16 Nissan Motor Co Ltd Object detector
JP2006285627A (en) * 2005-03-31 2006-10-19 Hokkaido Univ Device and method for retrieving similarity of three-dimensional model
JP2010270947A (en) * 2009-05-20 2010-12-02 Mitsubishi Electric Corp Guidance device and target determining device
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device

Also Published As

Publication number Publication date
JP3314858B2 (en) 2002-08-19

Similar Documents

Publication Publication Date Title
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
JP4380838B2 (en) Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program
JP5057183B2 (en) Reference data generation system and position positioning system for landscape matching
US6173066B1 (en) Pose determination and tracking by matching 3D objects to a 2D sensor
JP5168601B2 (en) Own vehicle position recognition system
US7733342B2 (en) Method of extracting 3D building information using shadow analysis
JP3367170B2 (en) Obstacle detection device
US20020134151A1 (en) Apparatus and method for measuring distances
JP2002157576A (en) Device and method for processing stereo image and recording medium for recording stereo image processing program
WO2012086821A1 (en) Positioning apparatus and positioning method
JPWO2004095374A1 (en) Video object recognition apparatus and recognition method, video annotation giving apparatus and giving method, and program
JP2000207693A (en) Obstacle detector on vehicle
JP2015059768A (en) Level difference measuring device, level difference measuring method and program
JPH09329659A (en) Target discrimination device
JP3066173B2 (en) Pattern matching method
JPH10171966A (en) On-vehicle image processor
JP2002133413A (en) Method and device for identifying three-dimensional object using image processing
WO2020158726A1 (en) Image processing device, image processing method, and program
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JPH1055446A (en) Object recognizing device
CN107808160B (en) Three-dimensional building extraction method and device
JP2014099055A (en) Detector, detection method, and program
JP3465531B2 (en) Object recognition method and apparatus
JPH1023311A (en) Image information input method and device therefor
CN113781639B (en) Quick construction method for digital model of large-scene road infrastructure

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees