JP3446177B2 - Target identification method and target identification device - Google Patents

Target identification method and target identification device

Info

Publication number
JP3446177B2
JP3446177B2 JP2000339279A JP2000339279A JP3446177B2 JP 3446177 B2 JP3446177 B2 JP 3446177B2 JP 2000339279 A JP2000339279 A JP 2000339279A JP 2000339279 A JP2000339279 A JP 2000339279A JP 3446177 B2 JP3446177 B2 JP 3446177B2
Authority
JP
Japan
Prior art keywords
target
image
template image
correlation value
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000339279A
Other languages
Japanese (ja)
Other versions
JP2002150298A (en
Inventor
英志 坂口
Original Assignee
株式会社エム・シー・シー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エム・シー・シー filed Critical 株式会社エム・シー・シー
Priority to JP2000339279A priority Critical patent/JP3446177B2/en
Publication of JP2002150298A publication Critical patent/JP2002150298A/en
Application granted granted Critical
Publication of JP3446177B2 publication Critical patent/JP3446177B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は入力された画像中に
存在する目標を識別する方法およびその装置、特に衛星
に搭載された合成開口レーダで取得された画像を地上局
に送信し、地上局でその画像を処理し、高速かつ安定的
に艦船等の目標を識別する目標識別方法および目標識別
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for identifying a target existing in an input image and its apparatus, and more particularly to transmitting an image acquired by a synthetic aperture radar mounted on a satellite to a ground station, The present invention relates to a target identification method and a target identification device which process the image to identify a target such as a ship at high speed and stably.

【0002】[0002]

【従来の技術】従来の目標を識別する方法としては種々
の方法があるが、ここではその中から1つの目標識別方
法について説明する。図46は従来の目標識別方法を実
行する目標識別装置の全体構成を示す図である。
2. Description of the Related Art There are various conventional methods for identifying a target. Here, one of the methods for identifying a target will be described. FIG. 46 is a diagram showing an overall configuration of a target identifying apparatus that executes a conventional target identifying method.

【0003】図46において、目標識別装置は、入力さ
れる被識別対象画像から目標を構成する画素(以下、目
標構成画素という)の検出を行い2値化する目標構成画
素検出ユニット110、目標を識別するためのテンプレ
ート画像の移動範囲を設定するテンプレート画像中心移
動範囲設定ユニット160、2値化された被識別対象画
像中のテンプレート画像が置かれている領域とテンプレ
ート画像との類似度を相関値として算出する相関値算出
ユニット280、相関値算出ユニット280で算出され
た相関値に対してテンプレート画像を移動させる範囲の
中で最も高い相関値を検出する最良マッチング結果判定
ユニット290、全テンプレート画像に対して上記16
0〜290の処理が終了しているか否か判定する全テン
プレート画像終了判定ユニット220、全テンプレート
画像中で最も高い相関値のテンプレート画像を抽出し、
目標名称を出力する目標名称出力ユニット260から構
成される。
In FIG. 46, a target identifying device detects a pixel constituting a target (hereinafter, referred to as a target constituent pixel) from an inputted image to be identified and binarizes the target constituent pixel detecting unit 110. A template image center moving range setting unit 160 for setting the moving range of the template image for identification, and a correlation value of the similarity between the region where the template image is placed in the binarized target image and the template image. As a correlation value calculation unit 280, a correlation value calculated by the correlation value calculation unit 280, the best matching result determination unit 290 that detects the highest correlation value in the range in which the template image is moved, and all template images. In contrast to the above 16
All template image end determination unit 220 for determining whether or not the processing of 0 to 290 has been completed, extracting the template image with the highest correlation value among all template images,
The target name output unit 260 outputs the target name.

【0004】図47は、図46に示す従来の目標識別方
法を実施する目標識別装置の処理フローチャートであ
る。図47において、従来の目標識別方法は、入力され
る被識別対象画像から目標構成画素の検出を行い、2値
化画像を生成する目標構成画素検出処理S110、目標
を識別するためのテンプレート画像の移動範囲を設定す
るテンプレート画像中心移動範囲設定処理S160、2
値化された被識別対象画像中の現在のテンプレート画像
が置かれている領域とテンプレート画像との相関値を算
出する相関値算出処理S280、相関値算出処理S28
0で算出された相関値に対してテンプレート画像を移動
させた範囲の中で最も高い相関値を検出する最良マッチ
ング結果判定処理S290、全テンプレート画像に対し
て上記S160〜S290までの処理が終了しているか
否か判定する全テンプレート画像終了判定処理S22
0、全テンプレート画像中で最も相関値が高いテンプレ
ート画像を抽出し、目標の名称を出力する目標名称出力
処理S260から構成される。
FIG. 47 is a process flowchart of the target identifying apparatus for implementing the conventional target identifying method shown in FIG. In FIG. 47, the conventional target identification method is a target component pixel detection process S110 of detecting a target constituent pixel from an input target image to be identified and generating a binarized image, and a template image for identifying a target. Template image center movement range setting processing S160, 2 for setting the movement range
Correlation value calculation processing S280 and correlation value calculation processing S28 for calculating the correlation value between the template image and the area where the current template image is placed in the binarized target image.
The best matching result determination processing S290 for detecting the highest correlation value in the range in which the template image is moved with respect to the correlation value calculated by 0, and the processing from S160 to S290 is completed for all template images. All template image end determination processing S22 for determining whether or not
0, the template image having the highest correlation value among all the template images is extracted, and the target name output process S260 is performed to output the target name.

【0005】図48は、入力された被識別対象画像とあ
るテンプレート画像を示す図である。図48(a)は入
力された被識別対象画像を示し、図48(b)はテンプ
レート画像を示す。目標構成画素検出処理S110にお
いて、図48において、目標を構成する各画素は被識別
対象画像のx−y軸上で表わされ、(x,y)座標にお
ける画素の輝度はX(x,y)で表示される。一方、テ
ンプレート画像は、識別したい目標に対応する目標を構
成する画素の2値化画像である。テンプレート画像は識
別する可能性のある全ての目標に対して用意する。目標
の識別は、原理的には、入力された被識別対象画像と用
意された全てのテンプレート画像との相関値を算出し、
比較して、相関値が1もしくは1に最も近い値のテンプ
レート画像を抽出し、被識別対象画像中の目標をそのテ
ンプレート画像中に存在する目標であると判定するもの
である。
FIG. 48 is a diagram showing an input image to be identified and a template image. FIG. 48A shows the inputted image to be identified, and FIG. 48B shows the template image. In the target constituent pixel detection process S110, in FIG. 48, each pixel forming the target is represented on the xy axis of the image to be identified, and the luminance of the pixel at the (x, y) coordinate is X (x, y). ) Is displayed. On the other hand, the template image is a binarized image of the pixels forming the target corresponding to the target to be identified. Template images are prepared for all targets that can be identified. The target is identified in principle by calculating the correlation value between the input image to be identified and all the prepared template images,
By comparison, a template image having a correlation value of 1 or a value closest to 1 is extracted, and the target in the image to be identified is determined to be the target existing in the template image.

【0006】次に、従来の目標識別装置の詳細な説明を
行う。目標構成画素検出処理S110では、被識別対象
画像中の全画素から目標構成画素を検出し、目標構成画
素を“1”で表わし、背景であると推定される画素を
“0”で表わす2値化処理を行う。
Next, a detailed description will be given of the conventional target identifying device. In the target constituent pixel detection process S110, the target constituent pixels are detected from all the pixels in the image to be identified, the target constituent pixels are represented by "1", and the pixels estimated to be the background are represented by "0". Process.

【0007】目標構成画素検出処理S110は、被識別
対象画像中の各画素の輝度値X(i,j)が2値化判定
値D以上であるか否かを比較し、 X(i,j)≧D のときに、その画素は目標構成画素であると判定し、 X(i,j)<D のときに、その画素は目標を構成しない画素であると判
定する。ここでiは被識別対象画像中の画素のx座標、
jは被識別対象画像中の画素のy座標である。これを被
識別対象画像中の全画素に対して行う。このようにして
得られた2値化画像を図49(a)に示す。図49
(a)は目標構成画素2値化画像を示し、図49(b)
はテンプレート画像(2値化画像)を示す。図49
(a)の中央部の「目標」は被識別対象画像中の目標を
構成する画素と判断された部分であり、「目標領域」
は、図49(b)に示されるテンプレート画像(2値化
画像)と重ね合わされる部分であり、この重ね合わされ
た「目標領域」とテンプレート画像(2値化画像)との
相関値の算出が行われる。
The target constituent pixel detection process S110 compares whether or not the luminance value X (i, j) of each pixel in the image to be identified is greater than or equal to the binarization determination value D, and X (i, j) ) ≧ D 2, it is determined that the pixel is a target constituent pixel, and when X (i, j) <D 2, it is determined that the pixel is a pixel that does not constitute the target. Where i is the x coordinate of a pixel in the image to be identified,
j is the y coordinate of the pixel in the image to be identified. This is performed for all pixels in the image to be identified. The binarized image thus obtained is shown in FIG. FIG. 49
FIG. 49A shows a target constituent pixel binarized image, and FIG.
Indicates a template image (binarized image). FIG. 49
The "target" in the central portion of (a) is a portion determined to be a pixel constituting the target in the image to be identified, and is the "target area".
Is a portion to be overlapped with the template image (binarized image) shown in FIG. 49 (b), and the calculation of the correlation value between the overlapped “target area” and the template image (binarized image) can be calculated. Done.

【0008】テンプレート画像中心移動範囲設定処理S
160では、図50に示すように、目標構成画素2値化
画像中の目標を構成する画素とテンプレート画像中の目
標を構成する画素が最も良く重なりあう場所を探索する
ため、目標構成画素2値化画像中でテンプレート画像を
移動するが、このときのテンプレート画像の中心が移動
する移動範囲を設定する。たとえば、図50にあるよう
にテンプレート画像の中心位置P(x,y)を、目標構
成画素2値化画像中の目標の重心O(u,v)からx座
標軸方向に±α、y座標軸方向に±βの範囲内で移動さ
せるように設定する。この設定によって、テンプレート
画像の中心P(x,y)は、P(u−α,v−β)から
P’(u+α,v+β)の範囲内で移動できるようにな
る。
Template image center moving range setting process S
At 160, as shown in FIG. 50, the target constituent pixel binarized image is searched for a position where the pixel constituting the target and the pixel constituting the target in the template image best overlap with each other. The template image is moved in the converted image, and the moving range in which the center of the template image moves at this time is set. For example, as shown in FIG. 50, the center position P (x, y) of the template image is ± α in the x-coordinate axis direction from the target center of gravity O (u, v) in the target constituent pixel binarized image, and the y-coordinate axis direction. Set to move within ± β. By this setting, the center P (x, y) of the template image can be moved within the range of P (u−α, v−β) to P ′ (u + α, v + β).

【0009】相関値算出処理S280では上記の移動範
囲中で被識別対象画像中に存在する目標を識別するため
に全テンプレート画像(2値化画像)から所定のテンプ
レート画像を抽出し、図50に示すようにそのテンプレ
ート画像と目標構成画素検出処理S110の結果である
目標構成画素2値化画像中で現在の対象となっている目
標領域の相関値Cを算出する。
In the correlation value calculation processing S280, a predetermined template image is extracted from all the template images (binarized images) in order to identify the target existing in the image to be identified in the above moving range, and FIG. As shown, the correlation value C of the target area that is the current target in the target constituent pixel binarized image that is the result of the target constituent pixel detection processing S110 is calculated.

【0010】[0010]

【数1】 ここでf(x,y)は目標構成画素2値化画像、t(x,y)はテン
プレート画像、(u,v)は目標構成画素2値化画像中でテ
ンプレート画像の中心を設置する位置、faveは目標構成
画素2値化画像中でテンプレート画像と相関値を算出す
る部分(目標領域)の全画素の平均値、taveはテンプレ
ート画像内部の全画素の平均値、Sは目標構成画素2値
化画像で現在対象となっている領域(目標領域)を示
す。
[Equation 1] Where f (x, y) is the target component pixel binarized image, t (x, y) is the template image, and (u, v) is the position where the center of the template image is set in the target component pixel binarized image. , F ave is the average value of all the pixels in the portion (target area) where the correlation value is calculated with the template image in the target constituent pixel binary image, t ave is the average value of all the pixels inside the template image, and S is the target configuration. An area (target area) currently targeted in the pixel binarized image is shown.

【0011】最良マッチング結果判定処理S290では
テンプレート画像を前記のテンプレートマッチング移動
範囲設定処理で設定した移動範囲u±αおよびv±β内で
テンプレート画像の中心の位置をずらし、全移動範囲で
相関値Cが計算されていなければ、テンプレート画像中
心移動範囲設定処理S160に戻り、全移動範囲で計算
が終了していれば、移動範囲内の各目標領域とテンプレ
ート画像の相関値の最大値を検出し、最良マッチング値
として出力する。
In the best matching result determination processing S290, the template image is moved within the moving range u ± α and v ± β set by the template matching moving range setting processing, and the center position of the template image is shifted to obtain the correlation value in the entire moving range. If C is not calculated, the process returns to the template image center moving range setting process S160, and if the calculation is completed in the entire moving range, the maximum value of the correlation value between each target area within the moving range and the template image is detected. , Output as the best matching value.

【0012】全テンプレート画像終了判定処理S220
では全テンプレート画像に対して上記の処理S160〜
S290が終了しているか判定し、終了していなければ
S160に戻り、終了していれば次の名称出力処理S2
60に移る処理を行う。
All template image end determination processing S220
Then, for all template images, the above process S160-
It is determined whether S290 is completed. If not completed, the process returns to S160, and if completed, the next name output process S2 is executed.
The process of moving to 60 is performed.

【0013】目標名称出力処理S260では前記の最良
マッチング結果判定処理S290の結果である各テンプ
レート画像の相関値の最大値から最も値の大きいテンプ
レート画像を抽出し、そのテンプレート画像中に存在す
る目標の名称を被識別対象画像中に存在する目標として
出力する。
In the target name output process S260, the template image having the largest value is extracted from the maximum correlation value of each template image which is the result of the above-described best matching result determination process S290, and the target image existing in the template image is extracted. The name is output as a target existing in the image to be identified.

【0014】[0014]

【発明が解決しようとする課題】しかしながら、上述の
方法は2値化された画像同士の相関値による目標の識別
であり、外形形状で目標が識別できる場合には有効な方
法であるが、図51(a1)と(a2)に示すように外
形の形状は同じあるが、内部の構造が異なる2つの目標
の場合には適用できない。つまり、2つの目標画像が多
値で表示される場合には、図51(b1)と(b2)に
示すように内部の輝度値が異なり2つの目標の画像は異
なる。しかしながら、この多値画像を外形形状が失われ
ないようにスレッショルドレベルを定めて2値化した場
合には、図51(c1)と(c2)に示すように2つの
目標の外形形状は同じになり、上述の従来の目標識別装
置では別々の目標として識別できない。
However, the above-mentioned method is the identification of the target by the correlation value between the binarized images and is an effective method when the target can be identified by the outer shape. 51 (a1) and 51 (a2) have the same outer shape but cannot be applied to two targets having different internal structures. That is, when the two target images are displayed in multiple values, the internal brightness values are different and the two target images are different as shown in FIGS. 51 (b1) and (b2). However, when the threshold level is set so that the outer shape is not lost in this multi-valued image, the two target outer shapes are the same as shown in FIGS. 51 (c1) and (c2). That is, the above-described conventional target identification device cannot identify the targets as separate targets.

【0015】そこで、被識別対象画像の目標領域とテン
プレート画像との相関値を算出する処理で2値化画像を
用いるのではなく、被識別対象画像とテンプレート画像
とも輝度値または輝度値を絶対値に変換した値(例え
ば、合成開口レーダ画像では後方散乱係数)で上述の相
関値処理を行い、目標の識別を行うことが考えられる。
Therefore, instead of using a binarized image in the process of calculating the correlation value between the target area of the image to be identified and the template image, both the brightness value or the absolute value of the brightness value is obtained for both the image to be identified and the template image. It is conceivable to perform the above-mentioned correlation value processing with the value converted to (for example, the backscattering coefficient in the synthetic aperture radar image) to identify the target.

【0016】この際、図52(a1)と(a2)に示す
ように同じ目標の形態が何らかの原因で局所的に変化し
た場合には、図52(a1)と図52(a2)のように
形態が変化した部分の輝度値が変化する。このように同
じ目標の形態が何らかの原因で局所的に変化した場合に
は、変化した目標の輝度値のパターンと類似のテンプレ
ート画像との相関が高くなり、誤った目標の識別結果を
提供することがある。
At this time, as shown in FIGS. 52 (a1) and 52 (a2), if the same target shape locally changes for some reason, as shown in FIGS. 52 (a1) and 52 (a2). The brightness value of the portion where the form has changed changes. In this way, if the same target shape locally changes for some reason, the correlation between the changed target brightness value pattern and a similar template image becomes high, and an incorrect target identification result is provided. There is.

【0017】これを解決するために図53に示すように
被識別対象画像中の目標が存在する領域を分割し、その
局所領域に対してテンプレートマッチングを施す部分テ
ンプレートマッチング方法がある。図53(a)は被識
別対象画像中の目標領域を4つの局所領域に分割した図
であり、図53(b)はテンプレート画像を4つの局所
領域に分割した図である。この場合、被識別対象画像中
の目標領域の局所領域とテンプレート画像の局所領域に
おいて図53(a)に示すように背景の部分が多く、目
標領域とテンプレート画像の局所領域との間で背景の類
似性が高い場合はこの領域の相関値は高くなる。また、
場合によっては背景のみの部分が存在してしまう。
In order to solve this, there is a partial template matching method as shown in FIG. 53, in which a region in the image to be identified in which a target is present is divided and template matching is performed on the local region. FIG. 53 (a) is a diagram in which the target region in the image to be identified is divided into four local regions, and FIG. 53 (b) is a diagram in which the template image is divided into four local regions. In this case, there are many background portions in the local area of the target area and the local area of the template image in the image to be identified, as shown in FIG. 53A, and the background area is present between the target area and the local area of the template image. When the similarity is high, the correlation value in this area is high. Also,
In some cases, there is a background only part.

【0018】このような部分が多くなると、各局所領域
の相関値の総和や相関値の平均値またはスレッショルド
以上の相関値を持つ領域数が最大となったテンプレート
画像中に存在する目標を被識別対象画像中に存在する目
標とする場合に、識別結果は誤りを起こすことがある。
When the number of such regions increases, the target existing in the template image having the maximum sum of the correlation values of the respective local regions, the average value of the correlation values, or the correlation value higher than the threshold is identified. When the target exists in the target image, the identification result may cause an error.

【0019】更に、分割した局所領域中で目標を構成す
る画素が少なく背景が多い場合も相関値を算出しなけれ
ばならず、処理量が多くなるという欠点がある。
Further, there is a drawback in that the correlation value must be calculated even when the number of pixels constituting the target is small and the number of backgrounds is large in the divided local area, resulting in a large amount of processing.

【0020】本発明は上記の問題点を鑑みてなされたも
のであり、外形形状だけでは識別できない目標の識別を
行う場合に分割した局所領域の目標構成画素の画素数に
より、その局所領域の相関値計算をスキップさせること
で計算量を大幅に減少させ、安定的かつ高速に目標の識
別が行える目標識別方法および目標識別装置を提供する
ものである。
The present invention has been made in view of the above problems, and when the target which cannot be identified only by the outer shape is identified, the correlation of the local region is determined by the number of target constituent pixels of the divided local region. (EN) A target identification method and a target identification device capable of performing stable and high-speed target identification by significantly reducing the calculation amount by skipping value calculation.

【0021】[0021]

【課題を解決するための手段】前述の課題を解決するた
め、本発明の第1の発明による目標識別方法は、入力さ
れた被識別対象画像から目標を構成する画素を検出して
2値化画像を生成し、前記で生成された2値化画像から
ラベリング画像を生成し、前記ラベリング画像から目標
の重心を算出し、前記入力被識別対象画像に対してテン
プレート画像の中心移動範囲を設定し、前記テンプレー
ト画像を置くべき目標領域の中心を決定し、前記目標領
域を抽出し、前記ラベリング画像の局所領域中で目標の
画素数をカウントし、前記カウント数と所定のスレッシ
ョルドにより、その局所領域の相関値算出を判定し、そ
の局所領域に対応する目標領域内対象局所領域とテンプ
レート画像内対象局所領域を抽出して相関値を算出し、
前記目標領域の全ての局所領域に対して相関値算出判定
を行い、前記相関値算出判定処理で相関値算出と判定さ
れた全ての局所領域の相関値の総和を算出し、テンプレ
ート画像の移動範囲で算出された相関値の総和から最も
良いマッチング結果を判定し、更に全テンプレート画像
中で最も良いマッチング結果が得られたテンプレート画
像中に存在する目標を被識別対象画像中に存在する目標
であると推定し、その目標の名称を出力するように構成
される。
In order to solve the above-mentioned problems, a target identifying method according to the first invention of the present invention detects a pixel constituting a target from an inputted image to be identified and binarizes it. An image is generated, a labeling image is generated from the binarized image generated above, a target center of gravity is calculated from the labeling image, and a center moving range of the template image is set with respect to the input identification target image. , Determining the center of the target area on which the template image should be placed, extracting the target area, counting the number of target pixels in the local area of the labeling image, and using the count number and a predetermined threshold, the local area Correlation value is determined and the correlation value is calculated by extracting the target local area in the target area and the target local area in the template image corresponding to the local area,
Correlation value calculation determination is performed for all local regions of the target region, the sum of correlation values of all local regions determined to be correlation value calculation in the correlation value calculation determination process is calculated, and the moving range of the template image is calculated. The best matching result is determined from the sum of the correlation values calculated in step 1, and the target existing in the template image that has the best matching result among all the template images is the target existing in the identification target image. And outputs the name of the target.

【0022】本発明の第2の発明による目標識別方法
は、目標重心算出処理の後に、目標長軸を算出し目標の
方向が被識別対象画像から算出した目標の方向±所定角
度の範囲に含まれるテンプレート画像のみを選択する目
標長軸算出処理を付加し、前記目標長軸算出処理で選択
されたテンプレート画像のみを用いて前記相関値/相関
値総和算出処理を行うように構成される。
In the target identifying method according to the second aspect of the present invention, after the target center of gravity calculation processing, the target long axis is calculated and the target direction is included in the range of the target direction ± predetermined angle calculated from the image to be identified. A target long axis calculation process for selecting only the template image to be performed is added, and the correlation value / correlation value sum calculation process is performed using only the template image selected in the target long axis calculation process.

【0023】本発明の第3の発明による目標識別方法
は、目標重心算出処理の後に、目標長を算出し目標の長
さが被識別対象画像から算出した目標長±所定の長さ範
囲に含まれるテンプレート画像のみを選択する目標長軸
算出処理を付加し、前記目標長算出処理で選択されたテ
ンプレート画像のみを用いて前記相関値/相関値総和算
出処理を行うように構成される。
In the target identifying method according to the third aspect of the present invention, the target length is calculated after the target center-of-gravity calculation process, and the target length is included in the target length ± predetermined length range calculated from the image to be identified. A target long axis calculation process for selecting only the template image to be performed is added, and the correlation value / correlation value sum calculation process is performed using only the template image selected in the target length calculation process.

【0024】本発明の第4の発明による目標識別方法
は、目標重心算出処理の後に、さらに目標長を算出し、
目標の方向が被識別対象画像から算出した目標の長軸の
方向±所定角度の範囲に含まれるテンプレート画像のみ
を選択する目標長軸算出処理及び目標の長さを算出し、
目標の長さが被識別対象画像から算出した目標長±所定
の長さ範囲に含まれるテンプレート画像のみを選択する
目標長算出処理を付加し、前記目標長軸算出処理で選択
され、かつ前記目標長算出処理で選択されたテンプレー
ト画像のみを用いて前記相関値/相関値総和算出処理を
行うように構成される。
The target identifying method according to the fourth aspect of the present invention further calculates a target length after the target center of gravity calculation processing,
A target long axis calculation process that selects only the template image included in the range of the target long axis direction ± predetermined angle in which the target direction is calculated from the identification target image, and calculates the target length,
The target length is calculated by adding the target length calculation process for selecting only the template image whose target length is calculated from the image to be identified ± the predetermined length range, and the target long axis calculation process is performed, and the target The correlation value / correlation value sum calculation process is performed using only the template image selected in the length calculation process.

【0025】本発明の第5の発明による目標識別方法
は、本発明の第1〜第4の発明の相関値算出処理におい
て対象局所領域中の目標構成画素の位置に対応する目標
領域内対象局所領域対応位置画素及びテンプレート画像
内対象局所領域対応位置画素のみを用いて相関値を算出
するように構成される。
The target identifying method according to the fifth aspect of the present invention is the target area in the target area corresponding to the position of the target constituent pixel in the target local area in the correlation value calculation processing of the first to fourth aspects of the present invention. The correlation value is calculated using only the area-corresponding position pixel and the target local area-corresponding position pixel in the template image.

【0026】[0026]

【発明の実施の形態】実施の形態1.図1は本発明の実
施の形態1の目標識別装置の全体構成を示すブロック図
である。図1において、本発明の実施の形態1の目標識
別装置は、目標構成画素検出ユニット110、ラベリン
グユニット120、目標重心算出ユニット130、テン
プレート画像中心移動範囲設定ユニット160、目標領
域抽出ユニット170、局所領域処理実行判定ユニット
180、目標領域内対象局所領域抽出ユニット190、
テンプレート画像内対象局所領域抽出ユニット200、
相関値/相関値総和算出ユニット210、全テンプレー
ト画像終了判定ユニット220、全局所領域終了判定ユ
ニット230、最良マッチング結果判定ユニット24
0、全移動範囲終了判定ユニット250、目標名称出力
ユニット260、記憶ユニット300、およびカウンタ
400から構成される。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiment 1. 1 is a block diagram showing the overall configuration of a target identifying device according to a first embodiment of the present invention. Referring to FIG. 1, the target identifying apparatus according to the first embodiment of the present invention includes a target constituent pixel detection unit 110, a labeling unit 120, a target center of gravity calculation unit 130, a template image center moving range setting unit 160, a target area extraction unit 170, a local area. Area processing execution determination unit 180, target local area extraction unit 190 within target area,
Target local area extraction unit 200 in template image,
Correlation value / correlation value sum calculation unit 210, all template image end determination unit 220, all local region end determination unit 230, best matching result determination unit 24
0, an entire movement range end determination unit 250, a target name output unit 260, a storage unit 300, and a counter 400.

【0027】図2は本発明の実施の形態1の目標識別装
置の全体の処理を示すフローチャートである。図2にお
いて目標識別処理の全体フローは、入力された被識別対
象画像中で目標を構成する画素の検出を行う目標構成画
素検出処理S110、2値化画像を生成し、その2値化
画像に対してラベリングを行い、ラベリング画像を生成
するラベリング処理S120、ラベリングされた目標の
重心を算出する目標重心算出処理S130、被識別対象
画像に対してテンプレート画像の移動範囲を設定するテ
ンプレート画像中心移動範囲設定処理S160、テンプ
レート画像とのマッチングを判定するために被識別対象
画像中の目標領域を抽出する目標領域抽出処理S17
0、ラベリング画像上であらかじめ設定しておいた大き
さの局所領域を抽出し、その局所領域中の目標の画素数
を算出し、算出された画素数があらかじめ設定した画素
数(スレッショルド)以上である局所領域のみで下記の
相関値/相関値総和算出処理S210を実行するように
判定する局所領域処理実行判定処理S180、目標領域
から上記で判定された局所領域に対応する局所領域を抽
出する目標領域内対象局所領域抽出処理S190、1つ
のテンプレート画像を読み出し、上記の目標領域内対象
局所領域と対応するテンプレート画像内の対象局所領域
を抽出するテンプレート画像内対象局所領域抽出処理S
200、目標領域内の対象局所領域とテンプレート画像
内の対象局所領域の相関値を算出し、相関値の総和を計
算する相関値/相関値総和算出処理S210、全テンプ
レート画像に対してそれぞれ上記のテンプレート画像内
対象局所領域抽出処理S200および相関値/相関値総
和算出処理S210が実行されたか否かを判定する全テ
ンプレート画像終了処理S220、現在対象となってい
る目標領域内の全局所領域が処理されたか否かを判定す
る全局所領域終了判定処理S230、現在処理されたマ
ッチングの度合いが各テンプレート画像毎に最大値とな
ったか判定し、最大値である場合はその最大値に更新
し、そうでない場合は以前の最大値を保持する最良マッ
チング結果判定処理S240、テンプレート画像中心移
動範囲設定処理S160で設定された範囲すべてが処理
されたか否かを判定する全移動範囲終了判定処理S25
0、全テンプレート画像のマッチングの度合いの中から
最大値を検出し、最大値となったテンプレート画像中に
存在する目標を被識別対象画像中にある目標であると判
断して、その目標の名称を出力する目標名称出力処理S
260から構成される。以下に図1に示す装置構成およ
び図2に示す各処理構成で行われる処理について順次詳
細に説明する。
FIG. 2 is a flowchart showing the overall processing of the target identifying device according to the first embodiment of the present invention. In FIG. 2, the overall flow of the target identification processing is as follows: Target constituent pixel detection processing S110 for detecting the pixels forming the target in the input target image to be identified; Labeling processing S120 for performing labeling to generate a labeling image, target centroid calculation processing S130 for calculating the centroid of the labeled target, and template image center movement range for setting the movement range of the template image for the image to be identified Setting process S160, target region extraction process S17 for extracting a target region in the image to be identified to determine matching with the template image
0, a local area of a preset size is extracted on the labeling image, the target number of pixels in the local area is calculated, and the calculated number of pixels is greater than or equal to the preset number of pixels (threshold). Local region processing execution determination process S180 for determining to execute the following correlation value / correlation value sum total calculation process S210 only in a certain local region, target for extracting a local region corresponding to the local region determined above from the target region In-region target local region extraction process S190: One template image is read out, and in-template-image target local region extraction process S is performed to extract the target local region in the template image corresponding to the target region target local region.
200, correlation value / correlation value sum total calculation processing S210 for calculating the correlation value of the target local area in the target area and the target local area in the template image, and calculating the sum of the correlation values. All template image end processing S220 for determining whether or not the target local area extraction processing S200 in the template image and the correlation value / correlation value sum total calculation processing S210 have been executed, and all local areas in the target area currently targeted are processed. All local region end determination processing S230 for determining whether or not it has been performed, it is determined whether the degree of matching currently processed has reached the maximum value for each template image, and if it is the maximum value, it is updated to the maximum value. If not, the best matching result determination process S240 that retains the previous maximum value, the template image center moving range setting process S1 0 total travel end determination process determines whether all range set is processed in S25
0, the maximum value is detected from the degree of matching of all template images, the target existing in the template image having the maximum value is determined to be the target in the image to be identified, and the name of the target is determined. Output target name output process S
It is composed of 260. The processes performed by the apparatus configuration shown in FIG. 1 and each processing configuration shown in FIG. 2 will be sequentially described in detail below.

【0028】図3は、本発明の実施の形態1の目標構成
画素検出処理S110を説明するフローチャートであ
る。図3において、目標構成画素検出ユニット110
は、被識別対象画像読み出し処理S111、目標構成画
素抽出処理S112、2値化処理S113を行う。目標
構成画素抽出処理S112は、例えば、「目標検出方法
および目標検出装置」、特開2000−180543に
開示されるような方法を用いて目標を構成する画素を抽
出する処理を用いてもよい。
FIG. 3 is a flow chart for explaining the target constituent pixel detection processing S110 according to the first embodiment of the present invention. In FIG. 3, the target constituent pixel detection unit 110
Performs an identification target image reading process S111, a target constituent pixel extracting process S112, and a binarizing process S113. The target constituent pixel extraction process S112 may use a process of extracting pixels constituting a target by using a method disclosed in, for example, “Target Detection Method and Target Detection Device”, Japanese Patent Laid-Open No. 2000-180543.

【0029】図4は、本発明の実施の形態1の目標構成
画素検出ユニット110が行う目標構成画素検出処理S
110を説明する図である。被識別対象画像読み出し処
理S111では入力画像をスキャンして図4(a)に示
すように被識別対象画像の各画素を読み出し、記憶ユニ
ット300に書き込む。目標構成画素抽出処理S112
で目標を構成する画素の部分を抽出し、2値化処理S1
13で2値化処理を行い、図4(b)のように、例え
ば、目標を構成する画素に“1”、それ以外の画素に
“0”が付された2値化画像を得る。得られた目標構成
画素2値化画像は記憶ユニット300に記憶される。
FIG. 4 shows a target constituent pixel detection process S performed by the target constituent pixel detection unit 110 according to the first embodiment of the present invention.
It is a figure explaining 110. In the identification target image reading process S111, the input image is scanned to read each pixel of the identification target image as shown in FIG. Target constituent pixel extraction processing S112
The pixel portion that constitutes the target is extracted by, and binarization processing S1 is performed.
A binarization process is performed in 13 to obtain a binarized image in which, as shown in FIG. 4B, for example, the pixel forming the target is given "1" and the other pixels are given "0". The obtained target constituent pixel binarized image is stored in the storage unit 300.

【0030】図5は、本発明の実施の形態1のラベリン
グユニット120が行うラベリング処理S120のフロ
ーチャートである。ラベリング処理S120は、目標構
成画素2値化画像読み出し処理S121、ラベリング実
施処理S122から構成される。ラベリング処理S12
0は、目標構成画素検出ユニット110で得られた結果
である目標構成画素2値化画像を読み出し、目標構成画
素の連結部分を検知して個々の画素が目標に属するかを
判定する。これにより、連結成分が目標として認識され
る。処理結果はラベリング画像として記憶ユニット30
0に書き込まれる。
FIG. 5 is a flowchart of the labeling process S120 performed by the labeling unit 120 according to the first embodiment of the present invention. The labeling process S120 includes a target component pixel binary image reading process S121 and a labeling execution process S122. Labeling process S12
0 reads the target constituent pixel binarized image which is the result obtained by the target constituent pixel detection unit 110, detects the connected portion of the target constituent pixels, and determines whether each pixel belongs to the target. Thereby, the connected component is recognized as the target. The processing result is stored as a labeling image in the storage unit 30.
Written to zero.

【0031】図6は、本発明の実施の形態1のラベリン
グユニット120が行うラベリング処理S120を説明
する図である。目標構成画素2値化画像読み出し処理S
121において、図6(a)に示されるように上記の目
標構成画素検出処理S110で記憶ユニット300に記
憶された目標構成画素2値化画像が読み出される。ラベ
リング実施処理S122において、読み出された目標構
成画素2値化画像に対してラベリングが行われる。ラベ
リング処理S120は図6(a)に示すように目標構成
画素2値化画像中の目標構成画素(“1”で表されてい
る)を、図6(b)のように連結している画素に同じラ
ベル、たとえば、100を付与し、ラベリング画像を作
成する。これによって、連結している画素(100が付
与された画素)は同じ目標として認識できるようにな
る。
FIG. 6 is a diagram for explaining the labeling process S120 performed by the labeling unit 120 according to the first embodiment of the present invention. Target constituent pixel binary image reading process S
At 121, the target constituent pixel binarized image stored in the storage unit 300 in the above-described target constituent pixel detection processing S110 is read out at 121. In the labeling execution process S122, labeling is performed on the read target component pixel binarized image. In the labeling process S120, as shown in FIG. 6A, the target constituent pixels (represented by "1") in the binarized image of the target constituent pixels are connected as shown in FIG. 6B. The same label, for example, 100 is added to the label to create a labeling image. As a result, connected pixels (pixels given 100) can be recognized as the same target.

【0032】図7は、本発明の実施の形態1の目標重心
算出ユニット130が行う目標重心算出処理S130の
フローチャートである。目標重心算出処理S130は、
ラベリング画像読み出し処理S131、重心算出処理S
132から構成される。目標重心算出処理S130は、
ラベリングユニット120で得られたラベリング画像を
用いて被識別対象画像中に存在する目標の重心を算出す
る。この目標の重心は後の処理で被識別対象画像上でテ
ンプレート画像を移動する範囲を決定するために用いら
れる。
FIG. 7 is a flowchart of the target center-of-gravity calculation processing S130 performed by the target center-of-gravity calculation unit 130 according to the first embodiment of the present invention. The target centroid calculation process S130
Labeling image reading process S131, centroid calculation process S
It is composed of 132. The target centroid calculation process S130
By using the labeling image obtained by the labeling unit 120, the center of gravity of the target existing in the image to be identified is calculated. This center of gravity of the target is used in a later process to determine the range of movement of the template image on the image to be identified.

【0033】図8は、本発明の実施の形態1の目標重心
算出ユニット130が行う目標重心算出処理S130を
説明する図である。図8の太線で囲まれた範囲は重心を
算出する対象となっている目標である。ラベリング画像
読み出し処理S131において、記憶ユニット300か
らラベリング画像を読み出す。重心算出処理S132に
おいて、同じラベル番号が付された目標のx方向および
y方向の重心の位置X、Yがそれぞれ次の式で算出さ
れ、算出された目標の重心Gは目標重心データとして記
憶ユニット300に書き込まれる。
FIG. 8 is a diagram for explaining the target center of gravity calculation processing S130 performed by the target center of gravity calculating unit 130 according to the first embodiment of the present invention. The range surrounded by the thick line in FIG. 8 is the target for which the center of gravity is calculated. In the labeling image reading process S131, the labeling image is read from the storage unit 300. In the center-of-gravity calculation process S132, the positions X and Y of the target x-axis and y-axis centroids having the same label number are calculated by the following equations, and the calculated target centroid G is stored as target centroid data in the storage unit. Written to 300.

【0034】[0034]

【数2】 ここで、(xn,yn):目標を構成する画素の位置 X :目標のx方向の重心の位置 Y :目標のy方向の重心の位置 T :目標を構成する画素数[Equation 2] Here, (x n , y n ): the position of the pixel forming the target X: the position of the center of gravity in the x direction of the target Y: the position of the center of gravity of the target in the y direction T: the number of pixels forming the target

【0035】図9は、本発明の実施の形態1のテンプレ
ート画像中心移動範囲設定ユニット160が行うテンプ
レート画像中心移動範囲設定処理S160のフローチャ
ートである。テンプレート画像中心移動範囲設定処理S
160は、目標重心データ読み出し処理S161、テン
プレート画像中心の移動範囲算出処理S162、移動範
囲カウンタ初期化処理S163から構成される。テンプ
レート画像中心移動範囲算出処理S160においては、
被識別対象画像中の目標とテンプレート画像中の目標が
最も良く重なり合う場所を探索するためにテンプレート
画像を移動する際の基になるテンプレート画像の中心の
移動範囲を算出する。
FIG. 9 is a flowchart of the template image center moving range setting process S160 performed by the template image center moving range setting unit 160 according to the first embodiment of the present invention. Template image center moving range setting process S
Reference numeral 160 includes a target centroid data reading process S161, a moving range calculation process S162 of the template image center, and a moving range counter initialization process S163. In the template image center moving range calculation processing S160,
The moving range of the center of the template image that is the basis for moving the template image in order to search for the place where the target in the image to be identified and the target in the template image best overlap with each other is calculated.

【0036】図10は、テンプレート画像中心移動範囲
設定処理S160を説明する図である。図10におい
て、全体は被識別対象画像、実線は目標構成画素、2重
線はテンプレート画像領域、Gは被識別対象画像中の目
標を構成する画素から算出された目標の重心、G’はテ
ンプレート画像の中心、一点鎖線はテンプレート画像の
中心を移動させる範囲を示す。目標重心データ読み出し
処理S161は、記憶ユニット300に記憶された目標
重心データを読み出し、テンプレート画像中心の移動範
囲算出処理S162では、テンプレート画像中の目標が
被識別対象画像中の目標とよく重なると想定される領域
をすべてカバーできるように、テンプレート画像の中心
位置G’が移動できる範囲(a点〜i点)を求める。次
に、移動範囲カウンタ初期化処理S163は、a点に対
応させるように移動範囲カウンタを“0”に初期化し
て、カウンタ400に書き込む。
FIG. 10 is a diagram for explaining the template image center moving range setting processing S160. In FIG. 10, the whole is the image to be identified, the solid line is the target constituent pixel, the double line is the template image area, G is the center of gravity of the target calculated from the pixels forming the target in the image to be identified, and G ′ is the template. The center of the image and the alternate long and short dash line indicate the range in which the center of the template image is moved. The target center-of-gravity data reading process S161 reads the target center-of-gravity data stored in the storage unit 300, and in the moving range calculation process S162 of the template image center, it is assumed that the target in the template image well overlaps with the target in the image to be identified. The range (point a to point i) in which the center position G ′ of the template image can be moved is calculated so that the entire area to be covered can be covered. Next, in the moving range counter initialization processing S163, the moving range counter is initialized to “0” so as to correspond to the point “a”, and is written in the counter 400.

【0037】図11は本発明の実施の形態1の目標領域
抽出ユニット170が行う目標領域抽出処理S170の
フローチャートである。目標領域抽出処理S170は、
被識別対象画像読み出し処理S171、移動範囲カウン
タ情報読み出し処理S172、目標領域の中心位置算出
処理S173、目標領域画素抽出処理S174、局所領
域カウンタ初期化処理S175から構成される。
FIG. 11 is a flowchart of the target area extraction processing S170 performed by the target area extraction unit 170 according to the first embodiment of the present invention. The target area extraction processing S170 is
The target image reading processing S171, the moving range counter information reading processing S172, the target area center position calculation processing S173, the target area pixel extraction processing S174, and the local area counter initialization processing S175 are included.

【0038】図12は、目標領域抽出処理S170を説
明する図である。被識別対象画像読み出し処理S171
では、記憶ユニット300から図12に示す被識別対象
画像を読み出し、移動範囲カウンタ情報読み出し処理S
172で、カウンタ400に格納された移動範囲カウン
タの値を読み出す。目標領域の中心位置算出処理S17
3は移動範囲カウンタの値を用いて、テンプレート画像
の中心を置くべき位置を被識別対象画像上で算出し、目
標領域の中心位置MCとして記憶ユニット300に書き
込む。
FIG. 12 is a diagram for explaining the target area extraction processing S170. Identification target image reading process S171
Then, the image to be identified shown in FIG. 12 is read from the storage unit 300, and the moving range counter information reading process S is performed.
At 172, the value of the moving range counter stored in the counter 400 is read. Target region center position calculation process S17
3 uses the value of the moving range counter to calculate the position where the center of the template image should be placed on the image to be identified, and writes it in the storage unit 300 as the center position MC of the target area.

【0039】たとえば、最初は図12に示されるよう
に、被識別対象画像上のa点にテンプレート画像の中心
が来るように目標領域の中心位置MCが決定される。次
に目標領域画素抽出処理S174で被識別対象画像中で
テンプレート画像が重なった目標領域を抽出し、記憶ユ
ニット300に書き込む。局所領域カウンタ初期化処理
S175で以降の局所領域の処理で用いる局所領域カウ
ンタを“0”に初期化する。
For example, first, as shown in FIG. 12, the center position MC of the target area is determined so that the center of the template image is located at point a on the image to be identified. Next, in the target area pixel extraction processing S174, the target area in which the template images overlap in the image to be identified is extracted and written in the storage unit 300. In the local area counter initialization processing S175, the local area counter used in the subsequent processing of the local area is initialized to "0".

【0040】図13は、本発明の実施の形態1の局所領
域処理実行判定ユニット180が行う局所領域処理実行
判定処理S180のフローチャートである。局所領域処
理実行判定処理S180は、ラベリング画像読み出し処
理S181、目標領域中心位置読み出し処理S182、
局所領域カウンタ情報読み出し処理S183、対象局所
領域範囲算出処理S184、局所領域カウンタ加算処理
S185、局所領域内目標画素数算出処理S186、処
理実行判定処理S187から構成される。
FIG. 13 is a flowchart of the local area processing execution judgment processing S180 executed by the local area processing execution judgment unit 180 according to the first embodiment of the present invention. The local area processing execution determination processing S180 is a labeling image reading processing S181, a target area center position reading processing S182,
It is composed of a local area counter information reading processing S183, a target local area range calculation processing S184, a local area counter addition processing S185, a local area target pixel number calculation processing S186, and a processing execution determination processing S187.

【0041】図14は、本発明の実施の形態1の局所領
域処理実行判定処理S180を説明する図である。図1
4において、全体画像はラベリング画像であり、点線は
目標領域、二重線は局所領域、太線は目標構成画素とし
て検出されラベリングが施された目標である。まず、ラ
ベリング画像読み出し処理S181で以前に記憶ユニッ
ト300に記憶されたラベリング画像を読み出し、目標
領域中心位置読み出し処理S182で、記憶ユニット3
00に記憶された目標領域中心位置を読み出す。次に、
局所領域カウンタ情報読み出し処理S183で、カウン
タ400に記憶された局所領域カウンタ値を読み出し、
対象局所領域範囲算出処理S184ラベリング画像上の
対象局所領域の位置範囲を算出する。局所領域内目標画
素数算出処理S186で上記の対象局所領域の位置範囲
内すなわち、現在対象になっている局所領域中に目標を
構成する画素数がどれだけ存在するかをラベル番号を基
にカウントし、その数を合計する。
FIG. 14 is a diagram for explaining the local area processing execution determination processing S180 according to the first embodiment of the present invention. Figure 1
4, the whole image is a labeling image, the dotted line is the target region, the double line is the local region, and the thick line is the target detected and labeled as the target constituent pixel. First, the labeling image previously stored in the storage unit 300 is read in the labeling image reading process S181, and the storage unit 3 is read in the target area center position reading process S182.
The target area center position stored in 00 is read out. next,
In the local area counter information reading process S183, the local area counter value stored in the counter 400 is read,
Target Local Area Range Calculation Processing S184 The position range of the target local area on the labeling image is calculated. In the target pixel number calculation processing S186 in the local area, the number of pixels forming the target in the position range of the target local area, that is, in the currently targeted local area is counted based on the label number. And then add up the numbers.

【0042】たとえば、図14の局所領域0,1,2に
おいては、各局所領域に含まれる目標構成画素は1であ
り、局所領域3に含まれる目標構成画素数は7である。
処理実行判定処理S187では、目標構成画素の画素数
とあらかじめ設定しておいたスレッショルドの画素数を
比較し、目標構成画素数がスレッショルド以上の場合に
は局所領域処理実行判定処理S180を終了し、次の処
理である目標領域内対象局所領域抽出処理S190に移
り、スレッショルド未満の場合には、局所領域カウンタ
加算処理S185で局所領域カウンタに1を加算し、対
象局所領域範囲算出処理S184に戻り、次の局所領域
の位置範囲を算出し、局所領域内目標画素数算出処理S
186でその局所領域の目標構成画素数を算出する。な
お、本説明ではラベリング画像を用いて目標構成画素数
を算出しているが、目標構成画素2値化画像を用いても
よい。
For example, in the local areas 0, 1 and 2 of FIG. 14, the target constituent pixel included in each local area is 1, and the number of target constituent pixels included in the local area 3 is 7.
In the process execution determination process S187, the number of target constituent pixels is compared with the number of preset threshold pixels, and if the target number of constituent pixels is greater than or equal to the threshold, the local region process execution determination process S180 is terminated. Then, the process proceeds to the target region in target region extraction process S190 which is the next process, and if it is less than the threshold, the local region counter addition process S185 increments the local region counter by 1, and the process returns to the target local region range calculation process S184. The position range of the next local region is calculated, and the target pixel number calculation process S in the local region is performed.
At 186, the target number of constituent pixels of the local area is calculated. In addition, in this description, the target constituent pixel number is calculated using the labeling image, but the target constituent pixel binarized image may be used.

【0043】図15は、本発明の実施の形態1の目標領
域内対象局所領域抽出ユニット190が行う目標領域内
対象局所領域抽出処理S190のフローチャートであ
る。目標領域内対象局所領域抽出処理S190は、目標
領域読み出し処理S191、局所領域カウンタ情報読み
出し処理S192、対象局所領域範囲算出処理S19
3、対象局所領域画素抽出処理S194から構成され
る。
FIG. 15 is a flow chart of the target area in-target area local area extraction processing S190 performed by the target area in-target area local area extraction unit 190 according to the first embodiment of the present invention. The target local area extraction processing S190 in the target area includes a target area read processing S191, a local area counter information read processing S192, and a target local area range calculation processing S19.
3 and target local area pixel extraction processing S194.

【0044】図16は、目標領域内対象局所領域抽出処
理S190を説明する図である。図16において、全体
は目標領域、太線は目標領域内の目標、二重線は局所領
域である。目標領域読み出し処理S191で、図16に
示される目標領域を読み出し、局所領域カウンタ情報読
み出し処理S192で、処理S175もしくはS185
でカウンタ400に格納された局所領域カウンタの値を
読み出し、対象局所領域範囲算出処理S193で対象と
なる局所領域を抽出する範囲を決定し、対象局所領域画
素抽出処理S194において以降の処理対象となる局所
領域の画素を抽出し、目標領域内対象局所領域として記
憶ユニット300に書き込む。ここでは、たとえば局所
領域カウンタの値が0の場合には、局所領域0の9つの
画素を抽出する。
FIG. 16 is a diagram for explaining the target local area in-target area extraction processing S190. In FIG. 16, the whole is the target area, the thick line is the target within the target area, and the double line is the local area. In the target area read processing S191, the target area shown in FIG. 16 is read, and in the local area counter information read processing S192, the processing S175 or S185.
In step S193, the value of the local area counter stored in the counter 400 is read out, the target local area range calculation processing S193 determines the range in which the target local area is extracted, and the target local area pixel extraction processing S194 becomes the subsequent processing target. Pixels in the local area are extracted and written in the storage unit 300 as the target local area in the target area. Here, for example, when the value of the local area counter is 0, nine pixels of the local area 0 are extracted.

【0045】図17は、本発明の実施の形態1のテンプ
レート画像内対象局所領域抽出ユニット200が行うテ
ンプレート画像内対象局所領域抽出処理S200のフロ
ーチャートである。テンプレート画像内対象局所領域抽
出処理S200は、テンプレート画像読み出し処理S2
01、局所領域カウンタ情報読み出し処理S202、対
象局所領域範囲算出処理S203、対象局所領域画素抽
出処理S204から構成される。
FIG. 17 is a flowchart of the template image target local area extraction process S200 performed by the template image target local area extracting unit 200 according to the first embodiment of the present invention. The target local area extracting process S200 in the template image is a template image reading process S2.
01, local area counter information read processing S202, target local area range calculation processing S203, and target local area pixel extraction processing S204.

【0046】図18は、テンプレート画像内対象局所領
域抽出処理S200を説明する図である。図18におい
て、全体はテンプレート画像、太線はテンプレート画像
内の目標、二重線は局所領域を示す。テンプレート画像
読み出し処理S201において、図18に示されるテン
プレート画像全体を読み出し、局所領域カウンタ情報読
み出し処理S202で、カウンタ400に格納された局
所領域カウンタの値を読み出し、対象局所領域範囲算出
処理S203で、対象となる局所領域を抽出する範囲を
決定し、対象局所領域画素抽出処理S204において以
降の処理対象となる局所領域の画素を抽出し、テンプレ
ート画像内対象局所領域として記憶ユニット300に書
き込む。
FIG. 18 is a diagram for explaining the target local area extraction processing S200 in the template image. In FIG. 18, the whole indicates the template image, the thick line indicates the target in the template image, and the double line indicates the local area. In the template image reading process S201, the entire template image shown in FIG. 18 is read, in the local region counter information reading process S202, the value of the local region counter stored in the counter 400 is read, and in the target local region range calculation process S203, The range in which the target local area is extracted is determined, and in the target local area pixel extraction processing S204, the pixels of the local area to be processed thereafter are extracted and written in the storage unit 300 as the target local area in the template image.

【0047】図19は、本発明の実施の形態1の相関値
/相関値総和算出ユニット210が行う相関値/相関値
総和算出処理S210のフローチャートである。相関値
/相関値総和算出処理S210は、目標領域内対象局所
領域読み出し処理S211、テンプレート画像内対象局
所領域読み出し処理S212、相関値算出処理S21
3、相関値総和算出処理S214から構成される。
FIG. 19 is a flowchart of the correlation value / correlation value sum total calculation process S210 performed by the correlation value / correlation value sum calculation unit 210 according to the first embodiment of the present invention. The correlation value / correlation value sum total calculation process S210 includes a target region in-target region local region reading process S211, a template image in-target region local region reading process S212, and a correlation value calculating process S21.
3 and the correlation value sum calculation processing S214.

【0048】図20は、相関値/相関値総和算出処理S
210を説明する図である。図20(a)の全体は目標
領域を示し、太線は目標領域内の目標、2重線は目標領
域内の局所領域で、3重線は目標領域内対象局所領域を
示す。図20(b)の全体はテンプレート画像を示し、
太線はテンプレート画像内の目標、2重線はテンプレー
ト画像内の局所領域を示し、3重線はテンプレート画像
内対象局所領域を示す。
FIG. 20 shows a correlation value / correlation value sum total calculation process S.
It is a figure explaining 210. 20A shows the target region as a whole, the thick line shows the target in the target region, the double line shows the local region in the target region, and the triple line shows the target local region in the target region. The whole of FIG. 20B shows a template image,
The thick line indicates the target in the template image, the double line indicates the local area in the template image, and the triple line indicates the target local area in the template image.

【0049】相関値算出処理S210において、目標領
域内対象局所領域読み出し処理S211およびテンプレ
ート画像内対象局所領域読み出し処理S212は、それ
ぞれ図20(a)にある3重線の目標領域内の現在対象
になっている局所領域、および図20(b)にある3重
線のテンプレート画像内の現在対象になっている局所領
域を読み出す。相関値算出処理S213は、読み出され
た両対象局所領域の相関値を算出する。ここで、相関値
の計算は、局所領域処理実行判定処理S180におい
て、処理すると判定された局所領域に対してのみ行い、
それ以外は行わない。
In the correlation value calculation processing S210, the target area in-target area local area reading processing S211 and the template image in-target area local area reading processing S212 are respectively performed on the current object in the triple-line target area shown in FIG. The local area that has become the target area and the local area that is currently the target in the template image of the triple line in FIG. The correlation value calculation process S213 calculates the correlation value of both the read target local regions. Here, the calculation of the correlation value is performed only for the local area determined to be processed in the local area processing execution determination processing S180,
Do not do anything else.

【0050】たとえば、図20(a)において、局所領
域0と3は目標画素数がそれぞれ4であり、局所領域1
と2は目標画素数がそれぞれ1である。ここで、たとえ
ば、所定のスレッショルドを3とすれば、局所領域0と
3では相関値の算出が行われ、局所領域1と2では相関
の算出が行われないことになる。このように、本発明で
は、所定のスレッショルド未満の局所領域では相関値の
算出を省略できるところが特徴となっている。相関値総
和算出処理S214は、目標領域中の全局所領域の相関
値の総和が得られるように算出された相関値を各テンプ
レート画像毎に加算し、相関値の総和として記憶ユニッ
ト300に書き込む。この例では、最終的には局所領域
0と局所領域3で計算された相関値の和が相関値の総和
となる。
For example, in FIG. 20A, the target number of pixels in each of the local areas 0 and 3 is 4, and the local area 1
And 2 have the target pixel number of 1, respectively. Here, for example, if the predetermined threshold is set to 3, the correlation value is calculated in the local areas 0 and 3, and the correlation is not calculated in the local areas 1 and 2. As described above, the present invention is characterized in that the calculation of the correlation value can be omitted in the local region below the predetermined threshold. In the correlation value sum calculation processing S214, the correlation values calculated so as to obtain the sum of the correlation values of all the local areas in the target area are added for each template image, and the sum is written in the storage unit 300 as the sum of the correlation values. In this example, finally, the sum of the correlation values calculated in the local area 0 and the local area 3 becomes the sum of the correlation values.

【0051】図21は、本発明の実施の形態1の全テン
プレート画像終了判定ユニット220が行う全テンプレ
ート画像終了判定処理S220のフローチャートであ
る。全テンプレート画像終了判定ユニット220は、現
在の目標領域内対象局所領域が全てのテンプレート画像
の対象局所領域との相関値/相関値総和算出処理S21
0が行われたか否かを判定する。全てのテンプレート画
像の対象局所領域との相関値/相関値総和算出処理S2
10が終了していれば、以降の処理である全局所領域終
了判定処理S230に進み、そうでなければテンプレー
ト画像内対象局所領域抽出処理S200に戻り、次のテ
ンプレート画像を処理する。
FIG. 21 is a flowchart of the all template image end determination processing S220 performed by the all template image end determination unit 220 according to the first embodiment of the present invention. The all-template-image end determination unit 220 calculates the correlation value / correlation value sum total calculation process S21 in which the current target local area in the target area is the target local area of all template images.
It is determined whether 0 has been performed. Correlation value / correlation value sum total calculation processing S2 with target local areas of all template images
If 10 is completed, the process proceeds to a subsequent process, that is, a process of determining the end of all local regions S230, and if not, the process returns to the process S200 of extracting a target local region in the template image to process the next template image.

【0052】図22は、本発明の実施の形態1の全局所
領域終了判定ユニット230が行う全局所領域終了判定
処理S230のフローチャートである。全局所領域終了
判定ユニット230は現在対象となっている目標領域中
の全局所領域の処理が終了したか否かを判定する。全局
所領域の処理が終了していれば、以降の処理である最良
マッチング結果判定処理S240に進み、そうでなけれ
ば次の局所領域に移れるように局所領域カウンタを1加
算する局所領域カウンタ加算処理S232を行った後、
局所領域処理実行判定処理S180に戻り、次の局所領
域を処理する。
FIG. 22 is a flowchart of the total local area end determination processing S230 performed by the total local area end determination unit 230 according to the first embodiment of the present invention. The all-local area end determination unit 230 determines whether or not the processing of all the local areas in the target area that is currently the target has been completed. If the processing of all local areas has been completed, the processing proceeds to the best matching result determination processing S240, which is the subsequent processing, and if not, the local area counter addition processing of adding 1 to the local area counter so that the processing can move to the next local area. After performing S232,
The processing returns to the local area processing execution determination processing S180, and the next local area is processed.

【0053】図23は、本発明の実施の形態1の最良マ
ッチング結果判定ユニット240が行う最良マッチング
結果判定処理S240のフローチャートである。最良マ
ッチング結果判定処理S240は、最大の相関値総和の
読み出し処理S241、現在の各テンプレート画像の相
関値総和の読み出し処理S242、マッチング結果比較
処理S243、最大の相関値総和置き換え処理S244
から構成される。
FIG. 23 is a flowchart of the best matching result judgment processing S240 performed by the best matching result judgment unit 240 according to the first embodiment of the present invention. The best matching result determination process S240 is a maximum correlation value total reading process S241, a current correlation image total value reading process S242, a matching result comparison process S243, and a maximum correlation value total replacement process S244.
Composed of.

【0054】最良マッチング結果判定処理S240にお
いて、最大の相関値総和の読み出し処理S241は、記
憶ユニット300から各テンプレート画像毎の最大の相
関値総和の値を読み出し、現在の各テンプレート画像の
相関値総和の読み出し処理S242は現在の各テンプレ
ート画像の相関値総和の値を読み出し、マッチング結果
比較処理S243で、各テンプレート画像で現在の相関
値総和と記憶ユニット300上で読み出した最大の相関
値総和を比較する。最大相関値総和置き換え処理S24
4では、現在の相関値総和の方が大きければ、記憶ユニ
ット300中の最大相関値総和を現在のマッチング結果
の相関値総和で置き換える。上の説明ではマッチング結
果比較処理S243で全局所領域の相関値総和を用いた
が、全局所領域の相関値の平均値を用いてもよい。
In the best matching result determination processing S240, the maximum correlation value sum total reading processing S241 reads the maximum correlation value sum total value for each template image from the storage unit 300, and the current correlation value sum total for each template image is read. Read processing S242 reads the current value of the correlation value sum of each template image, and the matching result comparison processing S243 compares the current correlation value sum of each template image with the maximum correlation value sum read on the storage unit 300. To do. Maximum correlation value sum replacement processing S24
In 4, if the current correlation value sum is larger, the maximum correlation value sum in the storage unit 300 is replaced with the current matching result sum of correlation values. In the above description, the sum of correlation values of all local regions is used in the matching result comparison process S243, but an average value of correlation values of all local regions may be used.

【0055】図24は、本発明の実施の形態1の全移動
範囲終了判定ユニット250が行う全移動範囲終了判定
処理のフローチャートである。全移動範囲終了判定処理
S250は、移動範囲カウンタ情報読み出し処理S25
1、およびテンプレート画像中心移動範囲設定処理S1
60で設定されたすべての移動範囲で処理が行われたか
否かを判定する移動範囲終了判定処理S252、移動範
囲カウンタ加算処理S253から構成される。
FIG. 24 is a flowchart of the total movement range end determination processing performed by the total movement range end determination unit 250 according to the first embodiment of the present invention. The entire moving range end determination process S250 is a moving range counter information reading process S25.
1 and template image center moving range setting processing S1
A moving range end determination process S252 for determining whether or not the process has been performed for all the moving ranges set at 60, and a moving range counter adding process S253.

【0056】図25は、全移動範囲終了判定処理S25
0を説明する図である。図25(a)において、全体は
被識別対象画像を示し、太線は被識別対象画像中の目
標、二重線は現在の目標領域を示す。図25(b)にお
いて、全体は被識別対象画像を示し、太線は被識別対象
画像中の目標、二重線は次の目標領域を示す。
FIG. 25 shows the entire movement range end determination processing S25.
It is a figure explaining 0. In FIG. 25A, the whole shows the image to be identified, the thick line shows the target in the image to be identified, and the double line shows the current target area. In FIG. 25 (b), the whole shows the image to be identified, the thick line shows the target in the image to be identified, and the double line shows the next target area.

【0057】全移動範囲終了判定処理S250では、移
動範囲カウンタ情報読み出し処理S251は、カウンタ
400から移動範囲カウンタの値を読み出し、移動範囲
終了判定処理S252でテンプレート画像中心移動範囲
設定処理S160で設定されたすべてのテンプレート移
動範囲で処理が行われたか否かを判定し、処理が全て終
了していれば以降の処理である目標名称出力処理S26
0に進み、そうでなければ、移動範囲カウンタ加算処理
S253で、目標領域の中心位置が次の点になるように
カウンタ400内にある移動範囲カウンタに1を加算
し、目標領域抽出処理S170に戻り、図25(a)お
よび図25(b)に示すように、目標領域を次の位置に
移動させる。
In the entire movement range end determination processing S250, the movement range counter information reading processing S251 reads the value of the movement range counter from the counter 400, and is set in the template image center movement range setting processing S160 in the movement range end determination processing S252. It is determined whether or not the processes have been performed in all the template moving ranges, and if all the processes are completed, the target name output process S26, which is the subsequent process.
0, otherwise, in the moving range counter addition processing S253, 1 is added to the moving range counter in the counter 400 so that the center position of the target area becomes the next point, and the target area extraction processing S170 is executed. Returning to this, as shown in FIGS. 25A and 25B, the target area is moved to the next position.

【0058】図26は、本発明の実施の形態1の目標名
称出力ユニット260が行う目標名称出力処理S260
のフローチャートである。目標名称出力処理S260
は、最終最良マッチング値の初期値設定処理S261、
テンプレート画像最良マッチング結果読み出し処理S2
62、最終最良マッチング値と読み出した各テンプレー
ト画像の最良マッチング結果との比較処理S263、最
終最良マッチング値置き換え処理S264、全テンプレ
ート画像終了判定処理S265、および目標名称出力処
理S266から構成される。
FIG. 26 is a target name output process S260 performed by the target name output unit 260 according to the first embodiment of the present invention.
It is a flowchart of. Target name output process S260
Is a final best matching value initial value setting process S261,
Template image best matching result reading process S2
62, a comparison process S263 of the final best matching value and the best matching result of each read template image, a final best matching value replacement process S264, an all template image end determination process S265, and a target name output process S266.

【0059】目標名称出力処理S260では、最終最良
マッチング値の初期値設定処理S261は、最初に最終
最良マッチング値の初期値を設定し、テンプレート画像
最良マッチング結果読み出し処理S262でテンプレー
ト画像の最良マッチング結果の値を読み出す。比較処理
S263で最終最良マッチング値と現在読み出したある
テンプレート画像の最良マッチング値を比較し、読み出
した値の方が大きければ、最終最良マッチング値置き換
え処理S264で最終最良マッチング値を読み出した値
に更新する。全テンプレート画像終了判定処理S265
で処理S262〜S264を全テンプレート画像に対し
て行ったかを判定し、目標名称出力処理S266で最終
最良マッチング値と判定されたテンプレート画像中に存
在する目標の名称を出力する。
In the target name output process S260, the final best matching value initial value setting process S261 first sets the final best matching value initial value, and in the template image best matching result read process S262, the template image best matching result is obtained. Read the value of. In the comparison process S263, the final best matching value is compared with the best matching value of the currently read template image. If the read value is larger, the final best matching value replacement process S264 updates the final best matching value to the read value. To do. All template image end determination processing S265
It is determined in steps S262 to S264 for all template images, and the target name existing in the template image determined to be the final best matching value in the target name output process S266 is output.

【0060】上述のように、本発明の実施の形態1にお
いては、背景が多い局所領域をスキップさせることによ
り、その局所領域の相関値計算を省略できるので、安定
かつ高速に目標の識別を行うことができる。
As described above, according to the first embodiment of the present invention, by skipping a local area having a lot of backgrounds, the calculation of the correlation value of the local area can be omitted, so that the target can be identified stably and at high speed. be able to.

【0061】実施の形態2.実施の形態1においては、
目標の一方向のみについて用意されたテンプレートを用
いた例について説明した。しかし、現実には目標を正確
に識別するためには、あらゆる方向を向いている目標の
テンプレート画像を用意することが必要となる。このよ
うに用意された全テンプレート画像を処理するには莫大
な処理時間を要する。実施の形態2においては、被識別
対象画像中の目標の長軸方向の算出および想定される長
軸の算出誤差から、目標の方向が上述の目標の長軸の方
向±所定角度の範囲に含まれるテンプレート画像のみを
選択することによって、相関値/相関値総和算出処理を
施すテンプレート画像の数を減らし、処理量を減少さ
せ、処理を高速にする目標識別装置および方法を提供す
ることができる。
Embodiment 2. In the first embodiment,
The example using the template prepared for only one direction of the target has been described. However, in reality, in order to accurately identify the target, it is necessary to prepare a template image of the target in all directions. It takes a huge amount of processing time to process all the template images prepared in this way. In the second embodiment, the target direction is included in the range of the above-described target long-axis direction ± predetermined angle from the calculation error of the target long-axis direction in the image to be identified and the assumed long-axis calculation error. By selecting only the template image to be processed, it is possible to provide the target identifying apparatus and method for reducing the number of template images to be subjected to the correlation value / sum of correlation value calculation processing, reducing the processing amount, and speeding up the processing.

【0062】図27は、本発明の実施の形態2の目標識
別装置の構成を示すブロック図である。実施の形態2の
目標識別装置は、図1に示す実施の形態1の構成の目標
重心算出ユニット130の後に目標長軸算出ユニット1
40が追加される。目標長軸算出ユニット140の追加
によって算出された被識別対象画像中の目標の長軸の方
向±所定の角度範囲内にあるテンプレート画像のみを選
択できるので以降の相関値/相関値総和算出処理を施す
テンプレート画像の数を大幅に低減することができる。
FIG. 27 is a block diagram showing the structure of the target identifying apparatus according to the second embodiment of the present invention. The target identifying apparatus according to the second embodiment is similar to the target center-of-gravity calculating unit 130 of the configuration of the first embodiment shown in FIG.
40 is added. Since only the template images within the target long-axis direction ± predetermined angle range in the target image calculated by adding the target long-axis calculation unit 140 can be selected, the subsequent correlation value / correlation value sum calculation processing is performed. It is possible to significantly reduce the number of template images to be applied.

【0063】図28は本発明の実施の形態2の目標識別
方法の全体の処理を示すフローチャートである。目標長
軸算出処理S140は、ラベリング画像と目標の重心デ
ータから目標の慣性モーメントを計算して慣性主軸を算
出し、慣性主軸を目標の長軸とする。この長軸の計算
は、公知の技術であり、例えば、長尾真、「パターン情
報処理」、電子通情報信学会大学シリーズ、コロナ社、
平成5年7月発行に掲載されているので詳細な説明は省
略する。なお、図27および図28においては、目標長
軸算出ユニット140および目標長軸算出処理S140
以外の構成は、それぞれ図1および図2と同じであるの
で説明を省略する。
FIG. 28 is a flow chart showing the overall processing of the target identifying method according to the second embodiment of the present invention. The target major axis calculation process S140 calculates the target inertial moment from the labeling image and the target center of gravity data to calculate the inertial principal axis, and sets the inertial principal axis as the target major axis. The calculation of this long axis is a known technique, for example, Makoto Nagao, "Pattern Information Processing", The Institute of Electronics, Information and Communication Engineers, University Series, Corona,
Since it was published in July 1993, its detailed explanation is omitted. 27 and 28, the target long axis calculation unit 140 and the target long axis calculation process S140.
The configuration other than that is the same as that of FIG. 1 and FIG.

【0064】以下に目標長軸算出処理S140について
具体的に説明する。図29は、目標長軸算出処理S14
0のフローチャートを示す図である。目標長軸算出処理
S140は、ラベリング画像読み出し処理S141、目
標長軸算出処理S142、処理方向決定処理S143か
ら構成される。
The target major axis calculation process S140 will be described in detail below. FIG. 29 shows target long axis calculation processing S14.
It is a figure which shows the flowchart of 0. The target long axis calculation process S140 includes a labeling image reading process S141, a target long axis calculation process S142, and a processing direction determination process S143.

【0065】図30は、目標長軸算出処理S142の概
要を説明する図である。図29におけるラベリング画像
読み出し処理S141においては、図30(a)に示す
ように、ラベリング処理S120で生成されたラベリン
グ画像を読み出す。ラベリング画像で目標構成画素のラ
ベル番号をここでは"100"とする。この時、"100"の輝度
値が付与された画素に対して従来技術を用いて目標の長
軸方向を算出することによって、図30(b)に示され
るように目標の長軸方向が求まる。
FIG. 30 is a diagram for explaining the outline of the target long axis calculation processing S142. In the labeling image reading process S141 in FIG. 29, as shown in FIG. 30A, the labeling image generated in the labeling process S120 is read. In the labeling image, the label number of the target constituent pixel is "100" here. At this time, the target long-axis direction is calculated as shown in FIG. 30B by calculating the target long-axis direction using the conventional technique for the pixel to which the brightness value of “100” is given. .

【0066】次に、処理方向決定処理S143におい
て、目標長軸算出処理S142で目標の長軸方向θを算
出し、テンプレート画像中の目標の方向がその長軸方向
θ±φ度の範囲に含まれるテンプレート画像のみを選択
する。ここで、φは、長軸方向θとの関係であらかじめ
定められる長軸方向θからのずれ角度であり、たとえ
ば、φは、θの10%、または絶対角度で10度のよう
に定められる。図31は上述のテンプレート画像の選択
を概念的に示した図である。図31(a)は被識別対象
画像中の目標及び目標の長軸方向を示し、図31(b
1)、(b2)は目標が種々の方向にあるテンプレート
画像を示す。図31(b1)のテンプレート画像におけ
る目標の長軸方向はθ+γであり、ここでは、γ>φで
あるので、図31(b1)のテンプレート画像は選択さ
れない。ここで、γは、被識別対象画像中の目標の長軸
方向とテンプレート画像中の目標の長軸方向との角度差
である。
Next, in the processing direction determination processing S143, the target long axis direction θ is calculated in the target long axis calculation processing S142, and the target direction in the template image is included in the range of the long axis direction θ ± φ degrees. Select only the template images that will be displayed. Here, φ is an angle of deviation from the long-axis direction θ that is predetermined in relation to the long-axis direction θ, and, for example, φ is set to 10% of θ or an absolute angle of 10 degrees. FIG. 31 is a diagram conceptually showing the selection of the template image described above. FIG. 31A shows a target in the image to be identified and the long-axis direction of the target, and FIG.
1) and (b2) show template images having targets in various directions. The target major axis direction in the template image of FIG. 31 (b1) is θ + γ, and here γ> φ, so the template image of FIG. 31 (b1) is not selected. Here, γ is the angular difference between the long-axis direction of the target in the image to be identified and the long-axis direction of the target in the template image.

【0067】一方、図31(b2)のテンプレート画像
における目標の長軸方向はθ+γであり、ここでは、γ
<φであるので、図31(b2)のテンプレート画像は
選択される。このようにテンプレート画像中の目標の方
向と算出された長軸方向θとの角度差γが、γ>φとな
るテンプレート画像は除外することができる。なお、こ
の時点では目標の前方を決定することはできないので長
軸の方向+180度(もしくは−180度)の方向を有
するテンプレート画像も選択の対象になる。
On the other hand, the target major axis direction in the template image of FIG. 31 (b2) is θ + γ, and here, γ
Since <φ, the template image in FIG. 31 (b2) is selected. Thus, the template image in which the angular difference γ between the target direction in the template image and the calculated long-axis direction θ is γ> φ can be excluded. At this point, the front of the target cannot be determined, so the template image having the direction of the major axis of +180 degrees (or -180 degrees) is also selected.

【0068】図32は、全てのテンプレート画像を示す
図である。全テンプレート画像中には、存在する可能性
のあるすべての目標(図中の目標1から目標n)があ
り、それぞれの目標に対してあらゆる目標の方向に対す
るm通りのテンプレート画像がある。実施の形態1の場
合には処理S200〜S220においては、被識別対象
画像と全テンプレート画像の処理を行っていた。つま
り、目標n×方向m通りのテンプレート画像に対して処
理S200〜S220を行う必要があった。
FIG. 32 is a diagram showing all template images. There are all possible goals (Goal 1 to Goal n in the figure) in all template images, and for each goal there are m template images for every goal direction. In the case of the first embodiment, in the processes S200 to S220, the images to be identified and all the template images are processed. That is, it is necessary to perform the processes S200 to S220 for the target n × direction m template images.

【0069】一方、本実施の形態2においては、全テン
プレート画像の中から、たとえば、目標の方向2,3,
4およびr−1,r−2,r−3の6通りのテンプレー
ト画像に対してのみ処理S200−S220を行うの
で、n×6通りのテンプレート画像に対してのみ処理を
行えば良い。ここで、「r−2」は方向3に対して目標
が180度回転した方向のテンプレート画像を示してい
る。
On the other hand, in the second embodiment, for example, the target directions 2, 3, 3 are selected from all template images.
Since the processes S200 to S220 are performed only on 6 types of template images of 4 and r-1, r-2, r-3, it is sufficient to perform the process only on n × 6 types of template images. Here, “r−2” indicates the template image in the direction in which the target is rotated 180 degrees with respect to the direction 3.

【0070】上述のように、図1の目標重心算出処理S
130の後に、目標長軸算出処理S140を追加するこ
とによって、目標を識別するために使用するテンプレー
ト画像の量を低減することができ、実施の形態1と比べ
目標識別処理を高速化できる。
As described above, the target center of gravity calculation process S in FIG.
By adding the target major axis calculation process S140 after 130, the amount of template images used to identify the target can be reduced, and the target identification process can be sped up compared to the first embodiment.

【0071】実施の形態3.実施の形態2で示したよう
に全テンプレート画像には存在する可能性のあるすべて
の目標(図中の目標1から目標n)のテンプレート画像
がある。この時、目標の長さが大幅に異なるテンプレー
ト画像が存在する可能性がある。この場合、被識別対象
画像中の目標の長さがあらかじめわかれば、実施の形態
2と同様にあらかじめその目標の長さ及びその長さに近
い目標が存在するテンプレート画像のみを抽出し、処理
S200−220で使用するテンプレート画像の数を減
らすことができる。実施の形態3においては、被識別対
象画像中の目標の長さおよび想定される目標長の算出誤
差から、目標の方向が上述の目標長±所定の長さ範囲に
含まれるテンプレート画像のみを選択し、使用するテン
プレート画像の数を減らし、処理量を減少でき、処理を
高速にする目標識別装置および方法を提供する。
Third Embodiment As shown in the second embodiment, all template images include template images of all the targets (target 1 to target n in the figure) that may exist. At this time, there is a possibility that template images having significantly different target lengths exist. In this case, if the length of the target in the image to be identified is known in advance, only the template image in which the length of the target and the target close to the length exist are extracted in the same manner as in the second embodiment, and the process S200 The number of template images used in -220 can be reduced. In the third embodiment, only the template image in which the direction of the target is included in the above-described target length ± predetermined length range is selected from the calculation error of the target length and the assumed target length in the image to be identified. However, the number of template images to be used can be reduced, the amount of processing can be reduced, and a target identifying apparatus and method for speeding up processing are provided.

【0072】図33は、本発明の実施の形態3の目標識
別装置の構成を示すブロック図である。実施の形態3の
目標識別装置は、図1に示す実施の形態1の構成の目標
重心算出ユニット130の後に目標長算出ユニット15
0が追加されている。目標長算出ユニット150の追加
によって被識別対象画像中の目標の長さから、目標が目
標長±所定の長さ範囲に含まれるテンプレート画像のみ
を選択できるので以降の相関値/相関値総和算出処理を
施すテンプレート画像の数を大幅に低減することができ
る。
FIG. 33 is a block diagram showing the structure of the target identifying apparatus according to the third embodiment of the present invention. The target identifying apparatus according to the third embodiment includes a target length calculating unit 15 after the target center of gravity calculating unit 130 having the configuration of the first embodiment shown in FIG.
0 is added. By adding the target length calculation unit 150, it is possible to select only a template image in which the target is within the target length ± predetermined length range from the length of the target in the image to be identified. Therefore, the subsequent correlation value / correlation value sum calculation process It is possible to significantly reduce the number of template images to be applied.

【0073】図34は本発明の実施の形態3の目標識別
方法の全体の処理を示すフローチャートである。目標長
算出ユニット150は、ラベリング画像と目標の重心デ
ータから目標の慣性モーメントを計算して、目標長Lを
求める。この目標長の計算は、公知の技術であり、たと
えば、笹川耕一等による1988年発表の論文誌「拡張
スポークフィルタによる平行形状の抽出」、信学技報、
PRU-88-10に開示されているので詳細な説明は省略す
る。なお、図33および図34においては、目標長算出
ユニット150および目標長算出処理S150以外の構
成はそれぞれ図1および図2と同じであるので説明を省
略する。
FIG. 34 is a flowchart showing the overall processing of the target identifying method according to the third embodiment of the present invention. The target length calculation unit 150 calculates the target moment of inertia from the labeling image and the center of gravity data of the target to obtain the target length L. This calculation of the target length is a known technique. For example, the publication of a paper published in 1988 by Koichi Sasakawa et al. "Extraction of parallel shapes by extended spoke filter", IEICE Technical Report,
Since it is disclosed in PRU-88-10, detailed description will be omitted. 33 and 34, the configurations other than the target length calculation unit 150 and the target length calculation processing S150 are the same as those in FIGS. 1 and 2, respectively, and therefore description thereof will be omitted.

【0074】以下に目標長算出処理S150について具
体的に説明する。図35は、目標長算出処理S150の
フローチャートを示す図である。目標長算出処理S15
0は、ラベリング画像読み出し処理S151、目標長算
出処理S152、処理長決定処理S153から構成され
る。
The target length calculation processing S150 will be specifically described below. FIG. 35 is a diagram showing a flowchart of the target length calculation processing S150. Target length calculation process S15
0 is composed of a labeling image reading process S151, a target length calculating process S152, and a process length determining process S153.

【0075】目標長算出処理S150においては、実施
の形態2と同様にラベリング画像読み出し処理S151
において、ラベリング処理S120で生成されたラベリ
ング画像を読み出す。目標長算出処理S152におい
て、読み出されたラベリング画像から公知の方法で被識
別対象画像中の目標の目標長Lを算出し、さらに、処理
長決定処理S153で、テンプレート画像中の目標の長
さが前記目標長L±ηの範囲に含まれるテンプレート画
像のみを選択する。ここで、ηは、被識別対象画像中の
目標長Lとの関係であらかじめ定められる長さであり、
たとえば、ηは、Lの10%、または絶対長で10mの
ように定められる。
In the target length calculation processing S150, the labeling image reading processing S151 is performed as in the second embodiment.
At, the labeling image generated in the labeling process S120 is read. In the target length calculation process S152, the target length L of the target in the image to be identified is calculated from the read labeling image by a known method, and in the process length determination process S153, the target length in the template image is calculated. Selects only the template image included in the range of the target length L ± η. Here, η is a length predetermined in relation to the target length L in the image to be identified,
For example, η is defined as 10% of L, or 10 m in absolute length.

【0076】図36は、目標長によるテンプレート画像
の選択を概念的に示した図である。図36(a)は被識
別対象画像、図36(b1)、(b2)は種々の長さの
目標のテンプレート画像を示したものである。図36
(b1)のテンプレート画像における目標の長さはL−
λであり、ここでは、λ>ηであるので、図36(b
1)のテンプレート画像は選択されない。ここで、λ
は、被識別対象画像中の目標の長さとテンプレート画像
中の目標の長さとの差の長さである。一方、図36(b
2)のテンプレート画像における目標の長さL+λであ
り、ここでは、λ<ηであるので、図36(b2)のテ
ンプレート画像は選択される。このようにテンプレート
画像中の目標の長さがL±ηの範囲に含まれないテンプ
レート画像は除外することができる。
FIG. 36 is a diagram conceptually showing the selection of the template image according to the target length. FIG. 36A shows an image to be identified, and FIGS. 36B1 and 36B2 show target template images of various lengths. Fig. 36
The target length in the template image of (b1) is L-
Since λ, and here λ> η, FIG.
The template image of 1) is not selected. Where λ
Is the difference length between the target length in the image to be identified and the target length in the template image. On the other hand, FIG.
Since the target length L + λ in the template image of 2), and here λ <η, the template image of FIG. 36 (b2) is selected. In this way, template images in which the target length in the template image is not included in the range of L ± η can be excluded.

【0077】図37は、全てのテンプレート画像を示す
図である。全テンプレート画像中には、目標1から目標
nまで全ての目標に対するテンプレート画像が含まれて
いる。さらに、各目標は、各方向に対するm通りのテン
プレート画像を有している。ここで、目標1の目標長L
1は150m、目標2の目標長L2は100m、目標n
の目標長Lnは145mと仮定すると、目標長算出処理
S152で得られた被識別対象画像中の目標の長さが1
50mであり、処理長決定処理S153で、たとえば、
目標長150m±10m以内の目標の長さのテンプレー
ト画像を選択するようにすれば、長さ100mの目標2
のテンプレート画像は選択されず、目標1と目標nのテ
ンプレート画像が選択される。つまり、2×m通りのテ
ンプレート画像に対して処理を行えばよい。
FIG. 37 is a diagram showing all template images. The template images for all targets 1 to n are included in all the template images. Furthermore, each target has m template images for each direction. Here, the target length L of target 1
1 is 150 m, target length L2 of target 2 is 100 m, target n
Assuming that the target length Ln of the target image is 145 m, the target length of the target image in the target length calculation process S152 is 1
50 m, and in the processing length determination processing S153, for example,
If a template image with a target length within a target length of 150 m ± 10 m is selected, a target 2 with a length of 100 m can be selected.
No template image of is selected, and template images of target 1 and target n are selected. That is, the processing may be performed on 2 × m different template images.

【0078】上述のように、図1の目標重心算出処理S
130の後に、目標長算出処理S150を追加すること
によって、目標を識別するために使用するテンプレート
画像の量を低減することができ、実施の形態1にある目
標識別処理を高速化できる。
As described above, the target center of gravity calculation process S of FIG.
By adding the target length calculation process S150 after 130, the amount of template images used to identify the target can be reduced, and the target identification process in the first embodiment can be speeded up.

【0079】実施の形態4.実施の形態2においては、
被識別対象画像中の目標の長軸の方向±所定の角度範囲
に含まれる方向のテンプレート画像のみを選択する方法
について、実施の形態3においては、被識別対象画像中
の目標長±所定の長さ範囲に含まれるテンプレート画像
のみを選択する方法について説明した。実施の形態4に
おいては、上記の実施の形態2と実施の形態3を組み合
わせることによってさらに、選択されるテンプレート画
像の数を減らし、それによって処理時間をさらに短縮で
きる目標識別装置および方法を提供する。
Fourth Embodiment In the second embodiment,
Regarding the method of selecting only the template image in the direction of the long axis of the target in the image to be identified ± the direction included in the predetermined angle range, in the third embodiment, the target length in the image to be identified ± the predetermined length The method of selecting only the template images included in the range has been described. In the fourth embodiment, by combining the above-described second and third embodiments, it is possible to further reduce the number of template images to be selected, thereby providing a target identifying apparatus and method capable of further shortening the processing time. .

【0080】図38は、本発明の実施の形態4の目標識
別装置の構成を示すブロック図である。実施の形態4に
おいては、図1の目標重心算出ユニット130の後に目
標長軸算出ユニット140と目標長算出ユニット150
が追加される。なお、目標長軸算出ユニット140と目
標長算出ユニット150の順序はどちらが先に来ても良
い。
FIG. 38 is a block diagram showing the structure of the target identifying apparatus according to the fourth embodiment of the present invention. In the fourth embodiment, the target center of gravity calculation unit 130 of FIG. 1 is followed by the target long axis calculation unit 140 and the target length calculation unit 150.
Is added. Either the target long axis calculation unit 140 or the target length calculation unit 150 may come first.

【0081】図39は本発明の実施の形態4の目標検出
方法の全体の処理に示すフローチャートである。図39
のフローチャートは、目標重心算出処理S130の後に
目標長軸算出処理S140と目標長算出処理S150が
追加される。前述のように目標長軸算出処理S140と
目標長算出処理S150はどちらが先に来ても良い。
FIG. 39 is a flowchart showing the overall processing of the target detecting method according to the fourth embodiment of the present invention. FIG. 39
In the flowchart, the target long axis calculation process S140 and the target length calculation process S150 are added after the target center of gravity calculation process S130. As described above, either the target long axis calculation process S140 or the target length calculation process S150 may come first.

【0082】実施の形態4における目標長軸算出処理S
140および目標長算出処理S150は、それぞれ実施
の形態2における目標長軸算出ユニット140および実
施の形態3の目標長算出処理S150と同じであるの
で、詳細な説明は省略する。
Target long axis calculation process S in the fourth embodiment
Since 140 and the target length calculation processing S150 are the same as the target long axis calculation unit 140 in the second embodiment and the target length calculation processing S150 in the third embodiment, respectively, detailed description thereof will be omitted.

【0083】実施の形態4においては目標長軸算出処理
S140および目標長算出処理S150の双方を導入す
ることにより、実施の形態2と実施の形態3のメリット
の両方を得ることができる。
In the fourth embodiment, by introducing both the target long axis calculation processing S140 and the target length calculation processing S150, both the merits of the second embodiment and the third embodiment can be obtained.

【0084】図40は、全てのテンプレート画像を示す
図である。全テンプレート画像中には、目標1から目標
nまで全ての目標に対するテンプレート画像が含まれて
いる。さらに、各目標は、各方向に対するm通りのテン
プレート画像を有している。したがって、全体としてn
×m通りのテンプレート画像がある。この例では、目標
長軸算出処理S140において、被識別対象画像中の目
標の長軸の方向±所定の角度範囲に含まれるテンプレー
ト画像のみを選択でき、更に目標長算出処理S150に
おいて、被識別対象画像中の目標の長さ±所定の長さ範
囲に含まれる網掛けの部分のテンプレート画像のみを選
択でき、処理S200〜S220で対象となるテンプレ
ート画像をさらに減少できる。このために処理量をさら
に減らすことができ、処理時間をさらに短縮できる。
FIG. 40 is a diagram showing all template images. The template images for all targets 1 to n are included in all the template images. Furthermore, each target has m template images for each direction. Therefore, n as a whole
There are × m different template images. In this example, in the target long axis calculation process S140, only the template images included in the target long axis direction ± predetermined angle range in the target image to be identified can be selected. Only the shaded portion of the template image included in the target length ± predetermined length range in the image can be selected, and the target template image can be further reduced in steps S200 to S220. Therefore, the processing amount can be further reduced and the processing time can be further shortened.

【0085】実施の形態5.実施の形態1においては、
相関値/相関値総和算出処理S210で相関値算出対象
となっている目標領域内対象局所領域とテンプレート画
像内対象局所領域のすべての画素を用いて相関値を算出
していた。その場合、局所領域中にある背景の画素も相
関値の算出に用いており、目標構成画素に対応する部分
のみから相関値を算出するようにはなっていなかった。
実施の形態5は相関値を算出対象となっている目標領域
内対象局所領域及びテンプレート画像内対象局所領域中
で目標を構成する画素の位置に対応する画素のみを抽出
して相関値を算出するようにして、相関値の計算に用い
る画素数を低減させ、処理量を減らすようにしたもので
ある。
Embodiment 5. In the first embodiment,
In the correlation value / correlation value sum calculation processing S210, the correlation value is calculated using all the pixels of the target local area in the target area and the target local area in the template image which are the target of the correlation value calculation. In that case, the background pixel in the local region is also used for calculating the correlation value, and the correlation value is not calculated only from the portion corresponding to the target constituent pixel.
In the fifth embodiment, the correlation value is calculated by extracting only the pixels corresponding to the positions of the pixels forming the target in the target local area in the target area and the target local area in the template image for which the correlation value is calculated. In this way, the number of pixels used for calculating the correlation value is reduced and the processing amount is reduced.

【0086】図41は本発明の実施の形態5の目標識別
装置の全体構成を示すブロック図である。図41におい
ては、実施の形態1の局所領域処理実行判定ユニット1
80、相関値/相関値総和算出ユニット210が、それ
ぞれ局所領域画素処理実行判定/位置記録ユニット31
0、目標構成画素位置相関値/相関値総和算出ユニット
320に置き換えられている。
FIG. 41 is a block diagram showing the overall structure of the target identifying apparatus according to the fifth embodiment of the present invention. In FIG. 41, the local area processing execution determination unit 1 of the first embodiment
80, the correlation value / correlation value sum calculation unit 210 respectively determines the local area pixel processing execution determination / position recording unit 31.
0, which is replaced by the target constituent pixel position correlation value / correlation value sum calculation unit 320.

【0087】図42は、本発明の実施の形態5の目標識
別装置の全体の処理を示すフローチャートである。図4
2においては、実施の形態1の局所領域処理実行判定処
理S180および相関値/相関値総和算出処理S210
が、それぞれ局所領域画素処理実行判定/位置記録処理
S310、目標構成画素位置相関値/相関値総和算出処
理S320に置き換えられている。
FIG. 42 is a flowchart showing the overall processing of the target identifying device according to the fifth embodiment of the present invention. Figure 4
2, the local area process execution determination process S180 and the correlation value / correlation value sum total calculation process S210 of the first embodiment are performed.
Are replaced with local area pixel processing execution determination / position recording processing S310 and target constituent pixel position correlation value / correlation value sum calculation processing S320, respectively.

【0088】図43は、局所領域画素処理実行判定/位
置記録処理S310を説明する図である。図43におい
て、局所領域画素処理実行判定/位置記録処理S310
は、ラベリング画像読み出し処理S181で記憶ユニッ
ト300に記憶されたラベリング画像を読み出し、目標
領域中心位置読み出し処理S182で、記憶ユニット3
00に記憶した目標領域の中心位置の値を読み出す。次
に、局所領域カウンタ情報読み出し処理S183におい
て、先にカウンタ400の局所領域カウンタに記憶した
値を読み出し、対象局所領域位置算出処理S184にお
いて、ラベリング画像中の現在対象となっている対象局
所領域の範囲を算出する。次に、目標構成画素位置書き
込み処理S311では対象局所領域位置算出処理S18
4で算出された対象局所領域の範囲で目標を構成する画
素のラベル番号と一致する画素の位置を順次記録し、記
憶ユニット300に書き込む。
FIG. 43 is a diagram for explaining the local area pixel processing execution determination / position recording processing S310. In FIG. 43, local area pixel processing execution determination / position recording processing S310
Reads the labeling image stored in the storage unit 300 in the labeling image reading process S181, and reads the labeling region center position reading process S182 in the storage unit 3
The value of the center position of the target area stored in 00 is read out. Next, in the local area counter information reading process S183, the value previously stored in the local area counter of the counter 400 is read out, and in the target local area position calculation processing S184, the current target local area in the labeling image is read. Calculate the range. Next, in the target constituent pixel position writing process S311, the target local region position calculation process S18.
The positions of the pixels that match the label numbers of the pixels forming the target in the range of the target local area calculated in step 4 are sequentially recorded and written in the storage unit 300.

【0089】次に局所領域内目標画素数算出処理S18
6において当該ラベル番号と一致する画素の数を算出
し、処理実行判定処理S187において処理S186で
算出された目標画素数がスレッショルドよりも多い場合
は以降の目標領域内対象局所領域抽出ユニット190に
移り、そうでない場合は局所領域カウンタ加算処理S1
85で局所領域カウンタを1加算する。
Next, the target pixel number calculation process S18 in the local area is performed.
6, the number of pixels matching the label number is calculated, and when the target pixel number calculated in process S186 in the process execution determination process S187 is larger than the threshold, the process moves to the target local region in target region extraction unit 190 thereafter. , Otherwise, local area counter addition processing S1
At 85, the local area counter is incremented by 1.

【0090】図44は、目標構成画素位置相関値/相関
値総和算出処理S320を説明するフローチャートであ
る。図44において、まず目標領域内対象局所領域読み
出し処理S211で記憶ユニット300から目標領域内
対象局所領域を読み出し、テンプレート画像内対象局所
領域読み出し処理S212でテンプレート画像内対象局
所領域を読み出す。次に目標構成画素位置読み出し処理
S321で記憶ユニット300から目標構成画素位置デ
ータを読み出し、目標領域内対象局所領域対応位置画素
抽出処理S322で上記で読み出した目標領域内対象局
所領域のうち、現在の目標構成画素位置に対応する画素
の値を記憶ユニット300に書き込む。同様にテンプレ
ート画像内対象局所領域対応位置画素抽出処理S323
で、上記で読み出したテンプレート画像内対象局所領域
のうち、現在の目標構成画素位置に対応する画素の値を
記憶ユニット300に書き込む。全画素終了判定処理S
324で目標構成画素の全てが終了したか判定を行い、
終了した場合は、処理S325において、目標領域内対
象領域対応位置画素とテンプレート画像内対象領域対応
位置画素を読み込み、相関値算出処理S213に進む。
全画素終了判定処理S324で目標構成画素の全てが終
了していない場合は目標構成画素位置読み出し処理S3
21に戻り、次の目標構成画素位置データを読み出し、
その後、相関値総和算出処理S214において、目標領
域中の全局所領域の相関値の総和が得られるように算出
された相関値を各テンプレート画像毎に加算し、相関値
の総和として記憶ユニット300に書き込む。
FIG. 44 is a flowchart for explaining the target constituent pixel position correlation value / correlation value sum total calculation processing S320. In FIG. 44, first, in the target area target local area read processing S211, the target area target local area is read from the storage unit 300, and in the template image target local area read processing S212, the template image target local area is read. Next, in the target constituent pixel position reading process S321, the target constituent pixel position data is read from the storage unit 300, and in the target region target local area corresponding position local pixel corresponding position pixel extraction processing S322, the current target pixel target local area is read. The value of the pixel corresponding to the target constituent pixel position is written in the storage unit 300. Similarly, target local area corresponding position pixel extraction processing in the template image S323
Then, the value of the pixel corresponding to the current target constituent pixel position in the target local area in the template image read out above is written in the storage unit 300. All pixel end determination process S
At 324, it is determined whether all of the target constituent pixels have finished,
When the processing is completed, in step S325, the target area corresponding position pixel in the target area and the target area corresponding position pixel in the template image are read, and the process proceeds to correlation value calculation processing S213.
If all of the target constituent pixels have not ended in the all-pixel end determination processing S324, the target constituent pixel position reading processing S3
21, the next target constituent pixel position data is read out,
After that, in the correlation value sum total calculation processing S214, the correlation values calculated so as to obtain the sum total of the correlation values of all the local regions in the target region are added for each template image, and stored in the storage unit 300 as the sum of the correlation values. Write.

【0091】図45は、目標構成画素位置相関値算出処
理S320における相関処理の詳細を説明する図であ
る。図45(a)の全体は目標領域を示し、太線は目標
領域画像内の目標、2重線は目標領域内の局所領域で、
3重線は目標領域内で現在処理対象となっている目標領
域内対象局所領域を示す。図45(b)の全体はテンプ
レート画像を示し、太線はテンプレート画像内の目標、
2重線はテンプレート画像内の局所領域を示し、3重線
はテンプレート画像内で現在処理対象となっているテン
プレート画像内対象局所領域を示す。ハッチング部は、
対象局所領域中の目標構成画素の位置に対応する画素、
すなわち、相関値を算出する対象となる画素を示す。図
45のハッチング部は、相関値算出処理S213で相関
値の算出に用いられる画素を示す。すなわち、実施の形
態5においては、局所領域中の全画素を用いて相関値を
算出するのでなく、ハッチングで囲まれた部分のみを用
いて算出する。
FIG. 45 is a diagram for explaining the details of the correlation processing in the target constituent pixel position correlation value calculation processing S320. The whole of FIG. 45 (a) shows the target area, the thick line is the target in the target area image, and the double line is the local area in the target area.
The triple line indicates the target local area within the target area that is currently the target of processing within the target area. The whole of FIG. 45 (b) shows the template image, the thick line shows the target in the template image,
The double line indicates the local area in the template image, and the triple line indicates the target local area in the template image which is currently the processing target in the template image. The hatching part is
A pixel corresponding to the position of the target constituent pixel in the local region of interest,
That is, the pixel for which the correlation value is calculated is shown. The hatched portion in FIG. 45 shows pixels used for calculating the correlation value in the correlation value calculation processing S213. That is, in the fifth embodiment, the correlation value is not calculated using all the pixels in the local area, but is calculated using only the portion surrounded by hatching.

【0092】上述のように、実施の形態5においては、
目標構成画素の位置と対応する目標領域内対象局所領域
の対応位置画素及びテンプレート画像内対象局所領域の
対応位置画素のみを用いて相関値を算出することによ
り、背景の画素を相関値の算出に使用しないで済むため
に、処理量を低減し、処理を高速化できる。
As described above, in the fifth embodiment,
By calculating the correlation value using only the corresponding position pixel of the target local area in the target region and the corresponding position pixel of the target local area in the template image corresponding to the position of the target constituent pixel, the background pixel is used to calculate the correlation value. Since it does not need to be used, the processing amount can be reduced and the processing speed can be increased.

【0093】[0093]

【発明の効果】上述のように、本発明の第1および第6
の発明によれば、本発明は、局所領域内の目標を構成す
る画素数がスレッショルドよりも少ない場合には相関値
を計算しなくて済むため、従来の部分パターンマッチン
グ処理を行った場合よりも処理量を減らすことができ、
安定的かつ高速に目標の識別処理が行える。
As described above, the first and sixth aspects of the present invention are provided.
According to the present invention, since the present invention does not need to calculate the correlation value when the number of pixels forming the target in the local region is smaller than the threshold, the present invention is more efficient than the conventional partial pattern matching process. The amount of processing can be reduced,
Target identification processing can be performed stably and at high speed.

【0094】また、本発明の第2および第7の発明によ
れば、本発明は、目標重心算出処理の後に目標長軸算出
処理を付加したので、テンプレート画像中の目標の方向
が被識別対象画像から算出した目標の長軸方向±所定の
角度範囲に含まれるテンプレート画像のみを選択するこ
とが可能になり、処理するテンプレート画像の数を減ら
し、処理を高速化できる。
According to the second and seventh aspects of the present invention, the target major axis calculation process is added after the target centroid calculation process in the present invention, so that the direction of the target in the template image is the object to be identified. It is possible to select only the template images included in the target long-axis direction ± predetermined angle range calculated from the images, reduce the number of template images to be processed, and speed up the processing.

【0095】また、本発明の第3および第8の発明によ
れば、本発明は、目標重心算出処理の後に目標長算出処
理を付加したので、テンプレート画像中の目標の長さが
被識別対象画像から算出した目標長±所定の長さ範囲に
含まれるテンプレート画像のみを選択することが可能に
なり、処理するテンプレート画像の数を減らし、処理を
高速化できる。
According to the third and eighth aspects of the present invention, since the target length calculation process is added after the target center of gravity calculation process in the present invention, the target length in the template image is the object to be identified. It is possible to select only the template images included in the target length ± predetermined length range calculated from the images, reduce the number of template images to be processed, and speed up the processing.

【0096】また、本発明の第4および第9の発明によ
れば、本発明は、目標重心算出処理の後に目標長軸算出
処理および目標長算出処理を付加したので、テンプレー
ト画像中の目標の方向が被識別対象画像から算出した目
標の長軸方向±所定の角度範囲に含まれ、かつ目標の長
さが被識別対象画像から算出した目標長±所定の長さ範
囲に含まれるテンプレート画像のみを選択することが可
能になり、処理するテンプレート画像の数をさらに減ら
し、処理をさらに高速化できる。
According to the fourth and ninth aspects of the present invention, since the target major axis calculation process and the target length calculation process are added after the target center of gravity calculation process in the present invention, the target in the template image Only the template image whose direction is included in the long-axis direction of the target calculated from the image-to-be-identified ± within a predetermined angle range, and whose target length is included in the target length calculated from the image-to-be-identified ± within a predetermined length range Can be selected, the number of template images to be processed can be further reduced, and the processing can be further speeded up.

【0097】また、本発明の第5および第10の発明に
よれば、本発明は、対象局所領域中の目標構成画素の位
置に対応する目標領域内対象局所領域対応位置画素及び
テンプレート画像内対象局所領域対応位置画素のみを用
いて相関値を算出するように構成されるので、相関値計
算の際の画素を減らすことができるので処理を高速化で
きる。
According to the fifth and tenth aspects of the present invention, the present invention provides a target area target local area corresponding position pixel corresponding to a position of a target constituent pixel in the target local area and a template image target. Since the correlation value is calculated using only the local region corresponding position pixel, the number of pixels in the calculation of the correlation value can be reduced, and the processing speed can be increased.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施の形態1の目標識別装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a target identifying device according to a first embodiment of the present invention.

【図2】 本発明の実施の形態1の目標識別方法の処理
を示すフローチャートである。
FIG. 2 is a flowchart showing processing of a target identifying method according to the first embodiment of the present invention.

【図3】 本発明の実施の形態1の目標構成画素検出処
理を説明するフローチャートである。
FIG. 3 is a flowchart illustrating target constituent pixel detection processing according to the first embodiment of the present invention.

【図4】 本発明の実施の形態1の目標識別方法におけ
る目標構成画素検出処理を説明する図である。
FIG. 4 is a diagram illustrating a target constituent pixel detection process in the target identification method according to the first embodiment of the present invention.

【図5】 本発明の実施の形態1のラベリング処理のフ
ローチャートである。
FIG. 5 is a flowchart of a labeling process according to the first embodiment of the present invention.

【図6】 本発明の実施の形態1の目標識別方法におけ
るラベリング処理を説明する図である。
FIG. 6 is a diagram illustrating a labeling process in the target identifying method according to the first embodiment of the present invention.

【図7】 本発明の実施の形態1の目標重心算出処理の
フローチャートである。
FIG. 7 is a flowchart of target centroid calculation processing according to the first embodiment of the present invention.

【図8】 本発明の実施の形態1の目標識別方法におけ
る目標重心算出処理を説明する図である。
FIG. 8 is a diagram illustrating target centroid calculation processing in the target identification method according to the first embodiment of the present invention.

【図9】 本発明の実施の形態1の目標識別方法におけ
るテンプレート画像中心移動範囲設定処理のフローチャ
ートである。
FIG. 9 is a flowchart of template image center moving range setting processing in the target identifying method according to the first embodiment of the present invention.

【図10】 本発明の実施の形態1のテンプレート画像
中心移動範囲設定処理を説明する図である。
FIG. 10 is a diagram illustrating template image center moving range setting processing according to the first embodiment of the present invention.

【図11】 本発明の実施の形態1の目標識別方法にお
ける目標領域抽出処理のフローチャートである。
FIG. 11 is a flowchart of target area extraction processing in the target identification method according to the first embodiment of the present invention.

【図12】 本発明の実施の形態1の目標領域抽出処理
を説明する図である。
FIG. 12 is a diagram illustrating target area extraction processing according to the first embodiment of the present invention.

【図13】 本発明の実施の形態1の目標識別方法にお
ける局所領域処理実行判定処理のフローチャートであ
る。
FIG. 13 is a flowchart of local area processing execution determination processing in the target identifying method according to the first embodiment of the present invention.

【図14】 本発明の実施の形態1の局所領域処理実行
判定処理を説明する図である。
FIG. 14 is a diagram illustrating local area processing execution determination processing according to the first embodiment of the present invention.

【図15】 本発明の実施の形態1の目標識別方法にお
ける目標領域内対象局所領域抽出処理のフローチャート
である。
FIG. 15 is a flowchart of target local area within target area extraction processing in the target identification method according to the first embodiment of the present invention.

【図16】 本発明の実施の形態1の目標領域内対象局
所領域抽出処理を説明する図である。
FIG. 16 is a diagram illustrating target local area extraction processing within a target area according to the first embodiment of the present invention.

【図17】 本発明の実施の形態1の目標識別方法にお
けるテンプレート画像内対象局所領域抽出処理のフロー
チャートである。
FIG. 17 is a flowchart of target local area extraction processing in a template image in the target identification method according to the first embodiment of the present invention.

【図18】 本発明の実施の形態1のテンプレート画像
内対象局所領域抽出処理を説明する図である。
FIG. 18 is a diagram for explaining target local area extraction processing within a template image according to the first embodiment of the present invention.

【図19】 本発明の実施の形態1の目標識別方法の相
関値/相関値総和算出処理のフローチャートである。
FIG. 19 is a flowchart of a correlation value / correlation value sum total calculation process of the target identifying method according to the first embodiment of the present invention.

【図20】 本発明の実施の形態1の相関値/相関値総
和算出処理を説明する図である。
FIG. 20 is a diagram illustrating a correlation value / correlation value sum total calculation process according to the first embodiment of the present invention.

【図21】 本発明の実施の形態1の目標識別方法にお
ける全テンプレート画像終了判定処理のフローチャート
である。
FIG. 21 is a flowchart of all template image end determination processing in the target identifying method according to the first embodiment of the present invention.

【図22】 本発明の実施の形態1の目標識別方法にお
ける全局所領域終了判定処理のフローチャートである。
FIG. 22 is a flowchart of an all local area end determination process in the target identifying method according to the first embodiment of the present invention.

【図23】 本発明の実施の形態1の目標識別方法にお
ける最良マッチング結果判定処理のフローチャートであ
る。
FIG. 23 is a flowchart of a best matching result determination process in the target identifying method according to the first embodiment of the present invention.

【図24】 本発明の実施の形態1の目標識別方法にお
ける全移動範囲終了判定処理のフローチャートである。
FIG. 24 is a flowchart of the entire movement range end determination processing in the target identifying method according to the first embodiment of the present invention.

【図25】 本発明の実施の形態1の全移動範囲終了判
定処理を説明する図である。
[Fig. 25] Fig. 25 is a diagram for describing the end-of-all-movement-range determination processing according to the first embodiment of the present invention.

【図26】 本発明の実施の形態1の目標識別方法にお
ける目標名称出力処理のフローチャートである。
FIG. 26 is a flowchart of target name output processing in the target identifying method according to the first embodiment of the present invention.

【図27】 本発明の実施の形態2の目標識別装置の構
成を示すブロック図である。
FIG. 27 is a block diagram showing a configuration of a target identifying device according to a second embodiment of the present invention.

【図28】 本発明の実施の形態2の目標識別方法の処
理を示すフローチャートである。
FIG. 28 is a flowchart showing a process of a target identifying method according to the second embodiment of the present invention.

【図29】 本発明の実施の形態2の目標識別方法にお
ける目標長軸算出処理のフローチャートである。
FIG. 29 is a flowchart of target long axis calculation processing in the target identifying method according to the second embodiment of the present invention.

【図30】 本発明の実施の形態2の目標長軸算出処理
を説明する図である。
FIG. 30 is a diagram illustrating target long axis calculation processing according to the second embodiment of the present invention.

【図31】 本発明の実施の形態2の目標の長軸方向に
よるテンプレート画像の選択を概念的に示す図である。
FIG. 31 is a diagram conceptually showing selection of a template image in the target long-axis direction according to the second embodiment of the present invention.

【図32】 本発明の実施の形態2の全テンプレート画
像を示す図である。
FIG. 32 is a diagram showing all template images according to the second embodiment of the present invention.

【図33】 本発明の実施の形態3の目標識別装置の構
成を示すブロック図である。
FIG. 33 is a block diagram showing a configuration of a target identifying device according to a third embodiment of the present invention.

【図34】 本発明の実施の形態3の目標識別方法の処
理を示すフローチャートである。
FIG. 34 is a flowchart showing a process of a target identifying method according to the third embodiment of the present invention.

【図35】 本発明の実施の形態3の目標識別方法にお
ける目標長算出処理のフローチャートである。
FIG. 35 is a flowchart of target length calculation processing in the target identifying method according to the third embodiment of the present invention.

【図36】 本発明の実施の形態3の目標長によるテン
プレート画像の選択を概念的に示した図である。
FIG. 36 is a diagram conceptually showing selection of a template image based on a target length according to the third embodiment of the present invention.

【図37】 本発明の実施の形態3の全テンプレート画
像を示す図である。
FIG. 37 is a diagram showing all template images according to the third embodiment of the present invention.

【図38】 本発明の実施の形態4の目標識別装置の構
成を示すブロック図である。
FIG. 38 is a block diagram showing a configuration of a target identifying device according to a fourth embodiment of the present invention.

【図39】 本発明の実施の形態4の目標識別方法の処
理を示すフローチャートである。
FIG. 39 is a flowchart showing the processing of the target identifying method according to the fourth embodiment of the present invention.

【図40】 本発明の実施の形態4の全テンプレート画
像を示す図である。
FIG. 40 is a diagram showing all template images according to the fourth embodiment of the present invention.

【図41】 本発明の実施の形態5の目標識別装置の構
成を示すブロック図である。
FIG. 41 is a block diagram showing a configuration of a target identifying device according to a fifth embodiment of the present invention.

【図42】 本発明の実施の形態5の目標識別方法の処
理を示すフローチャートである。
FIG. 42 is a flowchart showing the processing of the target identifying method according to the fifth embodiment of the present invention.

【図43】 本発明の実施の形態5の局所領域処理実行
判定/位置記録処理を示すフローチャートである。
FIG. 43 is a flowchart showing local area process execution determination / position recording process according to the fifth embodiment of the present invention.

【図44】 本発明の実施の形態5の目標構成画素位置
相関値/相関値総和算出処理を説明するフローチャート
である。
FIG. 44 is a flowchart illustrating target component pixel position correlation value / correlation value sum total calculation processing according to the fifth embodiment of the present invention.

【図45】 本発明の実施の形態5の目標構成画素位置
相関値/相関値総和算出処理における相関値算出処理の
詳細を説明する図である。
FIG. 45 is a diagram illustrating details of a correlation value calculation process in a target constituent pixel position correlation value / correlation value sum total calculation process according to the fifth embodiment of the present invention.

【図46】 従来の目標識別装置の構成を示すブロック
図である。
FIG. 46 is a block diagram showing a configuration of a conventional target identifying device.

【図47】 従来の目標識別方法の処理を示すフローチ
ャートである。
FIG. 47 is a flowchart showing the processing of a conventional target identifying method.

【図48】 入力された被識別対象画像とテンプレート
画像を示す図である。
FIG. 48 is a diagram showing an input image to be identified and a template image.

【図49】 目標構成画素検出処理で2値化された目標
構成画素2値化画像とテンプレート画像(2値化画像)を
示す図である。
FIG. 49 is a diagram showing a target constituent pixel binarized image and a template image (binarized image) that have been binarized by the target constituent pixel detection processing.

【図50】 従来の目標識別方法におけるテンプレート
画像中心移動範囲設定処理を説明する図である。
FIG. 50 is a diagram illustrating template image center moving range setting processing in the conventional target identification method.

【図51】 外形の形状は同じであるが内部の構造が一
部異なる目標が従来の目標識別装置では処理できない理
由を説明した図である。
FIG. 51 is a diagram for explaining the reason why targets having the same outer shape but different internal structures cannot be processed by the conventional target identifying apparatus.

【図52】 被識別対象画像中の目標の形態が局所的に
変化した場合を説明した図である。
FIG. 52 is a diagram illustrating a case where the shape of the target in the image to be identified locally changes.

【図53】 被識別対象画像中の目標が存在する領域を
分割し、局所領域としてテンプレートマッチングを施す
部分テンプレートマッチングを説明した図である。
[Fig. 53] Fig. 53 is a diagram for describing partial template matching in which a region where a target exists in an image to be identified is divided and template matching is performed as a local region.

【符号の説明】[Explanation of symbols]

110…目標構成画素検出ユニット、120…ラベリン
グユニット、130…目標重心算出ユニット、140…
目標長軸算出ユニット、150…目標長算出ユニット、
160…テンプレート画像中心移動範囲設定ユニット、
170…目標領域抽出ユニット、180…局所領域処理
実行判定ユニット、190…目標領域内対象局所領域抽
出ユニット、200…テンプレート画像内対象局所領域
抽出ユニット、210…相関値/相関値総和算出ユニッ
ト、220…全テンプレート画像終了判定ユニット、2
30…全局所領域終了判定ユニット、240…最良マッ
チング結果判定ユニット、250…全移動範囲終了判定
ユニット、260…目標名称出力ユニット、280…相
関値算出ユニット、290…最良マッチング結果判定ユ
ニット、300…記憶ユニット、310・・・局所領域処
理実行判定/位置記録ユニット、320…目標構成画素
位置相関値/相関値総和算出ユニット、400…カウン
110 ... Target constituent pixel detection unit, 120 ... Labeling unit, 130 ... Target centroid calculation unit, 140 ...
Target long axis calculation unit, 150 ... Target length calculation unit,
160 ... Template image center moving range setting unit,
170 ... Target area extraction unit, 180 ... Local area processing execution determination unit, 190 ... Target area in target area local area extraction unit, 200 ... Template image in target local area extraction unit, 210 ... Correlation value / correlation value sum calculation unit, 220 … All template image end judgment unit, 2
30 ... All local region end determination unit, 240 ... Best matching result determination unit, 250 ... Full movement range end determination unit, 260 ... Target name output unit, 280 ... Correlation value calculation unit, 290 ... Best matching result determination unit, 300 ... Storage unit 310 ... Local area process execution determination / position recording unit 320 ... Target constituent pixel position correlation value / correlation value sum calculation unit 400 ... Counter

フロントページの続き (51)Int.Cl.7 識別記号 FI G06T 1/00 285 G06T 1/00 285 7/00 300 7/00 300D (56)参考文献 特開 平11−306353(JP,A) 特開 平5−250475(JP,A) 特開2000−180543(JP,A) PRMU96−18 2次元図形の構造的 記述による認識,電子情報通信学会技術 研究報告,日本,1996年 5月17日,V ol.96 No.41,pp.45−50 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G01S 13/90 G06T 1/00 Continuation of front page (51) Int.Cl. 7 identification code FI G06T 1/00 285 G06T 1/00 285 7/00 300 7/00 300D (56) Reference JP-A-11-306353 (JP, A) Kaihei 5-250475 (JP, A) JP 2000-180543 (JP, A) PRMU96-18 Recognition by structural description of two-dimensional figures, IEICE Technical Report, Japan, May 17, 1996, Vol. 96 No. 41, pp. 45-50 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G01S 13/90 G06T 1/00

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された被識別対象画像から目標を構
成する画素を検出して2値化画像を生成し、前記で生成
された2値化画像からラベリング画像を生成し、前記ラ
ベリング画像から目標の重心を算出し、前記入力被識別
対象画像に対してテンプレート画像の中心移動範囲を設
定し、前記テンプレート画像を置くべき目標領域の中心
を決定し、前記目標領域を抽出し、前記目標領域に対応
するラベリング画像の領域を局所領域に分割して、その
分割された局所領域毎に相関値を計算して、前記相関値
に基づいて前記テンプレート画像中に存在する目標を被
識別対象画像中に存在する目標であると推定する目標識
別方法において、 前記各局所領域の 目標の画素数をカウントし、前記カウ
ント数所定のスレッショルド未満か以上かを判定し、
前記カウント数が所定のスレッショルド未満の場合に
は、その局所領域の相関値算出を行わず、前記カウント
数が所定のスレッショルド以上の場合には、その局所領
域に対応する目標領域内対象局所領域とテンプレート画
像内対象局所領域を抽出して相関値を算出し、前記相関
値算出処理で得られた全ての局所領域の相関値の総和を
算出し、テンプレート画像の移動範囲で算出された相関
値の総和から最も良いマッチング結果を判定し、更に全
テンプレート画像中で最も良いマッチング結果が得られ
たテンプレート画像中に存在する目標を被識別対象画像
中に存在する目標であると推定し、その目標の名称を出
力する事を特徴とする目標識別方法。
1. A binarized image is generated by detecting pixels constituting a target from an inputted image to be identified, a labeling image is generated from the binarized image generated in the above, and a labeling image is generated from the labeling image. The center of gravity of the target is calculated, the center moving range of the template image is set for the input identification target image, the center of the target area where the template image is to be placed is determined, the target area is extracted, and the target area is set. Corresponding to
The area of the labeling image is divided into local areas and
The correlation value is calculated for each of the divided local regions, and the correlation value is calculated.
The target existing in the template image based on
Eye markers presumed to be targets existing in the image to be identified
Alternatively, the target number of pixels in each of the local regions is counted, and it is determined whether the count is less than or equal to a predetermined threshold ,
If the count is less than the predetermined threshold
Does not calculate the correlation value of the local area,
If the number is equal to or larger than a predetermined threshold, it extracts the target area within a subject local region and the template image in the target local region corresponding to the local area to calculate the correlation values, obtained in the preceding Symbol correlation value calculation origin management calculating a sum of the correlation values of all the local regions, and determines the best matching result from the sum of the correlation values calculated by the moving range of the template image to obtain more best matching result in the entire template image A target identifying method characterized by estimating a target existing in a template image as a target existing in an image to be identified and outputting the name of the target.
【請求項2】 請求項1記載の方法において、前記目標
重心算出処理の後に目標の長軸を算出し、テンプレート
画像中の目標の方向が被識別対象画像から算出した目標
の長軸の方向±所定角度の範囲に含まれるテンプレート
画像のみを選択する目標長軸算出処理を付加し、前記目
標長軸算出処理で選択されたテンプレート画像のみを用
いて前記相関値及び相関値総和算出処理を行うことを特
徴とする目標識別方法。
2. The method according to claim 1, wherein a target long axis is calculated after the target centroid calculation process, and the target direction in the template image is the direction of the target long axis calculated from the image to be identified ±. A target long axis calculation process for selecting only a template image included in a range of a predetermined angle is added, and the correlation value and correlation value sum calculation process is performed using only the template image selected in the target long axis calculation process. Target identification method characterized by.
【請求項3】 請求項1記載の方法において、前記目標
重心算出処理の後に、目標長を算出しテンプレート画像
中の目標の長さが被識別対象画像から算出した目標長±
所定の長さ範囲に含まれるテンプレート画像のみを選択
する目標長軸算出処理を付加し、前記目標長算出処理で
選択されたテンプレート画像のみを用いて前記相関値及
び相関値総和算出処理を行うことを特徴とする目標識別
方法。
3. The method according to claim 1, wherein after the target center of gravity calculation processing, a target length is calculated and the target length in the template image is a target length ± calculated from the image to be identified.
A target long axis calculation process for selecting only template images included in a predetermined length range is added, and the correlation value and correlation value sum calculation process is performed using only the template image selected in the target length calculation process. Target identification method characterized by.
【請求項4】 請求項2記載の方法において、前記目標
長軸算出処理の前または後に、さらに目標長を算出し、
目標の長さが被識別対象画像から算出した目標長±所定
の長さ範囲に含まれるテンプレート画像のみを選択する
目標長算出処理を付加し、前記目標長軸算出処理で選択
され、かつ前記目標長算出処理で選択されたテンプレー
ト画像のみを用いて前記相関値及び相関値総和算出処理
を行うことを特徴とする目標識別方法。
4. The method according to claim 2, further comprising calculating a target length before or after the target long axis calculation process,
The target length is calculated by adding the target length calculation process for selecting only the template image whose target length is calculated from the image to be identified ± the predetermined length range, and the target long axis calculation process is performed, and the target A target identifying method, characterized in that the correlation value and correlation value sum calculation processing is performed using only the template image selected in the length calculation processing.
【請求項5】 請求項1ないし4のいずれかに記載の方
法において、対象局所領域中の目標構成画素の位置に対
応する目標領域内対象局所領域対応位置画素及びテンプ
レート画像内対象局所領域対応位置画素のみを用いて相
関値を算出する事を特徴とする目標識別方法
5. The method according to claim 1, wherein the target local area corresponding position pixel in the target area and the target local area corresponding position in the template image corresponding to the position of the target constituent pixel in the target local area. Target identification method characterized by calculating a correlation value using only pixels
【請求項6】 入力された被識別対象画像から目標を構
成する画素を検出して2値化画像を生成する手段と、前
記で生成された2値化画像からラベリング画像を生成す
る手段と、前記ラベリング画像から目標の重心を算出す
る手段と、前記入力被識別対象画像に対してテンプレー
ト画像の中心移動範囲を設定する手段と、前記テンプレ
ート画像を置くべき目標領域の中心を決定し、前記目標
領域を抽出する手段と、前記目標領域に対応するラベリ
ング画像の領域を局所領域に分割して、その分割された
局所領域毎に相関値を計算する手段と、前記相関値に基
づいて前記テンプレート画像中に存在する目標を被識別
対象画像中に存在する目標であると推定する手段とを備
えた目標識別装置において、 前記各局所領域の 目標の画素数をカウントし、前記カウ
ント数所定のスレッショルド未満か以上かを判定する
手段と、前記カウント数が所定のスレッショルド未満の
場合には、その局所領域の相関値算出を行わず、前記カ
ウント数が所定のスレッショルド以上の場合には、その
局所領域に対応する目標領域内対象局所領域とテンプレ
ート画像内対象局所領域を抽出して相関値を算出する相
関値算出手段と、前記相関値算出手段で得られた全ての
局所領域の相関値の総和を算出する手段と、テンプレー
ト画像の移動範囲で算出された相関値の総和から最も良
いマッチング結果を判定する手段と、更に全テンプレー
ト画像中で最も良いマッチング結果が得られたテンプレ
ート画像中に存在する目標を被識別対象画像中に存在す
る目標であると推定し、その目標の名称を出力する手段
を備えたことを特徴とする目標識別装置。
6. A means for generating a binarized image by detecting pixels constituting a target from the inputted image to be identified, and a means for generating a labeling image from the binarized image generated above. Means for calculating the center of gravity of the target from the labeling image, means for setting the center movement range of the template image with respect to the input identification target image, and determining the center of the target area in which the template image should be placed, Means for extracting a region and a Rabeli corresponding to the target region
The region of the image is divided into local regions, and
A means for calculating the correlation value for each local area, and a means for calculating the correlation value based on the correlation value.
The target existing in the template image is identified based on
And means for presuming that the target exists in the target image.
The target identification device counts the target number of pixels in each of the local regions, and determines whether the count number is less than or equal to a predetermined threshold.
Means and the count number is less than a predetermined threshold
In this case, the correlation value for the local area is not calculated and the
When the number of unds is greater than or equal to a predetermined threshold, a phase for calculating the correlation value by extracting the target local area in the target area and the target local area in the template image corresponding to the local area
And related value calculating means, and means for calculating the sum of the correlation values of all the local regions obtained by the correlation value calculation detemir stage, the best matching results from the sum of the correlation values calculated by the moving range of the template image Determining means, and means for estimating a target existing in the template image having the best matching result among all the template images as a target existing in the image to be identified, and outputting the name of the target A target identifying device comprising:
【請求項7】 請求項6記載の装置において、前記目標
重心算出手段の後に、目標の長軸を算出し、テンプレー
ト画像中の目標の方向が被識別対象画像から算出した目
標の方向±所定角度の範囲に含まれるテンプレート画像
のみを選択する目標長軸算出手段を付加し、前記目標長
軸算出手段で選択されたテンプレート画像のみを用いて
前記相関値と相関値の総和算出手段を行うことを特徴と
する目標識別装置。
7. The apparatus according to claim 6, wherein after the target center of gravity calculation means, a long axis of the target is calculated, and the direction of the target in the template image is the target direction ± predetermined angle calculated from the image to be identified. Target long axis calculating means for selecting only template images included in the range, and performing only the template image selected by the target long axis calculating means to perform the sum calculation means of the correlation value and the correlation value. Characteristic target identification device.
【請求項8】 請求項6記載の装置において、前記目標
重心算出手段の後に、目標長を算出しテンプレート画像
中の目標の長さが被識別対象画像から算出した目標長±
所定の長さ範囲に含まれるテンプレート画像のみを選択
する目標長軸算出手段を付加し、前記目標長算出手段で
選択されたテンプレート画像のみを用いて前記相関値と
相関値の総和算出手段を行うことを特徴とする目標識別
装置。
8. The apparatus according to claim 6, wherein after the target center of gravity calculation means, a target length is calculated, and the target length in the template image is a target length ± calculated from the image to be identified.
A target long axis calculation means for selecting only template images included in a predetermined length range is added, and the correlation value and the sum of correlation values are calculated using only the template image selected by the target length calculation means. A target identification device characterized by the above.
【請求項9】 請求項7記載の装置において、前記目標
長軸算出手段の前または後に、さらに目標長を算出し、
目標の長さが被識別対象画像から算出した目標長±所定
の長さ範囲に含まれるテンプレート画像のみを選択する
目標長算出手段を付加し、前記目標長軸算出手段で選択
され、かつ前記目標長算出手段で選択されたテンプレー
ト画像のみを用いて前記相関値と相関値の総和算出手段
を行うことを特徴とする目標識別装置。
9. The apparatus according to claim 7, wherein a target length is further calculated before or after the target long axis calculation means,
A target length calculation unit for selecting only a template image whose target length is calculated from the image to be identified ± target length range is added, and the target long axis calculation unit selects the target image. A target identifying device characterized in that the correlation value and the sum of correlation values are calculated using only the template image selected by the length calculation means.
【請求項10】 請求項6ないし9のいずれかに記載の
装置において、対象局所領域中の目標構成画素の位置に
対応する目標領域内対象局所領域対応位置画素及びテン
プレート画像内対象局所領域対応位置画素のみを用いて
相関値を算出することを特徴とする目標識別装置。
10. The apparatus according to claim 6, wherein the target local area corresponding position pixel in the target area and the target local area corresponding position in the template image corresponding to the position of the target constituent pixel in the target local area. A target identifying device characterized in that a correlation value is calculated using only pixels.
JP2000339279A 2000-11-07 2000-11-07 Target identification method and target identification device Expired - Fee Related JP3446177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000339279A JP3446177B2 (en) 2000-11-07 2000-11-07 Target identification method and target identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000339279A JP3446177B2 (en) 2000-11-07 2000-11-07 Target identification method and target identification device

Publications (2)

Publication Number Publication Date
JP2002150298A JP2002150298A (en) 2002-05-24
JP3446177B2 true JP3446177B2 (en) 2003-09-16

Family

ID=18814373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000339279A Expired - Fee Related JP3446177B2 (en) 2000-11-07 2000-11-07 Target identification method and target identification device

Country Status (1)

Country Link
JP (1) JP3446177B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337170A (en) * 2002-03-14 2003-11-28 Furuno Electric Co Ltd Radar and radar signal processor
JP5601868B2 (en) * 2010-01-07 2014-10-08 三菱電機株式会社 Image change sorting device
JP5616200B2 (en) * 2010-11-18 2014-10-29 古野電気株式会社 Radar device, target detection method, and target detection program
JP7077535B2 (en) 2017-05-19 2022-05-31 株式会社Ihi Image processing method and image processing device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PRMU96−18 2次元図形の構造的記述による認識,電子情報通信学会技術研究報告,日本,1996年 5月17日,Vol.96 No.41,pp.45−50

Also Published As

Publication number Publication date
JP2002150298A (en) 2002-05-24

Similar Documents

Publication Publication Date Title
CN111814794B (en) Text detection method and device, electronic equipment and storage medium
Jeon et al. Road detection in spaceborne SAR images using a genetic algorithm
JP2940317B2 (en) Image processing device
CN111445478B (en) Automatic intracranial aneurysm region detection system and detection method for CTA image
Wenyin et al. From raster to vectors: extracting visual information from line drawings
US20180074203A1 (en) Lidar Object Detection System for Automated Vehicles
US20070058856A1 (en) Character recoginition in video data
CN109360633B (en) Medical image processing method and device, processing equipment and storage medium
KR101618996B1 (en) Sampling method and image processing apparatus for estimating homography
CN111753119A (en) Image searching method and device, electronic equipment and storage medium
CN114782499A (en) Image static area extraction method and device based on optical flow and view geometric constraint
CN111274981A (en) Target detection network construction method and device and target detection method
CN115512169B (en) Weak supervision semantic segmentation method and device based on gradient and region affinity optimization
CN114937086A (en) Training method and detection method for multi-image target detection and related products
CN112200186A (en) Car logo identification method based on improved YOLO _ V3 model
Liu et al. Multi-component fusion network for small object detection in remote sensing images
CN110544268A (en) Multi-target tracking method based on structured light and SiamMask network
CN110135428B (en) Image segmentation processing method and device
CN115100616A (en) Point cloud target detection method and device, electronic equipment and storage medium
JP3446177B2 (en) Target identification method and target identification device
CN114241448A (en) Method and device for obtaining heading angle of obstacle, electronic equipment and vehicle
CN111353325A (en) Key point detection model training method and device
CN114972492A (en) Position and pose determination method and device based on aerial view and computer storage medium
CN112651294A (en) Method for recognizing human body shielding posture based on multi-scale fusion
CN115937520A (en) Point cloud moving target segmentation method based on semantic information guidance

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees