JP3355027B2 - Target detection method - Google Patents
Target detection methodInfo
- Publication number
- JP3355027B2 JP3355027B2 JP13067594A JP13067594A JP3355027B2 JP 3355027 B2 JP3355027 B2 JP 3355027B2 JP 13067594 A JP13067594 A JP 13067594A JP 13067594 A JP13067594 A JP 13067594A JP 3355027 B2 JP3355027 B2 JP 3355027B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- background
- pixel
- luminance
- primary feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、青空や雲,陸地など
が、同時に存在する複雑な背景を持つ画像から目標物を
正確に検出する、目標検出方法に関するものである。FIELD OF THE INVENTION This invention relates to a blue sky and clouds, such as the land is, to accurately detect a target object from an image with complex background that exists at the same time, it relates to target detection how.
【0002】[0002]
【従来の技術】図21は例えば特開平5−266191
号公報で示された従来例の目標検出装置を示す構成図で
あり、図において、9は孤立点抽出フィルタ、901は
背景検出部、902は目標検出部、903は目標判定部
である。また、図22は該従来例で用いられる孤立点抽
出フィルタの形状を示す図であり、図23は抽出される
孤立点を示す図である。2. Description of the Related Art FIG.
FIG. 1 is a configuration diagram showing a target detection device of a conventional example shown in Japanese Patent Application Laid-Open Publication No. H10-207, in which 9 is an isolated point extraction filter, 901 is a background detection unit, 902 is a target detection unit, and 903 is a target determination unit. FIG. 22 is a diagram showing a shape of an isolated point extraction filter used in the conventional example, and FIG. 23 is a diagram showing isolated points to be extracted.
【0003】孤立点抽出フィルタ9は図22に示すよう
な形状をしており、9×9画素の寸法の中の斜線部が背
景検出領域904であり、背景検出領域904内の目標
検出領域905は3×3画素の寸法を有している。検出
対象である注目点906は目標検出領域の中心に位置す
る1×1画素の寸法を有している。[0003] The isolated point extraction filter 9 has a shape as shown in FIG. 22, and a hatched portion in a size of 9 × 9 pixels is a background detection region 904, and a target detection region 905 in the background detection region 904. Has a size of 3 × 3 pixels. The target point 906 to be detected has a size of 1 × 1 pixel located at the center of the target detection area.
【0004】次に動作について説明する。背景検出部9
01は背景検出領域904の平均輝度レベルIbを算出
し、同領域内の全ての画素の輝度レベルをこの平均輝度
レベルIbと比較して、平均輝度レベルとの差が基準値
a×N以上である画素が存在しない場合のみ、有効な背
景領域として検出し、論理”0”(以下、”0”と記
す)を出力する。ここで、Nはノイズレベルを示す。a
はパラメータであり、パラメータaは抽出する目標の条
件等により設定する。Next, the operation will be described. Background detector 9
01 calculates the average luminance level Ib of the background detection area 904, compares the luminance levels of all the pixels in the area with the average luminance level Ib, and determines that the difference from the average luminance level is equal to or more than the reference value a × N. Only when a certain pixel does not exist, it is detected as a valid background area and a logic “0” (hereinafter, described as “0”) is output. Here, N indicates a noise level. a
Is a parameter, and the parameter a is set according to the condition of the target to be extracted.
【0005】目標検出部902は、背景検出領域904
の平均輝度レベルIbと目標検出領域905の各画素の
輝度レベルを比較し、平均輝度レベルIbに基準値b×
Nを加算した値を超える輝度レベルを有する画素を検出
し、論理”1”(以下、”1”と記す)を出力する。こ
こで、Nはノイズレベル、bはパラメータであり、パラ
メータbは抽出する目標の条件等により設定する。[0005] The target detection section 902 includes a background detection area 904.
Is compared with the luminance level of each pixel in the target detection area 905, and the average luminance level Ib is compared with the reference value b ×
A pixel having a luminance level exceeding the value obtained by adding N is detected, and a logic “1” (hereinafter, referred to as “1”) is output. Here, N is a noise level, b is a parameter, and the parameter b is set according to a target condition to be extracted.
【0006】目標判定部903は、背景検出部901の
出力が”0”で、かつ目標検出部902の出力が”1”
の場合、注目点906は孤立点であると判定し、”1”
を出力する。The output of the target detector 903 is "0" and the output of the target detector 902 is "1".
In the case of, the point of interest 906 is determined to be an isolated point, and "1"
Is output.
【0007】例えば、図23に示した孤立点907で
は、背景検出領域904の全ての画素は、背景検出領域
904の平均輝度レベルIbとの輝度差が基準値a×N
未満で、背景検出領域904は所定の均一な輝度レベル
を有している。目標検出領域905には、平均輝度レベ
ルIbに基準値b×Nを加算した値を超える輝度レベル
を有する画素が存在しており、この画素が孤立点として
抽出される。For example, at the isolated point 907 shown in FIG. 23, all the pixels in the background detection area 904 have a luminance difference from the average luminance level Ib of the background detection area 904 having a reference value a × N.
, The background detection area 904 has a predetermined uniform brightness level. In the target detection area 905, there is a pixel having a luminance level exceeding a value obtained by adding the reference value b × N to the average luminance level Ib, and this pixel is extracted as an isolated point.
【0008】上記のように、孤立点抽出フィルタ9は輝
度レベルが所定の均一さを有する背景検出領域に対し
て、目標検出領域の所定の基準を越える輝度レベルを有
する孤立点を抽出し、”1”を出力する。また、9×9
画素の対象領域について、左上から右下へ順次走査しな
がら出力データを出力する。As described above, the isolated point extraction filter 9 extracts an isolated point having a luminance level exceeding a predetermined reference of the target detection area from a background detection area having a predetermined uniform luminance level. 1 "is output. Also, 9 × 9
Output data is output while sequentially scanning from the upper left to the lower right for the pixel target area.
【0009】[0009]
【発明が解決しようとする課題】従来の目標検出装置は
以上のように構成されているので、背景領域が所定の均
一さを持つときのみ目標を検出するようになり、このた
め例えば航空目標を検出する場合に背景が晴天であれば
目標を検出できるが、背景に雲が存在する場合には背景
領域が所定の均一さを持たないため目標を検出できない
という問題点があった。Since the conventional target detecting device is configured as described above, the target can be detected only when the background region has a predetermined uniformity. In the case of detection, the target can be detected if the background is sunny, but if the cloud exists in the background, the target cannot be detected because the background area does not have a predetermined uniformity.
【0010】また、目標(孤立点)の輝度レベルが背景
の輝度レベルに比べて十分大きい場合には目標を検出で
きるが、逆に例えば背景の輝度の頻度分布と目標の輝度
の頻度分布が一部重なる様な、目標の輝度レベルが背景
の輝度レベルに比べて十分大きいとは言えない場合に
は、目標を検出し損なったり、背景を誤検出したりする
という問題点があった。If the luminance level of the target (isolated point) is sufficiently higher than the luminance level of the background, the target can be detected. On the contrary, for example, the frequency distribution of the luminance of the background and the frequency distribution of the target luminance are one. When the luminance level of the target is not sufficiently higher than the luminance level of the background, as in the case of overlapping, there is a problem that the target cannot be detected or the background is erroneously detected.
【0011】さらに、背景の均一さを評価するための基
準値や目標を検出するための基準値を決定するに際し
て、背景の状態や目標と背景の輝度差などの先見的な知
識を必要とする問題点もあった。Further, in determining a reference value for evaluating the uniformity of the background and a reference value for detecting the target, a priori knowledge such as a background state and a luminance difference between the target and the background is required. There were also problems.
【0012】 この 発明は上記のような問題点を解消する
ためになされたもので、注目画素近傍及び注目画素周囲
の背景の輝度情報をより詳細に調べることにより輝度の
ばらつきが大きい雲や陸地が背景の場合や背景に対して
目標の輝度が十分大きいとは言えない場合でもさらに精
度よく目標を検出できる目標検出方法を得ることを目的
とする。 The present invention solves the above problems.
Was made in order, the target luminance for the case or background near the target pixel and the target pixel around the brightness variation is large clouds and land by examining the luminance information in more detail in the background background is sufficiently large It is an object of the present invention to obtain a target detection method capable of detecting a target with higher accuracy even when it cannot be said.
【0013】 また、この 発明は、背景の輝度の標準偏差
を輝度ばらつきの尺度として使用することによって、よ
り精度よく背景輝度のばらつきを評価し、輝度のばらつ
きが大きい雲や陸地が背景の場合でも目標を検出できる
目標検出方法を得ることを目的とする。 Further , the present invention uses the standard deviation of the luminance of the background as a measure of the luminance variation, thereby more accurately evaluating the variation of the background luminance. An object is to obtain a target detection method capable of detecting a target.
【0014】 さらに、この 発明は、背景の状態や目標と
背景の輝度差などの先見的な知識を必要としないように
した目標検出方法を得ることを目的とする。 Furthermore, this invention aims to obtain a target detection method do not require a priori knowledge, such as the luminance difference between the state and the target and the background in the background.
【0015】[0015]
【課題を解決するための手段】 この 発明に係る目標検出
方法は、注目画素領域周囲に位置する少なくとも第1、
第2、第3及び第4の局所画素領域を設定し、第1の局
所画素領域は注目画素領域を中心として該注目画素領域
を取り囲んでいると共に、検出すべき目標の予想される
大きさ以下の大きさを有する目標局所画素領域であり、
第2及び第3の局所画素領域は注目画素領域を中心とし
て該注目画素領域の周囲に位置していると共に、検出す
べき目標の予想される大きさ以下の大きさを有する目標
局所画素領域であり、第4の局所画素領域は注目画素領
域を中心として該注目画素領域を取り囲んでいると共
に、検出すべき目標の予想される大きさ以上の大きさを
有する背景局所画素領域であり、少なくとも注目画素領
域の輝度と目標局所画素領域の輝度と背景局所画素領域
の輝度とを用いて演算により複数の一次的な一次特徴量
を算出するものである。 According to the present invention, there is provided a method for detecting a target, comprising the steps of:
Second, third, and fourth local pixel regions are set, and the first local pixel region surrounds the target pixel region around the target pixel region and is equal to or smaller than the expected size of the target to be detected. A target local pixel area having a size of
The second and third local pixel regions are located around the target pixel region around the target pixel region and are target local pixel regions having a size equal to or smaller than the expected size of the target to be detected. The fourth local pixel region is a background local pixel region surrounding the target pixel region around the target pixel region and having a size larger than the expected size of the target to be detected. A plurality of primary primary features are calculated by calculation using the luminance of the pixel area, the luminance of the target local pixel area, and the luminance of the background local pixel area.
【0016】 この 発明に係る目標検出方法は、背景局所
画素領域において、最大輝度、平均輝度、及び最小輝度
の内の少なくともいずれか2つの輝度を求め、これらの
輝度からディジタル画像を得るためのセンサのノイズ成
分を除去した背景局所画素領域本来の輝度の標準偏差を
推定し、少なくとも該推定結果と注目画素領域の輝度と
背景局所画素領域の1つの輝度とを用いて演算により一
次的な一次特徴量を算出するものである。 According to the target detecting method of the present invention, in a background local pixel region, a sensor for obtaining at least any two luminances among a maximum luminance, an average luminance, and a minimum luminance and obtaining a digital image from these luminances. The standard deviation of the original luminance of the background local pixel region from which the noise component has been removed is estimated, and the primary primary feature is calculated by using at least the estimation result, the luminance of the pixel region of interest, and the luminance of one of the background local pixel regions. Calculate the amount.
【0017】 この 発明に係る目標検出方法は、目標を判
定する際に、予め背景とわかっている少なくとも1つの
ディジタル画像の各画素について少なくとも1つの一次
特徴量を算出し、少なくとも1つの一次特徴量を1つの
軸とする少なくとも1次元の空間に一次特徴量をマッピ
ングすることにより背景画素の一次特徴量分布を生成し
て該一次特徴量分布の統計量を計算し、背景であるか又
は目標であるか未知な画素を含む注目画素領域に対して
算出された少なくとも1つの一次特徴量の空間における
位置と、統計量によって定まる一次特徴量分布の分布中
心位置との間の距離を算出し、該距離が所定の距離閾値
より大きい場合に注目画素領域が目標を含むと判定する
ものである。 In the target detection method according to the present invention, at the time of determining a target, at least one primary characteristic amount is calculated for each pixel of at least one digital image known in advance as a background, and at least one primary characteristic amount is calculated. The primary feature distribution is generated by mapping the primary feature in at least a one-dimensional space having as one axis, and the statistic of the primary feature distribution is calculated. Calculating a distance between a position in a space of at least one primary feature amount calculated for a target pixel area including a certain or unknown pixel and a distribution center position of a primary feature amount distribution determined by a statistic; When the distance is larger than a predetermined distance threshold, it is determined that the target pixel area includes the target.
【0018】[0018]
【作用】 この 発明における目標検出方法は、少なくとも
注目画素領域の輝度と目標局所画素領域の輝度と背景局
所画素領域の輝度とを用いて演算により複数の一次的な
一次特徴量を算出する。具体的には、目標局所画素領域
の輝度データと背景局所画素領域の輝度データと注目画
素領域の輝度データを入力として、注目画素周りの輝度
ピークの鋭さや形状としての広がり方の違いを表す量
と、背景の輝度のばらつきを表す量を算出し、ばらつき
量によって注目画素領域と背景の輝度差や輝度ピークの
鋭さや広がり方の違いを正規化する。従って、請求項
2、3及び請求項4に係る目標検出方法及び一次特徴量
を組み合わせることで、輝度のばらつきが大きい雲や陸
地が背景の場合や背景に対して目標の輝度が十分大きい
とは言えない場合でも目標を検出できる。 In the target detection method according to the present invention, a plurality of primary primary features are calculated by calculation using at least the luminance of the target pixel area, the luminance of the target local pixel area, and the luminance of the background local pixel area. Specifically, the luminance data of the target local pixel region, the luminance data of the background local pixel region, and the luminance data of the target pixel region are input, and the amount representing the difference in the sharpness and the shape of the luminance peak around the target pixel is expanded. Then, an amount representing the variation in the luminance of the background is calculated, and the difference in luminance between the target pixel region and the background and the difference in the sharpness and spread of the luminance peak are normalized based on the variation. Therefore, by combining the target detection method and the primary feature value according to Claims 2 and 3 and Claim 4, it is considered that the target luminance is sufficiently large in the case where a cloud or land having a large luminance variation is a background or the background is large. The target can be detected even when it cannot be said.
【0019】 この 発明における目標検出方法は、背景局
所画素領域において、最大輝度、平均輝度、及び最小輝
度の内の少なくともいずれか2つの輝度を求め、これら
の輝度からディジタル画像を得るためのセンサのノイズ
成分を除去した背景局所画素領域本来の輝度の標準偏差
を推定し、少なくとも該推定結果と注目画素領域の輝度
と背景局所画素領域の1つの輝度とを用いて演算により
一次的な一次特徴量を算出する。即ち、背景局所画素領
域の輝度データと注目画素領域の輝度データを入力とし
て、背景の輝度の標準偏差を算出し、該標準偏差によっ
て注目画素領域と背景の輝度差を正規化する。背景局所
画素領域から背景の最大値や平均値などの計算量が少な
い輝度情報を抽出し、これら輝度情報によって背景の輝
度の標準偏差を推定し、これを背景の輝度のばらつきを
表す量として用い、注目画素領域と背景の輝度差を背景
の輝度のばらつきで正規化した一次特徴量を評価するこ
とで、輝度のばらつきが大きい雲や陸地が背景の場合で
も目標を検出できる。 According to the target detecting method of the present invention, in a background local pixel area, at least any two of the maximum luminance, the average luminance, and the minimum luminance are obtained, and a sensor for obtaining a digital image from these luminances is obtained. A standard deviation of the original luminance of the background local pixel region from which the noise component has been removed is estimated, and a primary primary feature amount is calculated by using at least the estimation result, the luminance of the pixel region of interest, and the luminance of one of the background local pixel regions. Is calculated. That is, the luminance data of the background local pixel region and the luminance data of the pixel region of interest are input, the standard deviation of the luminance of the background is calculated, and the luminance difference between the pixel region of interest and the background is normalized by the standard deviation. The luminance information with a small amount of calculation such as the maximum value and the average value of the background is extracted from the background local pixel area, and the standard deviation of the luminance of the background is estimated based on the luminance information, and this is used as an amount representing the variation of the luminance of the background. By evaluating the primary feature amount obtained by normalizing the luminance difference between the pixel area of interest and the background with the variation in the luminance of the background, the target can be detected even when the background is a cloud or land having a large variation in the luminance.
【0020】 この 発明における目標検出方法は、目標を
判定する際に、予め背景とわかっている少なくとも1つ
のディジタル画像の各画素について少なくとも1つの一
次特徴量を算出し、少なくとも1つの一次特徴量を1つ
の軸とする少なくとも1次元の空間に一次特徴量をマッ
ピングすることにより背景画素の一次特徴量分布を生成
して該一次特徴量分布の統計量を計算し、背景であるか
又は目標であるか未知な画素を含む注目画素領域に対し
て算出された少なくとも1つの一次特徴量の空間におけ
る位置と、統計量によって定まる一次特徴量分布の分布
中心位置との間の距離を算出し、距離が所定の距離閾値
より大きい場合に注目画素領域が目標を含むと判定す
る。即ち、請求項2から請求項7で算出したような一次
特徴量を1次元以上の多次元空間にマッピングした後、
その分布の統計量を使って目標判定のための閾値を自動
決定する。従って、背景の状態や目標と背景の輝度差な
どの先見的な知識を必要としない。 In the target detecting method according to the present invention, at the time of determining a target, at least one primary characteristic amount is calculated for each pixel of at least one digital image known in advance as a background, and at least one primary characteristic amount is calculated. A primary feature distribution is generated by mapping a primary feature in at least a one-dimensional space defined as one axis, and a statistic of the primary feature distribution is calculated to be a background or a target. Or the distance between the position in the space of at least one primary feature amount calculated for the pixel region of interest including the unknown pixel and the distribution center position of the primary feature amount distribution determined by the statistic is calculated. If the distance is larger than the predetermined distance threshold, it is determined that the target pixel area includes the target. That is, after mapping the primary features as calculated in claims 2 to 7 into a one-dimensional or more multidimensional space,
A threshold for target determination is automatically determined using the statistics of the distribution. Therefore, it is not necessary to have a priori knowledge of the state of the background or the luminance difference between the target and the background.
【0021】[0021]
【実施例】参考例1. 以下、この発明の一参考例を図について説明する。図1
はこの発明の参考例1による目標検出方法の処理の流れ
を示すフローチャート図であり、図において、ステップ
ST1は画像入力処理、ステップST2は一次特徴量算
出処理、ステップST3は目標判定処理である。EXAMPLES Reference Example 1 FIG. Hereinafter, a reference example of the present invention will be described with reference to the drawings. FIG.
FIG. 5 is a flowchart showing the flow of processing of a target detection method according to Embodiment 1 of the present invention. In the figure, step ST1 is an image input processing, step ST2 is a primary feature amount calculation processing, and step ST3 is a target determination processing.
【0022】 また、図2はこの参考例1における目標の
輝度分布を示す図であり、図において10は目標の輝度
分布である。 Further, FIG. 2 is a diagram showing a luminance distribution of the target in this Example 1, 10 is a luminance distribution of the target in FIG.
【0023】 次に動作について説明する。まず、ステッ
プST1において、可視や赤外等のTVカメラで撮像さ
れた水平方向Ix個の画素、垂直方向Iy個の画素の画
像データを入力する。 [0023] Next, the operation will be described. First, in step ST1, image data of Ix pixels in the horizontal direction and Iy pixels in the vertical direction captured by a visible or infrared TV camera are input.
【0024】 この際、入力画像の背景には、輝度のばら
つきが比較的小さく平坦な輝度分布を持つ青空や、輝度
のばらつきが比較的大きい雲や陸地が含まれていると仮
定する。ただし、雲や陸地の輝度のうねりは比較的緩や
かなもの(輝度のピークが緩やか)とする。また、図2
に示すように、抽出したい目標を、大きさが水平方向T
x個の画素、垂直方向Ty個の画素以下であり、輝度分
布が二次元ガウス分布(中心画素の輝度が最も大きく、
中心から離れるにしたがって二次元ガウス分布の式で表
される曲線を描きながら輝度が小さくなっていく)であ
る場合を考える。また、目標の大きさTx、Tyは小さ
く、中心の輝度は鋭いピークを持つ場合を考える。 At this time, it is assumed that the background of the input image includes a blue sky having a relatively small variation in luminance and a flat luminance distribution, and a cloud or land having a relatively large variation in luminance. However, it is assumed that the swell of the brightness of the clouds and the land is relatively gentle (the brightness peak is gentle). FIG.
As shown in the figure, the size of the target to be extracted
x pixels or less than Ty pixels in the vertical direction, and the luminance distribution is a two-dimensional Gaussian distribution (the luminance of the central pixel is the largest,
As the distance from the center increases, the luminance decreases while drawing a curve represented by a two-dimensional Gaussian distribution equation). Also, consider a case where the target sizes Tx and Ty are small and the central luminance has a sharp peak.
【0025】 ステップST2の一次特徴量算出処理で
は、画像データの任意の座標(x,y)を持つ注目点近
傍(注目画素領域:少なくとも1つの注目画素を含む)
の画素データ(輝度値)とその周辺の目標局所画素領域
(注目画素を中心として、検出したい目標の大きさの範
囲内に設定する局所領域を目標局所画素領域と呼ぶ)の
画素データを参照して、注目点が周辺に対して局所的な
輝度ピークを持つか持たないかの評価を行い(ステップ
ST21)、それと同時に、注目点の形状を表す一次的
な一次特徴量を計算する(ステップST22からステッ
プST24)。この参考例1では、形状を表す一次特徴
量として、注目点とそこから想定している目標の大きさ
以上の距離だけ離れたところの背景局所画素領域を参照
して計算するS/N比(ステップST22)、注目点と
そこを中心に想定する目標の大きさの範囲内を参照して
計算する輝度ピークの鋭さ(ステップST23)、注目
点とその周りを参照して計算する形状としての広がり方
が二次元的か一次元的かの評価量(ステップST24)
を求める。 In the primary feature amount calculation processing of step ST2, the vicinity of a point of interest having arbitrary coordinates (x, y) of the image data (target pixel area: including at least one target pixel)
And pixel data of a target local pixel area (a local area set within a target size range to be detected centering on the target pixel is referred to as a target local pixel area). Then, whether or not the target point has a local luminance peak with respect to the periphery is evaluated (step ST21), and at the same time, a primary primary feature value representing the shape of the target point is calculated (step ST22). To step ST24). In the reference example 1 , as a primary feature amount representing a shape, an S / N ratio (S / N ratio) calculated with reference to a target point and a background local pixel region at a distance that is equal to or larger than a target size assumed therefrom is calculated. Step ST22), the sharpness of the luminance peak calculated with reference to the target point and the range of the target size assumed thereabout (step ST23), the spread as the shape to be calculated with reference to the target point and its surroundings Estimation amount of whether one is two-dimensional or one-dimensional (step ST24)
Ask for.
【0026】 その結果を受けて、ステップST3の目標
判定処理では、ステップST2の一次特徴量算出処理の
結果である複数の一次特徴量が予め与えられた目標らし
さを満たしているか否かを判定する。そして、注目点が
目標らしさを満たしていると判定された場合、判定結果
を信号等の形態で出力する。 In response to the result, in the target determination process in step ST3, it is determined whether or not a plurality of primary feature values, which are the result of the primary feature value calculation process in step ST2, satisfy a predetermined target likelihood. . Then, when it is determined that the attention point satisfies the target likelihood, the determination result is output in the form of a signal or the like.
【0027】 従って、このように一次特徴量算出処理に
より背景の輝度のばらつきや、注目点まわりの輝度ピー
クの鋭さや、形状としての広がり方の違いを表す量を算
出して、目標判定処理によってそれら一次特徴量が目標
らしいか否かを判定するので、輝度のばらつきが大きい
雲や陸地が背景の場合や背景に対して目標の輝度が十分
大きいとは言えない場合でも目標を検出できる。 [0027] Thus, the luminance variation and the background by the way the primary feature quantity calculation processing, sharpness and brightness peak around target point, by calculating a quantity representing the difference in spread how the shape, by the target determination process Since it is determined whether or not these primary feature values are likely to be a target, a target can be detected even when a cloud or land having a large variation in luminance is a background or when the luminance of the target is not sufficiently large with respect to the background.
【0028】 この参考例1では、ステップST21から
ステップST24を全て実行しているが、下記の参考例
で説明するようにこれらのステップのいずれか1つ又は
複数のステップを実行するようにしてもよい。 [0028] In this reference example 1, but running all the steps ST24 from step ST21, performing any one or more steps of these steps as described in the following Reference Example <br/> You may do so.
【0029】 参考例 2. 図3はこの発明の参考例2による目標検出方法の処理の
流れを示すフローチャート図であり、図において、ステ
ップST1は画像入力処理、ステップST2は一次特徴
量算出処理、ステップST3は目標判定処理である。ま
た、ステップST201は注目点抽出処理、ステップS
T202は目標局所画素領域A抽出処理、ステップST
203は目標特徴情報A抽出処理、ステップST204
は特徴情報演算処理である。なお、この参考例2におい
て図3に示すように複数の処理(ステップST201か
ら203)を並列で記述しているが、これに限定される
ものではなく、直列で処理されてもよい。 [0029] Reference Example 2. FIG. 3 is a flowchart showing the flow of a process of a target detection method according to Embodiment 2 of the present invention. In the figure, step ST1 is an image input process, step ST2 is a primary feature amount calculation process, and step ST3 is a target determination process. is there. Step ST201 is a point-of-interest extraction process.
T202: target local pixel area A extraction processing, step ST
203 is target feature information A extraction processing, step ST204
Is a feature information calculation process. In the second embodiment, a plurality of processes (steps ST201 to ST203) are described in parallel as shown in FIG. 3, but the present invention is not limited to this, and the processes may be performed in series.
【0030】 また、図4はこの参考例2における注目点
近傍の局所画素領域の例を示す図であり、図において、
11は想定する目標の大きさ、12は注目画素領域、1
3は目標局所画素領域Aである。 Further, FIG. 4 is a diagram showing an example of a local pixel region near the point of interest in the reference example 2, in the drawing,
11 is an assumed target size, 12 is a target pixel area, 1
3 is a target local pixel area A.
【0031】 次に動作について説明する。想定する目標
の輝度、形状、大きさや背景の状態は参考例1と同じで
ある。ステップST202において、図4に示すよう
に、目標局所画素領域A13の位置はその中心が注目点
座標(x,y)に一致するように設定し、その大きさM
Atx、MAtyは目標の大きさTx、Tyとほぼ同じ
か若干小さく、その幅WAtx、WAtyは1以上であ
り、大きさMAtx、MAtyとの合計(MAtx+2
WAtx、MAty+2WAty)が目標の大きさT
x、Tyを越えないように設定する。 [0031] Next, the operation will be described. The assumed target luminance, shape, size, and background state are the same as in the first embodiment . In step ST202, as shown in FIG. 4, the position of the target local pixel area A13 is set so that its center coincides with the attention point coordinates (x, y), and its size M
Atx and MAty are almost the same or slightly smaller than the target sizes Tx and Ty, and their widths WAtx and WAty are 1 or more, and the sum of the sizes MAtx and MAty (MAtx + 2)
WAtx, MAty + 2WAty) is the target size T
Set so as not to exceed x and Ty.
【0032】 一方、ステップST1の画像データ入力処
理、及びステップST201の入力された画像データか
ら注目点(x,y)の画素データを抽出する注目点抽出
処理は参考例1と同様に実行される。ステップST20
2の目標局所画素領域A抽出処理で読み込まれた目標局
所画素領域Aの画素データは、次のステップST203
の目標特徴情報A抽出処理において、その特徴情報とし
て例えば目標局所画素領域Aの画素データの平均値を算
出して、抽出する。 On the other hand, the image data input process in step ST1, and target point extracting process of extracting the pixel data of the point of interest from the input image data in step ST 201 (x, y) is performed in the same manner as in Reference Example 1 . Step ST20
The pixel data of the target local pixel area A read in the target local pixel area A extraction processing of Step 2 is the next step ST203.
In the target characteristic information A extraction processing, for example, an average value of the pixel data of the target local pixel area A is calculated and extracted as the characteristic information.
【0033】 ステップST204の特徴情報演算処理で
は、ステップST203の目標特徴情報A抽出処理の結
果である目標局所画素領域Aの特徴情報とステップST
201の注目点抽出処理の結果である注目点の画素デー
タとを使って、例えば、次に示す式(1)に従って一次
特徴量を算出する。ここで、Gは注目点の画素データで
あり、BAmeanは目標局所画素領域Aから得られた特徴
情報(平均値)である。 In the characteristic information calculation processing in step ST204, the characteristic information of the target local pixel area A, which is the result of the target characteristic information A extraction processing in step ST203, and step ST204.
Using the pixel data of the target point, which is the result of the target point extraction processing of 201, a primary feature amount is calculated according to, for example, the following equation (1). Here, G is the pixel data of the target point, and Bamean is the characteristic information (average value) obtained from the target local pixel area A.
【0034】 一次特徴量=(G−BAmean)÷G (1) [0034] The primary feature quantity = (G-BAmean) ÷ G (1)
【0035】 一般に、目標は鋭い輝度ピークを持つ。こ
れに対して、雲等の背景は緩やかなピークを持つ場合が
多い。このピークの鋭さの違いを上記の式(1)に従っ
て算出した一次特徴量について考えてみると、一次特徴
量の分子において注目点の画素データと目標局所画素領
域Aの平均値を差分するということは、目標の様に中心
が鋭い輝度ピークを持つ場合には、中心から離れるに従
ってその輝度値の落ち込みが急激なため正の大きな値と
なり、雲のように緩やかなピークを持つ場合には注目点
周辺の輝度の落ち込み方が緩やかなため正の小さな値と
なることを意味する。ちなみに中心が輝度ピークを持た
ない場合には負の値になる。なお、一次特徴量の分母の
Gは入力画像のコントラストが変化した場合でも同じ一
次特徴量を得るために分子が表現している輝度ピークの
鋭さを正規化するための項である。従って、一次特徴量
の大きさでもって輝度ピークの鋭さを評価できる。ステ
ップST204の特徴情報演算処理で算出された一次特
徴量(輝度ピークの鋭さ)は次のステップST3の目標
判定処理に渡される。 In general, targets have sharp luminance peaks. On the other hand, a background such as a cloud often has a gentle peak. Considering the difference in the sharpness of the peak with respect to the primary feature amount calculated according to the above equation (1), the difference between the pixel data of the point of interest and the average value of the target local pixel area A in the numerator of the primary feature amount If the center has a sharp luminance peak like the target, the luminance value drops sharply as the distance from the center increases, so it becomes a large positive value, and if it has a gentle peak like a cloud, the point of interest This means that the peripheral brightness decreases gradually and becomes a small positive value. By the way, when the center has no luminance peak, it takes a negative value. Note that G in the denominator of the primary feature value is a term for normalizing the sharpness of the luminance peak expressed by the numerator in order to obtain the same primary feature value even when the contrast of the input image changes. Therefore, the sharpness of the luminance peak can be evaluated based on the magnitude of the primary feature amount. The primary feature amount (sharpness of the luminance peak) calculated in the feature information calculation process in step ST204 is passed to the next target determination process in step ST3.
【0036】 ステップST3の目標判定処理では、予め
設定された閾値とステップST2で算出された一次特徴
量(輝度ピークの鋭さ)とを比較し、一次特徴量が閾値
より大きい場合に注目点は目標であると判定し、目標で
あることを示す信号又は記号と共にこの注目点の座標
(x,y)を出力する。 In the target determination process in step ST3, the threshold value set in advance is compared with the primary feature amount (sharpness of the luminance peak) calculated in step ST2. Is determined, and the coordinates (x, y) of the target point are output together with a signal or symbol indicating the target.
【0037】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素あるいは予め与えられた限られた領域の画素に対して
行われる。 Further, the series of processing is performed for all the pixels or pre given limited area of the pixels of the image while sequentially changing point of interest coordinates from the upper left of the image to the bottom right.
【0038】 なお、この参考例2では、注目点の画素デ
ータとして1画素のみを用いているが、目標の大きさに
よっては注目点近傍の数画素で平均値処理したものを用
いても良い。また、ステップST3の目標判定処理では
判定結果として、目標であることを示す信号又は記号と
注目点の座標を出力したが、目標であるか背景であるか
がわかる信号、例えば目標なら論理”1”、背景なら論
理”0”を出力しても良い。 In the second embodiment , only one pixel is used as the pixel data of the target point. However, depending on the size of the target, data obtained by averaging several pixels near the target point may be used. In the target determination processing in step ST3, a signal or symbol indicating the target and the coordinates of the target point are output as a determination result. However, a signal indicating whether the target or the background is present, for example, logic "1" for the target. "," 0 "may be output for the background.
【0039】参考例 3. 図5はこの発明の参考例3による目標検出方法の処理の
流れを示すフローチャート図であり、図において、ステ
ップST1は画像入力処理、ステップST2は一次特徴
量算出処理、ステップST3は目標判定処理である。ま
た、ステップST201は注目点抽出処理、ステップS
T205は目標局所画素領域B抽出処理、ステップST
207は目標局所画素領域C抽出処理、ステップST2
06は目標特徴情報B抽出処理、ステップST208は
目標特徴情報C抽出処理、ステップST204は特徴情
報演算処理である。なお、この図に示す参考例3おいて
複数の処理を並列で記述しているが、これに限定される
ものではなく、これらの処理は直列に行われても良い。 Reference Example 3 FIG. 5 is a flowchart showing the flow of processing of a target detection method according to Embodiment 3 of the present invention. In the figure, step ST1 is an image input processing, step ST2 is a primary feature amount calculation processing, and step ST3 is a target determination processing. is there. Step ST201 is a point-of-interest extraction process.
T205: target local pixel area B extraction processing, step ST
207, a target local pixel area C extraction process, step ST2
06 is target characteristic information B extraction processing, step ST208 is target characteristic information C extraction processing, and step ST204 is characteristic information calculation processing. Although a plurality of processes are described in parallel in the reference example 3 shown in this figure, the present invention is not limited to this, and these processes may be performed in series.
【0040】 また、図6はこの参考例3における局所画
素領域の例を示す図であり、図において、11は想定す
る目標の大きさ、12は注目画素領域、14は目標局所
画素領域B、15は目標局所画素領域Cである。 Further, FIG. 6 is a diagram showing an example of a local pixel region in this reference example 3, reference numeral 11 is the magnitude of the target envisaged, 12 noticed pixel region, 14 targeted local pixel region B, Reference numeral 15 denotes a target local pixel area C.
【0041】 次に動作について説明する。想定する目標
の輝度、形状、大きさや背景の状態は参考例1と同じで
ある。目標局所画素領域Bの位置は注目点座標(x,
y)の左右、すなわち座標(x−1,y)と座標(x+
1,y)とに設定し、その大きさは共に一画素である。
目標局所画素領域Cの位置は注目点座標(x,y)の上
下、すなわち座標(x,y−1)と座標(x,y+1)
とに設定し、その大きさは共に一画素である。 [0041] Next, the operation will be described. The assumed target luminance, shape, size, and background state are the same as in the first embodiment . The position of the target local pixel area B is determined by the attention point coordinates (x,
y), that is, the coordinates (x-1, y) and the coordinates (x +
1, y), each of which is one pixel.
The position of the target local pixel area C is above and below the coordinates (x, y) of the target point, that is, coordinates (x, y-1) and coordinates (x, y + 1).
And the size is one pixel.
【0042】 ステップST1の画像データ入力処理、及
び入力された画像データから注目点(x,y)の画素デ
ータを抽出するステップST201の注目点抽出処理は
参考例1と同様に実行される。ステップST205の目
標局所画素領域B抽出処理で読み出された目標局所画素
領域Bの画素データは、次のステップST206の目標
特徴情報B抽出処理において、その特徴情報として例え
ば目標局所画素領域Bの画素データの平均値を算出し
て、抽出する。同様に、ステップST207の目標局所
画素領域C抽出処理で読み出された目標局所画素領域C
の画素データは、次のステップST208の目標特徴情
報C抽出処理において、その特徴情報として例えば目標
局所画素領域Cの画素データの平均値を算出して、抽出
する。 The image data input process in step ST1, and the point of interest from the input image data (x, y) of interest point extraction process of step ST201 for extracting pixel data of
This is performed in the same manner as in Reference Example 1. The pixel data of the target local pixel area B read out in the target local pixel area B extraction processing in step ST205 is used as the characteristic information in the next target characteristic pixel B extraction processing in step ST206, for example, the pixel of the target local pixel area B. The average of the data is calculated and extracted. Similarly, the target local pixel area C read in the target local pixel area C extraction processing in step ST207
In the target characteristic information C extraction processing in the next step ST208, the pixel data of is extracted by calculating, for example, the average value of the pixel data of the target local pixel region C as the characteristic information.
【0043】 ステップST204の特徴情報演算処理で
は、ステップST206で得られた目標局所画素領域B
の特徴情報とステップST208で得られた目標局所画
素領域Cの特徴情報とステップST201で得られた注
目点の画素データとを使って、例えば次に示す式(2)
に従って一次特徴量を算出する。ここで、Gは注目点の
画素データであり、BBmeanは目標局所画素領域Bから
得られた特徴情報(平均値)であり、BCmeanは目標局
所画素領域Cから得られた特徴情報(平均値)である。 In the characteristic information calculation processing in step ST204, the target local pixel area B obtained in step ST206
Using the characteristic information of the target local pixel area C obtained in step ST208 and the pixel data of the target point obtained in step ST201, for example, the following equation (2) is used.
Is calculated according to the following. Here, G is pixel data of a point of interest, BBmean is feature information (average value) obtained from the target local pixel area B, and BCmean is feature information (average value) obtained from the target local pixel area C. It is.
【0044】 一次特徴量=(BBmean−BCmean)÷G (2) [0044] The primary feature quantity = (BBmean-BCmean) ÷ G (2)
【0045】 この参考例で扱う目標は二次元の広がりを
持っている。一方、ノイズについて考えると、入力画像
は二次元のセンサで得られた後一次元信号としてシステ
ムに入力され、ノイズはこの一次元信号に加わることが
多い。すなわち、目標は二次元的な広がりを持ち、ノイ
ズは一次元的な広がりを持つ。この広がりの違いを上記
の式(2)から算出される一次特徴量について考えてみ
ると、一次特徴量の分子において、注目点左右の平均値
と注目点上下の平均値を差分するということは、目標の
様に二次元的広がりを持つ場合には、左右と上下の輝度
差が小さいため分子は小さな値をとり、ノイズの様に一
次元的な広がりしか持たない場合には、左右と上下の輝
度差が大きいため分子は大きな値をとることを意味す
る。また、一次特徴量の分母のGは分子が表現している
広がりの違いを正規化するための項である。従って、一
次特徴量の大きさでもって注目点周辺の広がりの違いを
評価できる。ステップST204の特徴情報演算処理で
算出された一次特徴量(広がりの違い)は次のステップ
ST3の目標判定処理に渡される。 The target handled in this reference example has a two-dimensional spread. On the other hand, when considering noise, an input image is input to a system as a one-dimensional signal after being obtained by a two-dimensional sensor, and noise is often added to the one-dimensional signal. That is, the target has a two-dimensional spread, and the noise has a one-dimensional spread. Considering this difference in spread with respect to the primary feature value calculated from the above equation (2), in the numerator of the primary feature value, the difference between the average value on the left and right of the attention point and the average value on the top and bottom of the attention point is However, when the target has a two-dimensional spread, the numerator takes a small value because the brightness difference between the left and right and the top and bottom is small. Means that the numerator takes a large value because the luminance difference is large. The denominator G of the primary feature is a term for normalizing the difference in the spread expressed by the numerator. Therefore, it is possible to evaluate the difference in the spread around the point of interest based on the magnitude of the primary feature amount. The primary feature value (difference in spread) calculated in the feature information calculation process in step ST204 is passed to the target determination process in the next step ST3.
【0046】 ステップST3の目標判定処理では、予め
設定された閾値とステップST204で算出された一次
特徴量(広がりの違い)とを比較し、一次特徴量が閾値
より小さい場合に注目点は目標であると判定し、目標で
あることを示す信号又は記号と共にこの注目点の座標
(x,y)を出力する。 In the target determination process of step ST3, the threshold value set in advance is compared with the primary feature value (difference in spread) calculated in step ST204. If the primary feature value is smaller than the threshold value, the point of interest is the target. It is determined that there is, and the coordinates (x, y) of this point of interest are output together with a signal or symbol indicating that it is the target.
【0047】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素あるいは予め与えられた限られた領域の画素に対して
行われる。 Further , these series of processes are performed on all pixels of the image or pixels of a limited area given in advance while sequentially changing the coordinates of the point of interest from the upper left to the lower right of the image.
【0048】 なお、この参考例3では、注目点の画素デ
ータとして1画素のみを用いているが、目標の大きさに
よっては注目点近傍の数画素で平均値処理したものを用
いても良い。また、ステップST3の目標判定処理では
判定結果として、目標であることを示す信号と注目点の
座標を出力したが、目標であるか背景であるかがわかる
信号、例えば目標なら論理”1”、背景なら論理”0”
を出力しても良い。 In the third embodiment , only one pixel is used as the pixel data of the target point. However, depending on the size of the target, data obtained by averaging several pixels near the target point may be used. In the target determination process of step ST3, a signal indicating the target and the coordinates of the target point are output as the determination result. However, a signal indicating whether the target is the background or the background, for example, a logic "1" for the target, Logic "0" for background
May be output.
【0049】参考例 4. 図7はこの発明の参考例4による目標検出方法の処理の
流れを示すフローチャート図であり、図において、ステ
ップST1は画像入力処理、ステップST2は一次特徴
量算出処理、ステップST3は目標判定処理である。ま
た、ステップST201は注目点抽出処理、ステップS
T209は背景局所画素領域D抽出処理、ステップST
210は背景特徴情報D抽出処理、ステップST204
は特徴情報演算処理である。なお、この参考例4におい
ては、図に示すように、複数の処理を並列で記述してい
るが、これに限定されるものではなく、これらの処理は
直列に実行されても良い。 Reference Example 4 FIG. 7 is a flowchart showing the flow of processing of a target detection method according to Embodiment 4 of the present invention. In the figure, step ST1 is an image input processing, step ST2 is a primary feature amount calculation processing, and step ST3 is a target determination processing. is there. Step ST201 is a point-of-interest extraction process.
T209: background local pixel area D extraction processing, step ST
210: background feature information D extraction processing, step ST204
Is a feature information calculation process. In the fourth embodiment, a plurality of processes are described in parallel as shown in the figure. However, the present invention is not limited to this, and these processes may be executed in series.
【0050】 また、図8はこの参考例4における局所画
素領域の例を示す図であり、図において、11は想定す
る目標の大きさ、12は注目画素領域、16は背景局所
画素領域Dである。 [0050] FIG. 8 is a diagram showing an example of a local pixel region in this reference example 4, reference numeral 11 is the magnitude of the target envisaged, 12 noticed pixel region, 16 in the background local pixel region D is there.
【0051】 次に動作について説明する。想定する目標
の輝度、形状、大きさや背景の状態は参考例1と同じで
ある。ステップST209において、図8に示すよう
に、背景局所画素領域Dの位置はその中心が注目点座標
(x,y)に一致するように設定し、その大きさMDb
x、MDbyは目標の大きさTx、Tyより十分大き
く、その幅WDbx、WDbyは1以上の適当な大きさ
に設定する。 [0051] Next, the operation will be described. The assumed target luminance, shape, size, and background state are the same as in the first embodiment . In step ST209, as shown in FIG. 8, the position of the background local pixel region D is set so that its center matches the attention point coordinates (x, y), and its size MDb
x and MDby are sufficiently larger than the target sizes Tx and Ty, and their widths WDbx and WDby are set to one or more appropriate sizes.
【0052】 ステップST1の画像データ入力処理、及
び入力された画像データから注目点(x,y)の画素デ
ータを抽出するステップST201の注目点抽出処理は
参考例1と同様に実行される。ステップST209の背
景局所画素領域D抽出処理で読み出された背景局所画素
領域Dの画素データは、次のステップST210の背景
特徴情報D抽出処理において、その特徴情報として例え
ば背景局所画素領域Dの画素データの平均値と最大値を
算出して、抽出する。 [0052] Image data input process in step ST1, and the point of interest from the input image data (x, y) of interest point extraction process of step ST201 for extracting pixel data of
This is performed in the same manner as in Reference Example 1. The pixel data of the background local pixel area D read out in the background local pixel area D extraction processing in step ST209 is used as the characteristic information in the background characteristic information D extraction processing in the next step ST210. Calculate and extract the average and maximum values of the data.
【0053】 ステップST204の特徴情報演算処理で
は、ステップST210で得られた背景局所画素領域D
の特徴情報とステップST201で得られた注目点の画
素データとを使って、注目点の画素データが背景局所画
素領域Dの最大値より大きい場合にのみ例えば以下に示
す式(3)に従って一次特徴量を算出する。もし、注目
点の画素データが背景局所画素領域Dの最大値より小さ
い場合は一次特徴量を非常に小さな値(例えば0)とす
る。ここで、Gは注目点の画素データであり、BDmax
は背景局所画素領域Dから得られた特徴情報の一つであ
る(最大値)であり、BDmeanは背景局所画素領域Dか
ら得られたもう一方の特徴情報(平均値)である。 In the characteristic information calculation processing in step ST204, the background local pixel area D obtained in step ST210
, And the pixel data of the target point obtained in step ST201, only when the pixel data of the target point is larger than the maximum value of the background local pixel region D, for example, according to the following equation (3). Calculate the amount. If the pixel data of the target point is smaller than the maximum value of the background local pixel area D, the primary feature amount is set to a very small value (for example, 0). Here, G is pixel data of a point of interest, and BDmax
Is one of feature information obtained from the background local pixel region D (maximum value), and BDmean is the other feature information (average value) obtained from the background local pixel region D.
【0054】 一次特徴量=(G−BDmax )÷(BDmax −BDmean) (3) [0054] The primary feature quantity = (G-BDmax) ÷ ( BDmax -BDmean) (3)
【0055】 この一次特徴量の分子において注目点の画
素データと背景局所画素領域Dの最大値を差分するとい
うことは、目標の様に中心が輝度ピークを持つ場合には
正の値となり、その大きさは中心の輝度と背景の輝度の
相対的な差に依存する。逆に中心が輝度ピークを持たな
い場合には負の値になることを意味する。また、一次特
徴量の分母において、背景局所画素領域Dの最大値と平
均値を差分しているが、この差分の大きさは背景の輝度
のうねりの大きさを表す。従って、一次特徴量は、分子
を信号の大きさ、分母を雑音の大きさに例えることがで
き、結果はS/N比を表すことになる。ステップST2
04の特徴情報演算処理で算出された一次特徴量(S/
N比)は次のステップST3の目標判定処理に渡され
る。 The difference between the pixel data at the point of interest and the maximum value of the background local pixel region D in the numerator of the primary feature value is a positive value when the center has a luminance peak as in the target. The magnitude depends on the relative difference between the center luminance and the background luminance. Conversely, if the center does not have a luminance peak, it means a negative value. Further, in the denominator of the primary feature amount, the maximum value and the average value of the background local pixel region D are different, and the magnitude of the difference indicates the magnitude of the swell of the luminance of the background. Therefore, the primary feature amount can be compared to the magnitude of the signal in the numerator and the magnitude of the noise in the denominator, and the result indicates the S / N ratio. Step ST2
04 primary feature amount (S /
N ratio) is passed to the target determination processing in the next step ST3.
【0056】 ステップST3の目標判定処理では、予め
設定された閾値とステップST204で算出された一次
特徴量(S/N比)とを比較し、一次特徴量が閾値より
大きい場合に注目点は目標であると判定し、目標である
ことを示す信号又は記号と共にこの注目点の座標(x,
y)を出力する。 In the target determination process in step ST3, the threshold value set in advance is compared with the primary characteristic amount (S / N ratio) calculated in step ST204. , And the coordinates (x,
y) is output.
【0057】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素あるいは予め与えられた限られた領域の画素に対して
行われる。 Further , these series of processes are performed on all pixels of the image or pixels of a predetermined limited area while sequentially changing the point-of-interest coordinates from the upper left to the lower right of the image.
【0058】 なお、この参考例4では、背景局所画素領
域Dの特徴情報として最大値と平均値を用いたが、最大
値と最小値を用いてもほぼ同じ効果を期待でき、また、
最大値や最小値がノイズに弱く、突発的な特異値を示す
ことを考慮するなら背景局所画素領域Dの画素データを
大きい順に列べた場合の大きい方から2番目や3番目と
小さい方から2番目や3番目を用いても良いし、大きい
方から数個の平均と、小さい方から数個の平均を用いて
も良い。また、この参考例4では注目点の画素データと
して1画素のみを用いているが、目標の大きさによって
は注目点近傍の数画素で平均値処理したものを用いても
良い。また、ステップST3の目標判定処理では判定結
果として、目標であることを示す信号と注目点の座標を
出力したが、目標であるか背景であるかがわかる信号、
例えば目標なら論理”1”、背景なら論理”0”を出力
しても良い。 In the fourth embodiment , the maximum value and the average value are used as the characteristic information of the background local pixel region D. However, the same effect can be expected by using the maximum value and the minimum value.
If it is considered that the maximum value or the minimum value is vulnerable to noise and shows a sudden singular value, when the pixel data of the background local pixel area D are arranged in descending order, the second largest and the third smallest are the two. The third or third may be used, or the average of several from the larger and the average of several from the smaller may be used. In the fourth embodiment , only one pixel is used as the pixel data of the target point. However, depending on the size of the target, data obtained by averaging several pixels near the target point may be used. In the target determination process in step ST3, a signal indicating the target and the coordinates of the target point are output as the determination result.
For example, a logic “1” may be output for a target, and a logic “0” may be output for a background.
【0059】参考例 5. 図9はこの発明の参考例5による目標検出方法の処理の
流れを示すフローチャート図であり、図において、ステ
ップST1は画像入力処理、ステップST2は一次特徴
量算出処理、ステップST3は目標判定処理である。ま
た、ステップST201は注目点抽出処理、ステップS
T209は背景局所画素領域D抽出処理、ステップST
210は背景特徴情報D抽出処理、ステップST202
は目標局所画素領域A抽出処理、ステップST203は
目標特徴情報A抽出処理であり、ステップST204は
特徴情報演算処理である。なお、この参考例5では、図
に示すように、複数の処理を並列で記述しているが、こ
れに限定されるものではなく、これらの処理は直列に実
行されても良い。 Reference Example 5 FIG. 9 is a flowchart showing the flow of processing of a target detection method according to Embodiment 5 of the present invention. In the figure, step ST1 is an image input processing, step ST2 is a primary feature amount calculation processing, and step ST3 is a target determination processing. is there. Step ST201 is a point-of-interest extraction process.
T209: background local pixel area D extraction processing, step ST
210: background feature information D extraction processing, step ST202
Is a target local pixel region A extraction process, step ST203 is a target feature information A extraction process, and step ST204 is a feature information calculation process. In the fifth embodiment , as shown in the drawing, a plurality of processes are described in parallel. However, the present invention is not limited to this, and these processes may be executed in series.
【0060】 また、図10はこの参考例5における局所
画素領域の例を示す図であり、図において、11は想定
する目標の大きさ、12は注目画素領域、16は背景局
所画素領域D、13は目標局所画素領域Aである。 [0060] Further, FIG. 10 is a diagram showing an example of a local pixel region in this Reference Example 5, in FIG, 11 is the magnitude of the target envisaged, 12 noticed pixel region, 16 background local pixel region D, 13 is a target local pixel area A.
【0061】 次に動作について説明する。想定する目標
の輝度、形状、大きさや背景の状態は参考例1と同じで
ある。ステップST209において、背景局所画素領域
Dの位置はその中心が注目点座標(x,y)に一致する
ように設定し、その大きさMDbx、MDbyは目標の
大きさTx、Tyより十分大きく、その幅WDbx、W
Dbyは1以上の適当な大きさに設定する。また、ステ
ップST202において、目標局所画素領域Aの位置は
その中心が注目点座標(x,y)に一致するように設定
し、その大きさMAtx、MAtyは目標の大きさT
x、Tyとほぼ同じか若干小さく、その幅WAtx、W
Atyは1以上で大きさMAtx、MAtyとの合計が
目標の大きさTx、Tyを越えないように設定する。 [0061] Next, the operation will be described. The assumed target luminance, shape, size, and background state are the same as in the first embodiment . In step ST209, the position of the background local pixel region D is set so that the center thereof coincides with the attention point coordinates (x, y), and the sizes MDbx and MDby are sufficiently larger than the target sizes Tx and Ty. Width WDbx, W
Dby is set to one or more appropriate sizes. In step ST202, the position of the target local pixel area A is set so that its center coincides with the attention point coordinates (x, y), and its size MAtx and MAty are set to the target size T.
x, Ty are almost the same or slightly smaller, and their widths WAtx, W
Aty is set to 1 or more so that the sum of the sizes MAtx and MAty does not exceed the target sizes Tx and Ty.
【0062】 ステップST1の画像データ入力処理、及
び入力された画像データから注目点(x,y)の画素デ
ータを抽出するステップST201の注目点抽出処理は
参考例1と同様に実行される。ステップST209の背
景局所画素領域D抽出処理で読み出された背景局所画素
領域Dの画素データは、次のステップST210の背景
特徴情報D抽出処理において、その特徴情報として例え
ば背景局所画素領域Dの画素データの平均値と最大値を
算出して、抽出する。同様に、ステップST202の目
標局所画素領域A抽出処理で読み込まれた目標局所画素
領域Aの画素データは、次のステップST203の目標
特徴情報A抽出処理においてその特徴情報として例えば
目標局所画素領域Aの画素データの平均値を算出して、
抽出する。 [0062] Image data input process in step ST1, and the point of interest from the input image data (x, y) of interest point extraction process of step ST201 for extracting pixel data of
This is performed in the same manner as in Reference Example 1. The pixel data of the background local pixel area D read out in the background local pixel area D extraction processing in step ST209 is used as the characteristic information in the background characteristic information D extraction processing in the next step ST210. Calculate and extract the average and maximum values of the data. Similarly, the pixel data of the target local pixel area A read in the target local pixel area A extraction processing in step ST202 is used as the target characteristic information A extraction processing in the next step ST203, for example, as the target local pixel area A. Calculate the average value of the pixel data,
Extract.
【0063】 ステップST204の特徴情報演算処理で
は、ステップST209で得られた背景局所画素領域D
の特徴情報とステップST202で得られた目標局所画
素領域Aの特徴情報とステップST201で得られた注
目点の画素データとを使って、注目点の画素データが背
景局所画素領域Dの最大値より大きい場合にのみ例えば
以下に示す式(4)及び(5)に従って2つの一次特徴
量を算出する。もし、注目点の画素データが背景局所画
素領域Dの最大値より小さい場合は2つの一次特徴量を
共に非常に小さな値(例えば0)とする。ここで、Gは
注目点の画素データであり、BDmax は背景局所画素領
域Dから得られた特徴情報の一つ(最大値)であり、B
Dmeanは背景局所画素領域Dから得られたもう一方の特
徴情報(平均値)であり、BAmeanは目標局所画素領域
から得られた特徴情報(平均値)である。 In the characteristic information calculation processing of step ST204, the background local pixel area D obtained in step ST209 is obtained.
Using the characteristic information of the target local pixel area A obtained in step ST202 and the pixel data of the target point obtained in step ST201, the pixel data of the target point is calculated from the maximum value of the background local pixel area D. Only when it is large, for example, two primary feature amounts are calculated according to the following equations (4) and (5). If the pixel data of the target point is smaller than the maximum value of the background local pixel area D, the two primary feature amounts are both set to very small values (for example, 0). Here, G is pixel data of a point of interest, BDmax is one (maximum value) of feature information obtained from the background local pixel area D,
Dmean is the other characteristic information (average value) obtained from the background local pixel region D, and Bmean is the characteristic information (average value) obtained from the target local pixel region.
【0064】 一次特徴量1=(G−BDmax )÷(BDmax −BDmean) (4) [0064] The primary feature quantity 1 = (G-BDmax) ÷ (BDmax -BDmean) (4)
【0065】 一次特徴量2=(G−BAmean)÷(BDmax −BDmean) (5) [0065] The primary feature quantity 2 = (G-BAmean) ÷ (BDmax -BDmean) (5)
【0066】 一次特徴量1は参考例4で述べたS/N比
であり、一次特徴量2は参考例2で述べた輝度ピークの
鋭さを変形(正規化項を注目点輝度から背景のうねりの
大きさに変更している)したものであるである。ステッ
プST204の特徴情報演算処理で算出された一次特徴
量1(S/N比)と一次特徴量2(輝度ピークの鋭さ)
とは次のステップST3の目標判定処理に渡される。 The primary characteristic amount 1 is the S / N ratio described in the reference example 4, and the primary characteristic amount 2 is obtained by modifying the sharpness of the luminance peak described in the reference example 2 (the normalization term is changed from the luminance of the target point to the background undulation). Has been changed to the size of). Primary feature amount 1 (S / N ratio) and primary feature amount 2 (sharpness of luminance peak) calculated in the feature information calculation processing in step ST204.
Is passed to the target determination process in the next step ST3.
【0067】 ステップST3の目標判定処理では、一次
特徴量1(S/N比)と一次特徴量2(輝度ピークの鋭
さ)とをそれぞれの予め設定された閾値と比較し、一次
特徴量1及び一次特徴量2が共にそれぞれの閾値より大
きい場合に注目点は目標であると判定し、目標であるこ
とを示す信号又は記号と共にこの注目点の座標(x,
y)を出力する。 In the target determination process in step ST3, the primary feature 1 (S / N ratio) and primary feature 2 (sharpness of the luminance peak) are compared with respective preset thresholds, and the primary feature 1 and the primary feature 1 are compared. If both the primary feature values 2 are larger than the respective thresholds, the point of interest is determined to be the target, and the coordinates (x,
y) is output.
【0068】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素又は予め与えられた限られた領域の画素に対して行わ
れる。 [0068] Also, the series of processing is performed for all the pixels or pre given limited area of the pixels of the image while sequentially changing point of interest coordinates from the upper left of the image to the bottom right.
【0069】 なお、この参考例5では、背景局所画素領
域の特徴情報として最大値と平均値とを用いたが、最大
値と最小値とを用いてもほぼ同じ効果を期待でき、ま
た、最大値や最小値がノイズに弱く、突発的な特異値を
示すことを考慮するなら背景局所画素領域の画素データ
を大きい順に並べた場合の大きい方から2番目や3番目
と小さい方から2番目や3番目を用いても良いし、大き
い方から数個の平均と、小さい方から数個の平均を用い
ても良い。また、この参考例5では注目点の画素データ
として1画素のみを用いているが、目標の大きさによっ
ては注目点近傍の数画素で平均値処理したものを用いて
も良い。 Although the maximum value and the average value are used as the characteristic information of the background local pixel region in the reference example 5 , almost the same effect can be expected by using the maximum value and the minimum value. Considering that the value or the minimum value is vulnerable to noise and shows a sudden singular value, the pixel data of the background local pixel area is arranged in the descending order, the second from the largest and the second from the third and the second from the smallest. The third may be used, or the average of several pieces from the larger one and the average of several pieces from the smaller one may be used. Further, in this reference example 5 , only one pixel is used as the pixel data of the target point. However, depending on the size of the target, data obtained by averaging several pixels near the target point may be used.
【0070】 また、この参考例5では2つの一次特徴量
に対して、それぞれ独立な閾値を設定したが、例えば両
特徴量を関連づけて、以下に示す式(6)で与えられる
ような関数で閾値を設定しても良い。ここで、a,bは
定数である。 In the fifth embodiment , independent threshold values are set for the two primary feature values. However, for example, the two feature values are associated with each other and a function given by the following equation (6) is used. A threshold may be set. Here, a and b are constants.
【0071】 一次特徴量2の閾値=a×(一次特徴量1)+b (6) [0071] The primary feature quantity 2 threshold = a × (primary characteristic amount 1) + b (6)
【0072】 また、この参考例5では、2つの一次特徴
量について述べたが、例えば参考例3に示す注目点周辺
の広がりの違いを評価する一次特徴量を使って、3つの
一次特徴量の組み合わせで判定しても良い。また、ステ
ップST3の目標判定処理では判定結果として、目標で
あることを示す信号と注目点の座標を出力したが、目標
であるか背景であるかがわかる信号、例えば目標なら論
理”1”、背景なら論理”0”を出力しても良い。 In the fifth embodiment , the two primary feature values are described. For example, the three primary feature values are evaluated using the primary feature value for evaluating the difference in the spread around the point of interest shown in the third embodiment. The determination may be made in combination. In the target determination process of step ST3, a signal indicating the target and the coordinates of the target point are output as the determination result. However, a signal indicating whether the target is the background or the background, for example, a logic "1" for the target, For a background, a logic “0” may be output.
【0073】参考例 6. 図11はこの発明の参考例6による目標検出方法の処理
の流れを示すフローチャート図であり、図において、ス
テップST1は画像入力処理、ステップST2は一次特
徴量算出処理、ステップST3は目標判定処理である。
また、ステップST201は注目点抽出処理、ステップ
ST209は背景局所画素領域D抽出処理、ステップS
T210は背景特徴情報D抽出処理、ステップST21
1は標準偏差算出処理、ステップST204は特徴情報
演算処理である。なお、この参考例6では、図に示すよ
うに、複数の処理を並列で記述しているが、これに限定
されるものではなく、これらの処理は直列に実行されて
も良い。 Reference Example 6 FIG. 11 is a flowchart showing the flow of processing of a target detection method according to Embodiment 6 of the present invention. In the figure, step ST1 is an image input processing, step ST2 is a primary feature amount calculation processing, and step ST3 is a target determination processing. is there.
Step ST201 is a point-of-interest extraction process, step ST209 is a background local pixel region D extraction process, step ST209.
T210 is background characteristic information D extraction processing, step ST21
1 is a standard deviation calculation process, and step ST204 is a feature information calculation process. In the sixth embodiment , as shown in the drawing, a plurality of processes are described in parallel. However, the present invention is not limited to this, and these processes may be executed in series.
【0074】 また、図8はこの参考例6における局所画
素領域の例を示す図であり、図において、11は想定す
る目標の大きさ、12は注目画素領域、16は背景局所
画素領域Dである。 [0074] FIG. 8 is a diagram showing an example of a local pixel region in this Example 6, reference numeral 11 is the magnitude of the target envisaged, 12 noticed pixel region, 16 in the background local pixel region D is there.
【0075】 次に動作について説明する。図8に示すよ
うに、ステップST209では想定する目標の輝度、形
状、大きさや背景の状態は参考例1と同じである。背景
局所画素領域Dの位置はその中心が注目点座標(x,
y)に一致するように設定し、その大きさMDbx,M
Dbyは目標の大きさTx,Tyより十分大きく、その
幅WDbx,WDbyは1以上の適当な大きさに設定す
る。 [0075] Next, the operation will be described. As shown in FIG. 8, the target brightness, shape, size, and background state assumed in step ST209 are the same as those in the first embodiment . As for the position of the background local pixel area D, the center thereof is the attention point coordinate (x,
y) and the size MDbx, M
Dby is sufficiently larger than the target sizes Tx and Ty, and the widths WDbx and WDby are set to one or more appropriate sizes.
【0076】 ステップST1の画像データ入力処理、及
び入力された画像データから注目点(x,y)の画素デ
ータを抽出するステップST201の注目点抽出処理は
参考例1と同様に実行される。ステップST209の背
景局所画素領域D抽出処理で読み出された背景局所画素
領域Dの画素データは、次のステップST210の背景
特徴情報D抽出処理においてその特徴情報として例えば
背景局所画素領域Dの画素データの平均値と最大値を算
出して、抽出する。ステップST211の標準偏差算出
処理では、ステップST210の背景特徴情報D抽出処
理で得られた、平均値と最大値とを用いて、例えば、以
下に示す式(7)に従って標準偏差を算出する。ここ
で、BDmax は背景局所画素領域Dから得られた輝度の
最大値、BDmeanは平均値である。また、Mは背景局所
画素領域に含まれる画素数によって決まる定数、σn は
センサ系のノイズの標準偏差で予め解っている固定値で
ある。 The image data input processing in step ST1 and the attention point extraction processing in step ST201 for extracting the pixel data of the attention point (x, y) from the input image data are as follows.
This is performed in the same manner as in Reference Example 1. The pixel data of the background local pixel area D read out in the background local pixel area D extraction processing in step ST209 is used as the characteristic information in the background characteristic information D extraction processing in the next step ST210, for example, the pixel data of the background local pixel area D. The average value and the maximum value of are calculated and extracted. In the standard deviation calculation process in step ST211, the standard deviation is calculated using the average value and the maximum value obtained in the background feature information D extraction process in step ST210, for example, according to the following equation (7). Here, BDmax is the maximum value of the luminance obtained from the background local pixel area D, and BDmean is the average value. M is a constant determined by the number of pixels included in the background local pixel region, and σn is a fixed value known in advance as the standard deviation of sensor system noise.
【0077】 標準偏差σc =√[{(BDmax −BDmean)÷M}2 −σn 2 ] (7) [0077] The standard deviation σc = √ [{(BDmax -BDmean ) ÷ M} 2 -σn 2] (7)
【0078】 ステップST204の特徴情報演算処理で
は、ステップST210で得られた背景局所画素領域D
の特徴情報とステップST211で得られた上記標準偏
差σc とステップST201で得られた注目点の画素デ
ータとを使って、注目点の画素データが背景局所画素領
域Dの最大値より大きい場合にのみ例えば次に示す式
(8)に従って一次特徴量を算出する。もし、注目点の
画素データが背景局所画素領域Dの最大値より小さい場
合は一次特徴量を非常に小さな値(例えば0)とする。
ここで、Gは注目点の画素データ、BDmax は背景局所
画素領域Dから得られた特徴情報の一つである最大値、
σc は背景局所画素領域Dから算出された標準偏差であ
る。 In the characteristic information calculation processing in step ST204, the background local pixel area D obtained in step ST210
Using the standard deviation σc obtained in step ST211 and the pixel data of the target point obtained in step ST201, only when the pixel data of the target point is larger than the maximum value of the background local pixel area D. For example, the primary feature amount is calculated according to the following equation (8). If the pixel data of the target point is smaller than the maximum value of the background local pixel area D, the primary feature amount is set to a very small value (for example, 0).
Here, G is the pixel data of the point of interest, BDmax is the maximum value which is one of the characteristic information obtained from the background local pixel area D,
σc is a standard deviation calculated from the background local pixel area D.
【0079】 一次特徴量=(G−BDmax )÷σc (8) [0079] The primary feature quantity = (G-BDmax) ÷ σc (8)
【0080】 この一次特徴量は参考例4で示した一次特
徴量(S/N比)の正規化項を単純な輝度差から標準偏
差に変更したものであり、これが持つ意味は参考例4の
ものと同じである。ステップST204の特徴情報演算
処理で算出された一次特徴量(S/N比)は次のステッ
プST3の目標判定処理に渡される。 [0080] The primary feature quantity is obtained by variation of the standard deviation normalization section of the primary feature quantity (S / N ratio) shown in Reference Example 4 from simple brightness difference, meaning of Reference Example 4 in which this has Same as the ones. The primary feature amount (S / N ratio) calculated in the feature information calculation process in step ST204 is passed to the next target determination process in step ST3.
【0081】 ステップST3の目標判定処理では、予め
設定された閾値と一次特徴量(S/N比)とを比較し、
一次特徴量が閾値より大きい場合に注目点は目標である
と判定し、目標であることを示す信号又は記号と共にこ
の注目点の座標(x,y)を出力する。 In the target determination process in step ST3, a preset threshold value is compared with a primary characteristic amount (S / N ratio),
If the primary feature value is larger than the threshold value, the point of interest is determined to be the target, and the coordinates (x, y) of the point of interest are output together with a signal or symbol indicating that the point is the target.
【0082】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素あるいは予め与えられた限られた領域の画素に対して
行われる。 Further , these series of processes are performed on all the pixels of the image or the pixels of a predetermined limited area while sequentially changing the coordinates of the point of interest from the upper left to the lower right of the image.
【0083】 なお、この参考例6では、背景局所画素領
域Dの特徴情報として最大値と平均値とを用いたが、最
大値と最小値を用いる場合には、式(8)に示した数式
のBDmax −BDmeanをBDmax −BDmin とし、定数
Mを2×Mにすることでほぼ同じ効果を期待でき、ま
た、最大値や最小値がノイズに弱く、突発的な特異値を
示すことを考慮するなら背景局所画素領域Dの画素デー
タを大きい順に並べた場合の大きい方から2番目や3番
目と小さい方から2番目や3番目を用いても良いし、大
きい方から数個の平均と、小さい方から数個の平均を用
いても、それに伴って式(8)に示した数式の定数Mを
変更すれば良い。また、この参考例6では注目点の画素
データとして1画素のみを用いているが、目標の大きさ
によっては注目点近傍の数画素で平均値処理したものを
用いても良い。また、ステップST3の目標判定処理で
は判定結果として、目標であることを示す信号と注目点
の座標を出力したが、目標であるか背景であるかがわか
る信号、例えば目標なら論理”1”、背景なら論理”
0”を出力しても良い。 In the sixth embodiment , the maximum value and the average value are used as the characteristic information of the background local pixel region D. However, when the maximum value and the minimum value are used, the expression shown in the equation (8) is used. By setting BDmax-BDmean to BDmax-BDmin and setting the constant M to 2 x M, almost the same effect can be expected. Also, consider that the maximum value and the minimum value are vulnerable to noise and exhibit sudden singular values. Then, when the pixel data of the background local pixel region D are arranged in the descending order, the second or third from the largest and the third from the smallest may be used, or the average of several from the largest and the small Even if several averages are used, the constant M in the equation (8) may be changed accordingly. Although only one pixel is used as the pixel data of the point of interest in the sixth embodiment , data obtained by averaging several pixels near the point of interest may be used depending on the size of the target. In the target determination process of step ST3, a signal indicating the target and the coordinates of the target point are output as the determination result. However, a signal indicating whether the target is the background or the background, for example, a logic "1" for the target, Logic if background ”
0 "may be output.
【0084】 実施例1. 図12はこの発明の実施例1による目標検出方法の処理
の流れを示すフローチャート図であり、図において、ス
テップST1は画像入力処理、ステップST2は一次特
徴量算出処理、ステップST3は目標判定処理である。
また、ステップST201は注目点抽出処理、ステップ
ST209は背景局所画素領域D抽出処理、ステップS
T202は目標局所画素領域A抽出処理、ステップST
205は目標局所画素領域B抽出処理、ステップST2
07は目標局所画素領域C抽出処理、ステップST21
0は背景特徴情報D抽出処理、ステップST203は目
標特徴情報A抽出処理、ステップST206は目標特徴
情報B抽出処理、ステップST208は目標特徴情報C
抽出処理、ステップST211は標準偏差算出処理、ス
テップST212は特徴情報演算処理α、ステップST
213は特徴情報演算処理β、ステップST4は領域判
定処理である。なお、この実施例1では、図に示すよう
に、複数の処理を並列で記述しているが、これに限定さ
れるものではなく、これらの処理は直列に実行されても
良い。なお、図において複数の処理を並列で記述してい
るが、これは並列処理を規定するものではない。 [0084] Example 1. FIG. 12 is a flowchart showing the flow of the process of the target detection method according to the first embodiment of the present invention. In the figure, step ST1 is an image input process, step ST2 is a primary feature amount calculation process, and step ST3 is a target determination process. is there.
Step ST201 is a point-of-interest extraction process, step ST209 is a background local pixel region D extraction process, step ST209.
T202: target local pixel area A extraction processing, step ST
205 is a target local pixel area B extraction process, step ST2
07 is a target local pixel area C extraction process, step ST21.
0 is background characteristic information D extraction processing, step ST203 is target characteristic information A extraction processing, step ST206 is target characteristic information B extraction processing, and step ST208 is target characteristic information C.
Extraction process, step ST211 is standard deviation calculation process, step ST212 is feature information calculation process α, step ST212.
213 is a feature information calculation process β, and step ST4 is a region determination process. In the first embodiment, as shown in the drawing, a plurality of processes are described in parallel. However, the present invention is not limited to this, and these processes may be executed in series. Although a plurality of processes are described in parallel in the figure, this does not specify parallel processing.
【0085】 また、図4、図6、図8はこの実施例1に
おける局所画素領域の例を示す図であり、図において、
11は想定する目標の大きさ、12は注目画素領域、1
6は背景局所画素領域D、13は目標局所画素領域A、
14は目標局所画素領域B、15は目標局所画素領域C
である。 [0085] Further, FIGS. 4, 6, 8 is a diagram showing an example of a local pixel region in the first embodiment, in FIG,
11 is an assumed target size, 12 is a target pixel area, 1
6 is a background local pixel area D, 13 is a target local pixel area A,
14 is a target local pixel area B, 15 is a target local pixel area C
It is.
【0086】 次に動作について説明する。また、想定す
る目標の輝度、形状、大きさや背景の状態は参考例1と
同じである。ステップST1の画像データ入力処理、及
び入力された画像データから注目点(x,y)の画素デ
ータを抽出するステップST201の注目点抽出処理は
参考例1と同様に実行される。背景局所画素領域Dの設
定処理、ステップST210の背景特徴情報D抽出処理
において背景局所画素領域Dから特徴情報を抽出しそれ
をステップST211の標準偏差算出処理とステップS
T212の特徴情報演算処理に渡し、ステップST21
1の標準偏差算出処理で背景の輝度の標準偏差を計算す
るところは参考例6と同じである。また、目標局所画素
領域AからCの設定や、目標特徴情報A〜C抽出処理に
おいて目標抽出処理AからCの特徴情報を抽出するとこ
ろは参考例2や参考例3と同じである。 [0086] Next, the operation will be described. The assumed target luminance, shape, size, and background state are the same as in the first embodiment . The image data input process of step ST1 and the attention point extraction process of step ST201 for extracting pixel data of the attention point (x, y) from the input image data
This is performed in the same manner as in Reference Example 1. In the setting process of the background local pixel region D, the feature information is extracted from the background local pixel region D in the background feature information D extraction process in step ST210, and the feature information is extracted from the background local pixel region D in step ST211.
The processing is passed to feature information calculation processing in T212, and step ST21 is performed.
The calculation of the standard deviation of the luminance of the background in the standard deviation calculation process of 1 is the same as that of the sixth embodiment . The setting of the target local pixel areas A to C and the extraction of the characteristic information of the target extraction processing A to C in the target characteristic information A to C extraction processing are the same as in Reference Example 2 and Reference Example 3.
【0087】 ステップST212の特徴情報演算処理α
では、背景局所画素領域Dの特徴情報とステップST2
11の標準偏差算出処理で計算された背景輝度の標準偏
差σc とステップST203で得られた目標局所画素領
域Aの特徴情報とステップST201で得られた注目点
の画素データとを使って、注目点の画素データが背景局
所画素領域Dの最大値より大きい場合にのみ例えば以下
に示す式(9)及び(10)に従って2つの一次特徴量
を算出する。もし、注目点の画素データが背景局所画素
領域Dの最大値より小さい場合は2つの一次特徴量を共
に非常に小さな値(例えば0)とする。ここで、Gは注
目点の画素データ、BDmax は背景局所画素領域Dから
得られた特徴情報の一つ(最大値)、BAmeanは目標局
所画素領域Aから得られた特徴情報の一つ(平均値)、
σc は背景局所画素領域Dから算出された標準偏差であ
る。 [0087] characteristic information calculation processing in step ST212 alpha
Then, the feature information of the background local pixel region D and the step ST2
Using the standard deviation σc of the background luminance calculated in the standard deviation calculation processing of No. 11, the characteristic information of the target local pixel area A obtained in step ST203, and the pixel data of the target point obtained in step ST201, Only when the pixel data is larger than the maximum value of the background local pixel area D, two primary feature amounts are calculated according to, for example, the following equations (9) and (10). If the pixel data of the target point is smaller than the maximum value of the background local pixel area D, the two primary feature amounts are both set to very small values (for example, 0). Here, G is the pixel data of the point of interest, BDmax is one of the feature information (maximum value) obtained from the background local pixel region D, and Bamean is one of the feature information (average value) obtained from the target local pixel region A. value),
σc is a standard deviation calculated from the background local pixel area D.
【0088】 一次特徴量1=(G−BDmax )÷σc (9) [0088] The primary feature quantity 1 = (G-BDmax) ÷ σc (9)
【0089】 一次特徴量2=(G−BAmean)÷σc (10) [0089] The primary feature quantity 2 = (G-BAmean) ÷ σc (10)
【0090】 一次特徴量1は参考例6で示した一次特徴
量(S/N比)、一次特徴量2は参考例5や参考例2で
示した一次特徴量(輝度ピークの鋭さ)の正規化項を背
景の輝度の標準偏差に変えたものであり、それが持つ意
味は上記実施例のものと同じである。ステップST21
2の特徴情報演算処理αで算出された一次特徴量(S/
N比、輝度ピークの鋭さ)は次のステップST3の目標
判定処理に渡される。 [0090] normal primary feature amount shown primary characteristic quantity 1 in Reference Example 6 (S / N ratio), the primary feature quantity 2 is primary feature amount shown in Reference Example 5 and Reference Example 2 (sharpness of the luminance peak) This is obtained by changing the chemical term into the standard deviation of the luminance of the background, and has the same meaning as in the above embodiment. Step ST21
The primary feature amount (S /
N ratio and sharpness of the luminance peak) are passed to the target determination processing in the next step ST3.
【0091】 ステップST213の特徴情報演算処理β
では、ステップST210で得られた背景局所画素領域
Dの特徴情報とステップST211の標準偏差算出処理
で計算された背景輝度の標準偏差σc とステップST2
06及びST208で得られた目標局所画素領域B及び
Cの特徴情報とステップST201で得られた注目点の
画素データとを使って、注目点の画素データが背景局所
画素領域Dの最大値より大きい場合にのみ、例えば以下
に示す式(11)及び(12)に従って2つの一次特徴
量を算出する。もし、注目点の画素データが背景局所画
素領域Dの最大値より小さい場合は2つの一次特徴量を
共に非常に小さな値(例えば0)とする。ここで、Gは
注目点の画素データ、BDmax は背景局所画素領域Dか
ら得られた特徴情報の一つ(最大値)、BBmean,BC
meanは目標局所画素領域B及びCから得られた特徴情報
の一つ(平均値)、σc は背景局所画素領域Dから算出
された標準偏差である。 [0091] The feature information calculation processing of step ST213 β
Then, the characteristic information of the background local pixel area D obtained in step ST210, the standard deviation σc of the background luminance calculated in the standard deviation calculation processing in step ST211 and the step ST2
06 and the characteristic information of the target local pixel areas B and C obtained in ST208 and the pixel data of the target point obtained in step ST201, the pixel data of the target point is larger than the maximum value of the background local pixel area D. Only in this case, for example, two primary feature amounts are calculated according to the following equations (11) and (12). If the pixel data of the target point is smaller than the maximum value of the background local pixel area D, the two primary feature amounts are both set to very small values (for example, 0). Here, G is pixel data of a point of interest, BDmax is one (maximum value) of feature information obtained from the background local pixel area D, BBmean, BC
mean is one (average value) of feature information obtained from the target local pixel regions B and C, and σc is a standard deviation calculated from the background local pixel region D.
【0092】 一次特徴量1=(G−BDmax )÷σc (11) [0092] The primary feature quantity 1 = (G-BDmax) ÷ σc (11)
【0093】 一次特徴量2=(BBmean−BCmean)÷σc (12) [0093] The primary feature quantity 2 = (BBmean-BCmean) ÷ σc (12)
【0094】 一次特徴量1は参考例6で示した一次特徴
量(S/N比)、一次特徴量2は参考例5や参考例3で
示した一次特徴量(広がりの違い)の正規化項を背景の
輝度の標準偏差に変えたものであり、それが持つ意味は
同じである。ステップST213の特徴情報演算処理β
で算出された一次特徴量(S/N比、広がりの違い)は
次のステップST3の目標判定処理に渡される。 [0094] The primary feature quantity indicated primary characteristic quantity 1 in Reference Example 6 (S / N ratio), the primary feature quantity 2 is normalized primary feature amount shown in Reference Example 5 and Reference Example 3 (the difference of the spread) The term is changed to the standard deviation of the background luminance, and it has the same meaning. Feature information calculation processing β in step ST213
The primary feature amounts (differences in S / N ratio and spread) calculated in step (1) are passed to the target determination processing in the next step ST3.
【0095】 ステップST4の領域判定処理では、背景
の輝度の標準偏差σc とセンサ系の固有ノイズの標準偏
差で予め解っている固定値σn とを比較して、σc がσ
n より小さい場合には例えば論理”0”を出力し、逆に
σc がσn より大きい場合には論理”1”を出力する。
これは、背景が青空のように本来一定の輝度を持ってい
る領域にノイズが加わっている場合にはσn の方が大き
いため論理”0”が出力され、雲のように背景そのもの
が大きな輝度のうねりを持っている上にノイズが加わっ
ている場合にはσc の方が大きいため論理”1”が出力
されることを意味する。 In the area determination processing in step ST4, the standard deviation σc of the background luminance is compared with a fixed value σn which is known in advance from the standard deviation of the intrinsic noise of the sensor system.
If it is smaller than n, for example, a logic "0" is output. Conversely, if σc is larger than σn, a logic "1" is output.
This is because, when noise is added to an area having an inherently constant luminance, such as a blue sky, σn is larger and a logical “0” is output. In addition to the undulation and the addition of noise, the logic "1" is output because .sigma.c is larger.
【0096】 ステップST3の目標判定処理では、ステ
ップST4の領域判定処理が論理”0”を出力した場合
にはステップST213の特徴情報演算処理βが出力し
た一次特徴量をこの一次特徴量用に予め設定された閾値
と比較し、目標か否かを判定し、目標であることを示す
信号又は記号と共にこの注目点の座標(x,y)を出力
する。もし、ステップST4の領域判定処理が論理”
1”を出力した場合にはステップST212の特徴情報
演算処理αが出力した一次特徴量をこの一次特徴量用に
予め設定された閾値と比較し、目標か否かを判定し、目
標であることを示す信号又は記号と共にこの注目点の座
標(x,y)を出力する。これは、ノイズの影響が大き
い場合(領域判定の論理”0”)にはステップST21
3の特徴情報演算処理βが出力するS/N比と広がりの
違いを評価し、雲の影響が大きい場合(領域判定の論
理”1”)にはステップST212の特徴情報演算処理
αが出力するS/N比と輝度ピークの鋭さを評価するこ
とを意味する。 In the target determination process of step ST3, if the area determination process of step ST4 outputs a logic "0", the primary feature value output by the feature information calculation process β of step ST213 is used in advance for this primary feature value. The coordinates (x, y) of this point of interest are output together with a signal or symbol indicating that the target is attained by comparing with the set threshold value to determine whether the target is the target. If the area determination processing in step ST4 is logic "
If “1” is output, the primary feature value output by the feature information calculation processing α in step ST212 is compared with a threshold value preset for the primary feature value, and it is determined whether or not the target is a target. And the coordinates (x, y) of this point of interest are output together with a signal or symbol indicating the step ST21 when the influence of noise is large (logic "0" for area determination).
The feature information calculation process β of step 3 evaluates the difference between the S / N ratio and the spread output by the feature information calculation process β. If the effect of the cloud is large (logic “1” for area determination), the feature information calculation process α of step ST212 is output. This means that the S / N ratio and the sharpness of the luminance peak are evaluated.
【0097】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素あるいは予め与えられた限られた領域の画素に対して
行われる。 Further , these series of processes are performed on all the pixels of the image or the pixels in a predetermined limited area while sequentially changing the coordinates of the point of interest from the upper left to the lower right of the image.
【0098】 なお、この実施例では、特徴情報演算処理
として領域別に処理したが、1つの特徴情報演算処理で
3つの一次特徴量全てを計算し、ステップST3の目標
判定処理で領域判定結果を用いて一次特徴量の取捨選択
を行っても同じである。また、ステップST3の目標判
定処理の判定結果として、目標であることを示す信号と
注目点の座標を出力したが、目標であるか背景であるか
がわかる信号、例えば目標なら論理”1”、背景なら論
理”0”を出力しても良い。 In this embodiment, the feature information calculation process is performed for each region. However, one feature information calculation process calculates all three primary feature amounts, and uses the region determination result in the target determination process in step ST3. This is the same even if the primary feature is selected. As a result of the target determination processing in step ST3, a signal indicating the target and the coordinates of the target point are output. However, a signal indicating whether the target is the background or the background is obtained. For a background, a logic “0” may be output.
【0099】 実施例2. 図13はこの発明の実施例2による目標検出方法の処理
の流れを示すフローチャート図であり、図において、ス
テップST2は一次特徴量算出処理、ステップST3は
目標判定処理、ステップST301はモード切り替え処
理、ステップST302は背景クラス生成処理、ステッ
プST304は多次元特徴量空間マッピング処理、ステ
ップST305はクラス統計量算出処理、ステップST
306は閾値計算処理、ステップST303はクラス判
定処理、ステップST307は多次元距離算出処理、ス
テップST308は判定処理である。Embodiment 2 FIG . FIG. 13 is a flowchart showing the flow of a process of a target detection method according to the second embodiment of the present invention. In the figure, step ST2 is a primary feature amount calculation process, step ST3 is a target determination process, step ST301 is a mode switching process, Step ST302 is a background class generation process, step ST304 is a multidimensional feature space mapping process, step ST305 is a class statistic calculation process, step ST305.
306 is a threshold value calculation process, step ST303 is a class determination process, step ST307 is a multidimensional distance calculation process, and step ST308 is a determination process.
【0100】 次に動作について説明する。ステップST
2の一次特徴量算出処理では、例えば参考例5や参考例
7で述べた2つないし3つの一次特徴量を算出する。 [0100] Next, the operation will be described. Step ST
In second primary feature quantity calculation process, for example to connect 2 described in Reference Example 5 and Reference Example 7 calculates the three primary feature quantity.
【0101】 ステップST3の目標判定処理では、複数
の一次特徴量を入力として、判定処理が行われる。具体
的には、入力された一次特徴量は外部から指示されたモ
ードに従って、ステップST301のモード切り替え処
理においてステップST302ぼ背景クラス生成処理又
はステップST303のクラス判定処理に渡される。こ
の際、モードは、例えば導入段階等入力画像に目標が含
まれていないことがわかっている段階ではステップST
302の背景クラス生成処理に移行するように設定され
ており、その後の運用段階等入力画像に目標が含まれて
いるかどうかわからず、実際に自動検出を行いたい段階
ではステップST303のクラス判定処理に移行するよ
うに設定されている。このようなモードの切り替え指示
は、例えば外部インターフェースを介してユーザ又はオ
ペレータによって与えられる。 In the target determination process of step ST3, a determination process is performed using a plurality of primary feature amounts as input. Specifically, the input primary feature amount is passed to the background class generation processing in step ST302 or the class determination processing in step ST303 in the mode switching processing in step ST301 according to the mode instructed from the outside. At this time, the mode is set to step ST at a stage where it is known that the target is not included in the input image such as an introduction stage.
It is set so as to shift to the background class generation processing at 302, and it is not known whether the target is included in the input image, such as the operation stage thereafter, and at the stage where the automatic detection is actually desired, the class determination processing at step ST303 is performed. It is set to migrate. Such a mode switching instruction is given by, for example, a user or an operator via an external interface.
【0102】 上記のような判断に従って一次特徴量がス
テップST301のモード切り替え処理によってステッ
プST302の背景クラス生成処理に渡されたときに
は、その一次特徴量は全て背景の一次特徴量であるの
で、これらを全て無条件に背景のクラスとして扱うこと
ができる。また、一次特徴量画像中全ての画素に対して
それぞれ複数の一次特徴量(例えば、参考例5で述べた
3つの一次特徴量)が与えられている。そこで、ステッ
プST304の多次元特徴量空間マッピング処理では、
画像中の任意の座標(x,y)に対する3つの一次特徴
量をそれぞれの特徴量を軸とする3次元の特徴量空間に
マッピングする。以下、画像中の他の座標に対する一次
特徴量も同様に特徴量空間にマッピングし、更に任意の
時刻後の別の画像から算出された各座標に対する一次特
徴量も同様に特徴量空間にマッピングする。この処理に
よって特徴量空間には背景から算出された多量の一次特
徴量がある分布としてマッピングされる(この分布は背
景画素から算出された一次特徴量のみの分布であるの
で、これを背景クラスと呼ぶ)。 When the primary feature values are passed to the background class generation process in step ST302 by the mode switching process in step ST301 according to the above judgment, all of the primary feature values are background primary feature values. All can be unconditionally treated as a background class. In addition, a plurality of primary feature amounts (for example, three primary feature amounts described in Reference Example 5) are given to all pixels in the primary feature amount image. Therefore, in the multidimensional feature quantity space mapping processing in step ST304,
The three primary feature amounts for arbitrary coordinates (x, y) in the image are mapped to a three-dimensional feature amount space around each feature amount. Hereinafter, the primary feature amounts for other coordinates in the image are similarly mapped in the feature amount space, and the primary feature amounts for each coordinate calculated from another image after an arbitrary time are similarly mapped in the feature amount space. . By this process, the feature space is mapped as a distribution having a large amount of primary features calculated from the background (this distribution is a distribution of only the primary features calculated from the background pixels. Call).
【0103】 次に、ステップST305のクラス統計量
算出処理では、多次元特徴空間マッピング処理で生成さ
れた背景クラス分布から、その分布の統計量として例え
ば3次元のベクトルとして表現される平均値と分散共分
散値を算出する。なお、ここで計算された平均値と分散
共分散値は次のステップST306の閾値計算処理で利
用されるほか、ステップST303のクラス判定処理に
おけるステップST307の多次元距離算出処理でも利
用される。最後に、ステップST306の閾値計算処理
では、ステップST305のクラス統計量算出処理で計
算された平均値と分散共分散値を使って、例えば平均値
から(3×分散共分散値)だけ離れた距離を計算しそれ
を閾値として保持する。 [0103] Next, the class statistic calculation processing in step ST 305, from the background class distribution generated by the multi-dimensional feature space mapping process, an average value expressed as a vector of statistic as for example 3-dimensional distribution thereof dispersed Calculate the covariance value. The average value and the variance-covariance value calculated here are used in the next threshold calculation process in step ST306, and are also used in the multidimensional distance calculation process in step ST307 in the class determination process in step ST303. Finally, in the threshold value calculation process of step ST306, using the average value and the variance-covariance value calculated in the class statistic calculation process of step ST305, for example, a distance away from the average value by (3 × variance-covariance value) And hold it as the threshold.
【0104】 一方、上記のような判断に従って一次特徴
量がステップST301のモード切り替え処理によって
ステップST303のクラス判定処理に渡されたときに
は、その一次特徴量は背景画素から算出されたものか目
標画素から算出されたものかは不明であり、これがどち
らに属するかを判定することが目標を検出するというこ
とになる。そこで、先ずステップST307の多次元距
離算出処理において入力された一次特徴量とステップS
T302の背景クラス生成処理におけるステップST3
05のクラス統計量算出処理で計算された背景クラスの
平均値と分散共分散値を使って、一次特徴量が背景クラ
スの平均値から離れている距離を算出する。次に、ステ
ップST308の判定処理では、ステップST307の
多次元距離算出処理で計算された距離とステップST3
02の背景クラス生成処理におけるステップST306
の閾値計算処理で計算された閾値としての距離とを比較
し、一次特徴量の距離が閾値としての距離より大きい場
合にその一次特徴量が目標画素から算出されたものと判
定し、一次特徴量の距離が閾値としての距離より小さい
場合にその一次特徴量が背景から算出されたものと判定
する。 [0104] On the other hand, when the primary feature quantity according to the judgment as described above is passed to the class determination process in step ST303 by the mode switching process in step ST301, the primary feature quantity from one target pixel that is calculated from the background pixel It is not known whether the calculated value is obtained or not, and it is determined that the target belongs to the detection of the target. Therefore, first, the primary feature amount input in the multi-dimensional distance calculation processing of step ST307 and step S307
Step ST3 in the background class generation processing of T302
Using the average value and the variance-covariance value of the background class calculated in the class statistic calculation process of 05, the distance at which the primary feature value is away from the average value of the background class is calculated. Next, in the determination processing in step ST308, the distance calculated in the multidimensional distance calculation processing in step ST307 is compared with the distance calculated in step ST3.
Step ST306 in the 02 background class generation process
Is compared with the distance calculated as the threshold in the threshold calculation process, and when the distance of the primary feature is larger than the distance as the threshold, it is determined that the primary feature is calculated from the target pixel, and the primary feature is determined. Is smaller than the threshold distance, it is determined that the primary feature amount has been calculated from the background.
【0105】参考例7 . 図14はこの発明の参考例7による目標検出方法の処理
の流れを示すフローチャート図であり、図において、ス
テップST2は一次特徴量算出処理、ステップST3は
目標判定処理、ステップST5は再現性判定処理であ
る。 Reference Example 7 FIG. 14 is a flowchart showing the flow of processing of the target detection method according to Embodiment 7 of the present invention. In the figure, step ST2 is a primary feature amount calculation processing, step ST3 is a target determination processing, and step ST5 is a reproducibility determination processing. It is.
【0106】 次に動作について説明する。ステップST
2の一次特徴量算出処理では、ある時刻Tの入力画像に
対して各注目点の一次特徴量が計算され、次のステップ
ST3へとその一次特徴量が渡される。ステップST3
の目標判定処理における目標を検出するまでの処理は参
考例1から参考例6および実施例1,2で述べたものと
同じである。ステップST3の目標判定処理では、目標
と判断された一次特徴量を持つ注目点の画素座標が出力
され、それがステップST5の再現性判定処理に渡され
る。この実施例では、ステップST5へと渡される目標
判定結果を目標候補として扱う。 [0106] Next, the operation will be described. Step ST
In the second primary feature value calculation process, the primary feature value of each point of interest is calculated for an input image at a certain time T, and the primary feature value is passed to the next step ST3. Step ST3
Ginseng processing until detection of a target in the target determination process
This is the same as that described in Examples 1 to 6 and Examples 1 and 2 . In the target determination processing in step ST3, the pixel coordinates of the target point having the primary feature amount determined as the target are output, and are passed to the reproducibility determination processing in step ST5. In this embodiment, the target determination result passed to step ST5 is treated as a target candidate.
【0107】 ステップST5の再現性判定処理では、時
刻TよりS単位時間以前(時刻T−S)の入力画像に対
する目標候補抽出結果が記憶されており、新たに入力さ
れてきた時刻Tの入力画像に対する目標候補抽出結果と
比較される。比較は座標の空間的近さを判定するために
行われる。すなわち、時刻(T−S)における複数の目
標候補の内、任意のI番目の候補が座標(x[T−S,
I],y[T−S,I])を持ち、時刻Tにおける複数
の目標候補の内、任意のJ番目の候補が座標(x[T,
J],y[T,J])を持つとき、以下の式(13)に
示した数式で距離を計算し、その距離が小さいときは時
刻TにおけるJ番目の目標候補を真の目標と判定し、そ
の距離が大きいときは、時刻(T−S)における別の目
標候補の座標と同様に距離を計算し、その大きさを調べ
る。もし時刻(T−S)における全ての目標候補と距離
を計算した結果距離が小さいものがない場合には時刻T
におけるJ番目の目標候補を非目標(=背景)と判定す
る。 In the reproducibility determination process of step ST5, the result of extracting the target candidate for the input image before S unit time before time T (time TS) is stored, and the newly input image at time T is input. Is compared with the target candidate extraction result. The comparison is made to determine the spatial proximity of the coordinates. That is, an arbitrary I-th candidate among a plurality of target candidates at the time (TS) is represented by coordinates (x [TS,
I], y [TS, I]), and among a plurality of target candidates at time T, an arbitrary J-th candidate has coordinates (x [T,
J], y [T, J]), the distance is calculated by the following equation (13). If the distance is small, the J-th target candidate at time T is determined to be a true target. If the distance is large, the distance is calculated in the same manner as the coordinates of another target candidate at time (TS), and the size is checked. If all the target candidates and the distance at time (TS) are calculated and the distance is not small, the time T
Is determined as a non-target (= background).
【0108】 距離=√{{x[T−S,I]−x[T,J]}2 +{y[T−S,I]−y[T,J]}2 } (13) [0108] distance = √ {{x [T- S, I] -x [T, J]} 2 + {y [T-S, I] -y [T, J]} 2} (13)
【0109】 なお、この参考例7では時刻Tと時刻(T
−S)の2つの画像を比較したが、時刻Tと時刻(T−
S)と時刻(T−2×S)という様に3つ以上の画像で
比較しても良い。また、この参考例7では距離として式
(13)に示した式を用いたが、単純に時刻Tにおける
J番目の候補の座標(x[T,J],y[T,J])の
近傍N画素という条件を用いても良い。 In the seventh embodiment , the time T and the time (T
−S), the time T and the time (T−
S) and time (T−2 × S) may be compared for three or more images. Further, in this reference example 7 , the equation shown in equation (13) was used as the distance, but the distance near the coordinates (x [T, J], y [T, J]) of the J-th candidate at time T was simply obtained. A condition of N pixels may be used.
【0110】参考例8 . 図15はこの発明の参考例8による目標検出方法の処理
の流れを示すフローチャート図であり、図において、ス
テップST1は画像入力処理、ステップST2は一次特
徴量算出処理、ステップST3は目標判定処理である。
また、ステップST214は注目画素領域抽出処理、ス
テップST215は注目特徴情報抽出処理、ステップS
T209は背景局所画素領域D抽出処理、ステップST
210は背景特徴情報D抽出処理、ステップST204
は特徴情報演算処理である。なお、この参考例8では、
図に示すように、複数の処理を並列で記述しているが、
これに限定されるものではなく、これらの処理は直列に
実行されても良い。 Reference Example 8 FIG. 15 is a flowchart showing the flow of processing of a target detection method according to Embodiment 8 of the present invention. In the figure, step ST1 is an image input processing, step ST2 is a primary feature amount calculation processing, and step ST3 is a target determination processing. is there.
Step ST214 is a pixel-of-interest extraction process, step ST215 is a characteristic-of-interest information extraction process, and step S215 is
T209: background local pixel area D extraction processing, step ST
210: background feature information D extraction processing, step ST204
Is a feature information calculation process. In this reference example 8 ,
As shown in the figure, multiple processes are described in parallel,
The present invention is not limited to this, and these processes may be performed in series.
【0111】 また、図16はこの参考例8における局所
画素領域の例を示す図であり、図において、17は時空
間注目画素領域、18は時空間背景局所画素領域D(時
空間局所画素領域)である。 [0111] FIG. 16 is a diagram showing an example of a local pixel region in this reference example 8, in the figure, the spatial noticed pixel region time 17, space background local pixel region D (time-space local pixel region time 18 ).
【0112】 次に動作について説明する。想定する目標
の輝度、形状、大きさや背景の状態は参考例1と同じで
ある。ただし、目標の移動速度に関しては、ある画像入
力時刻Tから次の画像入力時刻(T+1)までの間に、
せいぜい1画素分しか移動しないと仮定する。 [0112] Next, the operation will be described. The assumed target luminance, shape, size, and background state are the same as in the first embodiment . However, regarding the target moving speed, between a certain image input time T and the next image input time (T + 1),
Assume that at most one pixel is moved.
【0113】 図16に示すように、時空間注目画素領域
17の位置はその中心が注目点座標(x,y)に一致す
るように設定し、その水平、垂直方向の大きさMcx、
Mcyはそれぞれ3画素程度とし、その時間方向の奥行
きMczは2画素程度とする。時空間背景局所画素領域
18の位置はその中心が注目点座標(x,y)に一致す
るように設定し、その水平、垂直方向の大きさMDb
x、MDbyは目標の大きさTx、Tyより十分大き
く、その幅WDbx、WDbyは1以上の適当な大きさ
に設定し、その時間方向の奥行きMDbzは2程度とす
る。 As shown in FIG . 16, the position of the spatiotemporal pixel region of interest 17 is set so that the center thereof coincides with the coordinate of the point of interest (x, y), and its horizontal and vertical dimensions Mcx,
Mcy is about 3 pixels each, and its depth Mcz in the time direction is about 2 pixels. The position of the spatiotemporal background local pixel area 18 is set so that the center thereof coincides with the attention point coordinates (x, y), and its horizontal and vertical dimensions MDb
x and MDby are sufficiently larger than the target sizes Tx and Ty, the widths WDbx and WDby are set to one or more appropriate sizes, and the depth MDbz in the time direction is set to about 2.
【0114】 ステップST214の注目画素領域抽出処
理で読み出された時空間注目画素領域の画素データは、
次のステップST215の注目特徴情報抽出処理におい
て、その特徴情報として例えば時空間注目画素領域の内
の時刻Tにおける注目画素領域の最大値と、時空間注目
画素領域の内の時刻(T+1)における注目画素領域の
最大値との平均値を算出して、抽出する。ステップST
209の背景局所画素領域D抽出処理で読み出された時
空間背景局所画素領域Dの画素データは、次のステップ
ST210の背景特徴情報D抽出処理において、その特
徴情報として例えば時空間背景局所画素領域Dの画素デ
ータの平均値と最大値を算出して、抽出する。 [0114] pixel data of the spatial noticed pixel region when read in the target pixel region extraction process in step ST214 is
In the attention feature information extraction processing in the next step ST215, as the feature information, for example, the maximum value of the attention pixel area at time T in the spatiotemporal attention pixel area and the attention at time (T + 1) in the spatiotemporal attention pixel area The average value with the maximum value of the pixel area is calculated and extracted. Step ST
The pixel data of the spatiotemporal background local pixel area D read out in the background local pixel area D extraction processing in 209 is used as background information, for example, in the spatiotemporal background local pixel area in the background feature information D extraction processing in step ST210. The average value and the maximum value of the D pixel data are calculated and extracted.
【0115】 ステップST204の特徴情報演算処理で
は、ステップST210で得られた時空間背景局所画素
領域Dの特徴情報とステップST215で得られた時空
間注目画素領域の特徴情報とを使って、時空間注目画素
領域の特徴情報が時空間背景局所画素領域Dの最大値よ
り大きい場合にのみ例えば以下に示す数式(14)に従
って一次特徴量を算出する。もし、時空間注目画素領域
の特徴情報が時空間背景局所画素領域Dの最大値より小
さい場合は一次特徴量を非常に小さな値(例えば0)と
する。ここで、Gは注目画素領域の特徴情報、BDmax
は時空間背景局所画素領域Dから得られた特徴情報の一
つである(最大値)、BDmeanは時空間背景局所画素領
域Dから得られたもう一方の特徴情報(平均値)であ
る。 In the characteristic information calculation processing in step ST204, the spatio-temporal characteristic information of the spatiotemporal background local pixel area D obtained in step ST210 and the characteristic information of the spatiotemporal target pixel area obtained in step ST215 are used. Only when the feature information of the target pixel region is larger than the maximum value of the spatiotemporal background local pixel region D, the primary feature amount is calculated according to, for example, the following equation (14). If the feature information of the spatiotemporal pixel region of interest is smaller than the maximum value of the spatiotemporal background local pixel region D, the primary feature amount is set to a very small value (for example, 0). Here, G is the feature information of the pixel area of interest, BDmax
Is one of the feature information obtained from the spatiotemporal background local pixel region D (maximum value), and BDmean is the other feature information (average value) obtained from the spatiotemporal background local pixel region D.
【0116】 一次特徴量=(G−BDmax )÷(BDmax −BDmean) (14) [0116] The primary feature quantity = (G-BDmax) ÷ ( BDmax -BDmean) (14)
【0117】 数式(14)で与えられる一次特徴量の分
子において時空間注目画素領域の特徴情報と時空間背景
局所画素領域Dの最大値を差分することは、目標の様に
中心付近が輝度ピークを持つ場合には正の値となり、そ
の大きさは中心付近の輝度と背景の輝度の相対的な差に
依存することを意味する。ここで、BDmax を一定とし
て考えると、目標のように時刻Tにも時刻(T+1)に
も存在し、かつその移動距離が1画素程度(時空間注目
画素領域のカバーする範囲内)であれば、時刻Tにおけ
る注目点領域の最大値も時刻(T+1)における注目点
領域の最大値も共に大きな値となり結果としてその平均
である時空間注目画素領域の特徴情報Gも大きくなる。
しかしながら、ランダムノイズの様にある時刻Tで存在
していた輝度ピークが時刻(T+1)でまったく離れた
ところ(時空間注目画素領域のカバーする範囲外)に発
生する場合には、時刻Tにおける注目点領域の最大値は
大きいが、時刻(T+1)における注目点領域の最大値
は小さくなり結果としてその平均である時空間注目画素
領域の特徴情報Gが小さくなる。したがって、この違い
によって目標とノイズを区別できる。分母の意味や全体
の意味は参考例4と同じである。 The difference between the feature information of the spatio-temporal pixel region of interest and the maximum value of the spatio-temporal background local pixel region D in the numerator of the primary characteristic amount given by the equation (14) can be obtained by calculating the luminance peak near the center like the target. Has a positive value, which means that the magnitude depends on the relative difference between the luminance near the center and the luminance of the background. Here, assuming that BDmax is constant, if the target exists at both the time T and the time (T + 1) and the moving distance is about 1 pixel (within the range covered by the spatio-temporal pixel area of interest). Both the maximum value of the attention point area at time T and the maximum value of the attention point area at time (T + 1) become large values, and as a result, the feature information G of the spatio-temporal attention pixel area, which is the average, also increases.
However, when the luminance peak existing at a certain time T, such as random noise, is generated at a position completely separated at a time (T + 1) (outside the range covered by the spatio-temporal pixel region of interest), Although the maximum value of the point area is large, the maximum value of the attention point area at time (T + 1) becomes small, and as a result, the feature information G of the spatiotemporal attention pixel area, which is the average, becomes small. Therefore, the target and the noise can be distinguished from each other by this difference. The meaning of the denominator and the entire meaning are the same as in Reference Example 4.
【0118】 ステップST3の目標判定処理では、予め
設定された閾値と一次特徴量を比較し、一次特徴量が閾
値より大きい場合に目標と判定し、目標であることを示
す信号又は記号と共にこの注目点の座標(x,y)を出
力する。 In the target determination process of step ST3, the primary feature value is compared with a preset threshold value, and when the primary feature value is larger than the threshold value, the target is determined, and the target is determined together with a signal or symbol indicating the target. Output the coordinates (x, y) of the point.
【0119】 また、これら一連の処理はその注目点座標
を画像の左上から右下へ順次変化させながら画像の全画
素あるいは予め与えられた限られた領域の画素に対して
行われる。 Further , these series of processes are performed on all the pixels of the image or the pixels in a predetermined limited area while sequentially changing the coordinates of the point of interest from the upper left to the lower right of the image.
【0120】参考例9 . 図17はこの発明の参考例9による目標検出装置の構成
を示すブロック図であり、図において、5は一次特徴量
算出部、6は目標判定部(目標判定手段)、501は局
所データ抽出回路(局所データ抽出手段)、502は特
徴情報抽出部(特徴情報抽出手段)、503は算術演算
回路、504は比較選択回路、505は特徴量演算回
路、601は閾値保持回路、602は比較判定回路であ
る。尚、この参考例において局所データ抽出回路501
は一次特徴量算出部5に含まれるが、これに限定される
ものではなく、一次特徴量算出部5と独立して設けられ
てもよい。 Reference Example 9 FIG. 17 is a block diagram showing a configuration of a target detection apparatus according to Embodiment 9 of the present invention. In FIG. 17, reference numeral 5 denotes a primary feature amount calculation unit, reference numeral 6 denotes a target determination unit (target determination means), and reference numeral 501 denotes a local data extraction circuit. (Local data extraction means), 502 is a feature information extraction unit (feature information extraction means), 503 is an arithmetic operation circuit, 504 is a comparison and selection circuit, 505 is a feature amount operation circuit, 601 is a threshold value holding circuit, 602 is a comparison determination circuit It is. In this reference example , the local data extraction circuit 501
Is included in the primary feature value calculation unit 5, but is not limited thereto, and may be provided independently of the primary feature value calculation unit 5.
【0121】 次に動作について説明する。処理の対象と
なる画像はITVカメラや赤外線カメラ等で撮像され、
この目標検出装置への入力段階で、水平Ix画素×垂直
Iy画素×Ib階調に量子化され、画像の左上から右下
へ向かって順に画素データが一次特徴量算出部5に入力
される。以降の全ての処理がこれら画像全体の画素に対
して行われる。 [0121] Next, the operation will be described. The image to be processed is captured by an ITV camera, infrared camera, etc.
In the input stage to the target detection device, the image is quantized into horizontal Ix pixels × vertical Iy pixels × Ib gradations, and pixel data is input to the primary feature amount calculation unit 5 in order from the upper left to the lower right of the image. All subsequent processing is performed on the pixels of the entire image.
【0122】 局所データ抽出回路501は、例えば参考
例4の図8に示した背景局所画素領域の大きさに応じた
個数の行遅延回路(例えばラインバッファやFIFO)
とレジスタを用いて局所画素領域の画素データを抽出
し、これらの画像データを特徴情報抽出部502に送
る。特徴情報抽出部502は、局所データ抽出回路50
1から送られてきた局所画素領域の画素データから注目
点(局所画素領域の中心画素)の画素データを選択的に
抜き出すとともに、局所画素領域の周辺部(図8の斜線
部)の画素データを抜き出して算術演算回路503によ
ってその平均値を計算し、比較選択回路504によって
その内最大のものを抜き出す。特徴量演算回路505
は、例えば乗除算器と加減算器の組み合わせ、又は、注
目点画素データと平均値と最大値の組み合わせとをアド
レス入力とするメモリ(ルックアップテーブル:この場
合メモリには注目点画素データと平均値と最大値がとり
うる値の全ての組み合わせに対する特徴量計算結果がそ
の組み合わせ値をアドレスとする場所に予め記憶されて
いる)で構成されており、注目点の画素データと局所画
素領域周辺部の平均値と最大値とから例えば参考例4で
示した一次特徴量を算出する。 [0122] local data extraction circuit 501, for example, reference
Row delay circuit number corresponding to the magnitude of the background local pixel area shown in FIG. 8 of Example 4 (for example, a line buffer or FIFO)
Then, the pixel data of the local pixel region is extracted using the register and the register, and the image data is sent to the feature information extracting unit 502. The feature information extraction unit 502 includes a local data extraction circuit 50
The pixel data at the point of interest (the center pixel of the local pixel region) is selectively extracted from the pixel data of the local pixel region sent from No. 1 and the pixel data at the periphery of the local pixel region (the hatched portion in FIG. 8) is extracted. The average value is calculated by the arithmetic operation circuit 503, and the maximum value is extracted by the comparison and selection circuit 504. Feature calculation circuit 505
Is, for example, a memory (look-up table: in this case, a combination of a combination of a multiplier / divider and an adder / subtractor or a combination of a target pixel data, an average value, and a maximum value). And feature value calculation results for all combinations of values that can take the maximum value are stored in advance at a location where the combination value is used as an address). For example , the primary feature amount shown in Reference Example 4 is calculated from the average value and the maximum value.
【0123】 目標判定部6の比較判定回路602(例え
ばコンパレータ)は、特徴量演算回路505によって算
出された一次特徴量を予め与えられた閾値と比較し、閾
値より大きい場合には例えば論理”1”を出力し、閾値
より小さい場合には例えば論理”0”を出力する。な
お、閾値は閾値保持回路601(例えばメモリ)に記憶
されており、比較判定回路602への一次特徴量の入力
と同期して読み出され、比較判定回路602に送られ
る。 [0123] comparative determination circuit 602 of the target determination unit 6 (e.g., comparator), the feature amount calculating circuit primary characteristic amount calculated compared to the pre-given threshold by 505, when greater than the threshold, for example a logic "1 Is output, and if it is smaller than the threshold value, for example, logic “0” is output. The threshold value is stored in a threshold value holding circuit 601 (for example, a memory), read out in synchronization with the input of the primary feature amount to the comparison / determination circuit 602, and sent to the comparison / determination circuit 602.
【0124】 なお、この参考例9では、局所データ抽出
回路501、算術演算回路503、比較選択回路50
4、及び特徴量演算回路505等をそれぞれ1回路で説
明したが、参考例5のように複数の局所画素領域や一次
特徴量を処理する場合には、それに応じた個数の回路を
具備することで処理を高速に行えることは言うまでもな
い。 In the ninth embodiment , the local data extraction circuit 501, the arithmetic operation circuit 503, the comparison / selection circuit 50
4 and the feature value calculation circuit 505 are each described as one circuit. However, when processing a plurality of local pixel regions and primary feature values as in Reference Example 5, the number of circuits corresponding to the number should be provided. It goes without saying that processing can be performed at high speed.
【0125】参考例10 . 図18はこの発明の参考例10による目標検出装置の構
成を示すブロック図であり、図において、5は一次特徴
量算出部、6は目標判定部、7は再現性判定部(再現性
判定手段)、501は局所データ抽出回路、502は特
徴情報抽出部、503は算術演算回路、504は比較選
択回路、505は特徴量演算回路、601は閾値保持回
路、602は比較判定回路、701は候補保持回路、7
02は近傍比較回路である。 Reference Example 10 FIG. 18 is a block diagram showing a configuration of a target detecting apparatus according to Embodiment 10 of the present invention. In FIG. 18, reference numeral 5 denotes a primary feature amount calculating unit, 6 denotes a target determining unit, and 7 denotes a reproducibility determining unit (reproducibility determining unit). ), 501 is a local data extraction circuit, 502 is a feature information extraction unit, 503 is an arithmetic operation circuit, 504 is a comparison / selection circuit, 505 is a feature amount operation circuit, 601 is a threshold value holding circuit, 602 is a comparison and judgment circuit, and 701 is a candidate. Holding circuit, 7
02 is a neighborhood comparison circuit.
【0126】 次に動作について説明する。処理の対象と
なる画像が撮像され、量子化された後、一次特徴量算出
部5で一次特徴量が計算され、目標判定部6で予め閾値
と比較されるまでは参考例9と同様に実行される。この
参考例9による目標検出装置は、目標判定部6から出力
される判定結果を候補検出結果として扱う。 [0126] Next, the operation will be described. After the image to be processed is captured and quantized, the primary feature amount is calculated by the primary feature amount calculation unit 5 and executed in the same manner as in the reference example 9 until it is compared with the threshold value in advance by the target determination unit 6. Is done. this
The target detection device according to the ninth embodiment handles the determination result output from the target determination unit 6 as a candidate detection result.
【0127】 目標判定部6で候補を検出した結果(一次
特徴量が閾値より大きい場合には論理”1”が出力さ
れ、閾値より小さい場合には論理”0”が出力され
る。)は再現性判定部7の候補保持回路701及び近傍
比較回路702に送られる。 The result of the candidate detection by the target determination unit 6 (the logic “1” is output when the primary feature value is larger than the threshold value, and the logic “0” is output when the primary feature value is smaller than the threshold value) is reproduced. It is sent to the candidate holding circuit 701 and the neighborhood comparison circuit 702 of the gender determination unit 7.
【0128】 候補保持回路701は目標判定部6の出力
を全て記憶する。なお、候補保持回路701は例えば入
力画像と同じサイズ(Ix×Iy画素)で深さ1ビット
のメモリで構成されており、目標判定部6の出力はメモ
リの0番地から順に記憶される。この場合、入力画像の
座標(x,y)を注目点として処理した結果は候補保持
回路701のメモリの(x,y)座標に記憶されること
になる。ただし、候補保持回路701のメモリにおける
(x,y)座標のデータについて考えると、時刻Tの入
力画像の座標(x,y)を注目点として処理した結果が
候補保持回路701のメモリの座標(x,y)に書き込
まれる直前には、時刻(T−1)の入力画像の座標
(x,y)を注目点として処理した結果が候補保持回路
701のメモリの座標(x,y)から読み出される。こ
れは、判定比較回路に入力される2つのデータ(1つは
目標判定部6から直接入力され、1つは候補保持回路7
01から入力される)のうち、候補保持回路701から
与えるデータを1時刻分遅らせることを意味する。 The candidate holding circuit 701 stores all the outputs of the target judgment section 6. The candidate holding circuit 701 is composed of a memory having the same size (Ix × Iy pixels) as the input image and a depth of 1 bit, for example, and outputs of the target determination unit 6 are stored in order from address 0 of the memory. In this case, the result of processing the coordinates (x, y) of the input image as the point of interest is stored in the (x, y) coordinates of the memory of the candidate holding circuit 701. However, considering the data of the (x, y) coordinates in the memory of the candidate holding circuit 701, the result of processing the coordinates (x, y) of the input image at time T as the point of interest is represented by the coordinates ( Immediately before being written to (x, y), the result of processing using the coordinates (x, y) of the input image at time (T−1) as a point of interest is read from the coordinates (x, y) of the memory of the candidate holding circuit 701. It is. This is because two data (one is input directly from the target determination unit 6 and one is input to the candidate holding circuit 7
(Input from 01) means that the data given from the candidate holding circuit 701 is delayed by one time.
【0129】 近傍比較回路702は、候補保持回路70
1から順次与えられる時刻(T−1)の判定結果から近
傍データを抽出するための例えばラインバッファとレジ
スタ、及び近傍データと目標判定部6の出力を比較する
比較器とで構成され、目標判定部6が出力する時刻Tに
おける座標(x,y)の判定結果が論理”1”で、かつ
時刻(T−1)における座標(x,y)の近傍(座標
(x,y)を中心とするn×nの領域)の判定結果(時
刻(T−1)の判定結果は候補保持回路701に記憶さ
れている。また、近傍比較回路702は、候補保持回路
701の読み出し動作によって与えられる)に1つでも
論理”1”があれば目標判定部6が出力した時刻Tにお
ける座標(x,y)の判定結果が正しかったと判断して
論理”1”をそのまま出力し、時刻Tにおける座標
(x,y)の判定結果が論理”1”であるにもかかわら
ず、時刻T−1における座標(x,y)の近傍の判定結
果に1つも論理”0”がない場合には目標判定部6が出
力した時刻Tにおける座標(x,y)の判定結果が間違
っていたと判断して論理”0”に変更して出力する。な
お、時刻Tにおける座標(x,y)の判定結果が論理”
0”である場合には無条件に論理”0”をそのまま出力
する。 The neighborhood comparison circuit 702 includes a candidate holding circuit 70
It is composed of, for example, a line buffer and a register for extracting neighboring data from the determination result at the time (T-1) sequentially given from 1 and a comparator for comparing the neighboring data with the output of the target determining unit 6, and The determination result of the coordinates (x, y) at time T output by the unit 6 is logic “1”, and the vicinity of the coordinates (x, y) at time (T−1) (centering on the coordinates (x, y)) (The (n × n) region to be determined) (the determination result at time (T−1) is stored in the candidate holding circuit 701. The neighborhood comparing circuit 702 is given by the reading operation of the candidate holding circuit 701). If there is at least one logic “1”, the determination result of the coordinates (x, y) at time T output by the target determination unit 6 is determined to be correct, and the logic “1” is output as it is, and the coordinates ( x, y) If there is no logic "0" in the determination result near the coordinates (x, y) at time T-1 even though the logic is "1", the coordinates at time T output by the target determination unit 6 It is determined that the determination result of (x, y) is incorrect, and is changed to logic "0" and output. Note that the determination result of the coordinates (x, y) at time T is a logical "
If it is "0", the logic "0" is output unconditionally.
【0130】参考例11 . 図19はこの発明の参考例11による目標検出装置の構
成を示すブロック図であり、図において、5は一次特徴
量算出部、6は目標判定部、506は時空間局所データ
抽出部、507は入力画像保持回路、501は局所デー
タ抽出回路、502は特徴情報抽出部、503は算術演
算回路、504は比較選択回路、505は特徴量演算回
路、601は閾値保持回路、602は比較判定回路であ
る。 Reference Example 11 FIG. 19 is a block diagram showing a configuration of a target detecting apparatus according to Embodiment 11 of the present invention. In FIG. 19, reference numeral 5 denotes a primary feature amount calculating unit, 6 is a target determining unit, 506 is a spatiotemporal local data extracting unit, and 507 is An input image holding circuit, 501 is a local data extraction circuit, 502 is a feature information extraction unit, 503 is an arithmetic operation circuit, 504 is a comparison / selection circuit, 505 is a feature amount operation circuit, 601 is a threshold value holding circuit, and 602 is a comparison determination circuit. is there.
【0131】 次に動作について説明する。処理の対象と
なる画像が撮像され、量子化された後、一次特徴量算出
部5に入力されるまでは前記参考例9と同様に実行され
る。 [0131] Next, the operation will be described. After an image to be processed is captured and quantized, the process is performed in the same manner as in the ninth embodiment until the image is input to the primary feature amount calculation unit 5.
【0132】 時空間局所データ抽出部506に入力され
た時刻Tの画像データは入力画像保持回路507と局所
データ抽出回路501に送られる。入力画像保持回路5
07は例えば2ポートのメモリで構成されており、時刻
Tの入力開始時には時刻(T−1)の画像データを記憶
している。時刻Tの画像が左上から右下へ向かって順次
入力されると、それに同期して時刻(T−1)の画像を
左上から右下へ向かって順次読み出すとともに、時刻T
の画像データを順次記憶する。即ち、入力画像保持回路
507は、メモリの各アドレス(x,y)において、時
刻Tの画像データの座標(x,y)の画素データが送ら
れてきたとき、アドレス(x,y)に記憶されていた時
刻(T−1)の画像データの座標(x,y)の画素デー
タを読み出し、その直後に時刻Tの画像データの座標
(x,y)の画素データを新たに記憶する。この一連の
動作によって、入力画像は入力画像保持回路507にお
いて1時刻分だけ遅れることになる。一方、局所データ
抽出回路501は例えば参考例8の図16で示した時空
間背景局所画素領域の画素データを抽出する為に、時空
間背景局所画素領域の空間的大きさに応じた個数の行遅
延回路(例えばラインバッファやFIFO)と、時刻T
の入力画像用と時刻(T−1)の入力画像(入力画像保
持回路507から送られてくる)用の2セットのレジス
タとを備えており、各時刻(Tと(T−1))の入力画
像から背景局所画素領域の画素データを抽出し、特徴情
報抽出部502に送る。 [0132] Image data of time T which is input to the space-time local data extracting section 506 is sent to the input image holding circuit 507 and the local data extraction circuit 501. Input image holding circuit 5
Reference numeral 07 includes, for example, a two-port memory, and stores image data at time (T-1) at the start of input of time T. When the image at time T is sequentially input from the upper left to the lower right, the image at the time (T-1) is sequentially read from the upper left to the lower right in synchronization with the input, and
Are sequentially stored. That is, when the pixel data of the coordinates (x, y) of the image data at the time T is transmitted at each address (x, y) of the memory, the input image holding circuit 507 stores the data at the address (x, y). The pixel data at the coordinates (x, y) of the image data at the time (T-1) is read out, and immediately thereafter, the pixel data at the coordinates (x, y) of the image data at the time T is newly stored. By this series of operations, the input image is delayed by one time in the input image holding circuit 507. On the other hand, the local data extraction circuit 501 extracts, for example , pixel data of the spatiotemporal background local pixel area shown in FIG. A delay circuit (for example, a line buffer or FIFO) and a time T
And two sets of registers for the input image at time (T-1) and the input image at time (T-1) (sent from the input image holding circuit 507). The pixel data of the background local pixel region is extracted from the input image and sent to the feature information extraction unit 502.
【0133】 算術演算回路503、比較選択回路504
及び特徴量演算回路505は、時空間局所データ抽出部
506で抽出された各時刻(Tと(T−1))の局所画
素領域の画素データを入力として、注目画素領域(図1
6の黒塗り部)や局所画素領域の周辺部(図16の斜線
部)の画素データを選択的に抜き出して、例えば参考例
8に示したような一次特徴量を計算し、結果を目標判定
部6に送る。 [0133] Arithmetic circuits 503, comparison and selection circuit 504
The feature value calculation circuit 505 receives the pixel data of the local pixel region at each time (T and (T−1)) extracted by the spatiotemporal local data extraction unit 506, and receives the pixel data of the target pixel region (FIG. 1).
6) and pixel data in the peripheral portion of the local pixel region (the hatched portion in FIG. 16) are selectively extracted, for example, as a reference example.
The primary characteristic amount as shown in FIG. 8 is calculated, and the result is sent to the target determination unit 6.
【0134】 目標判定部6は、参考例9で示した目標判
定部6と同じ動作をし、目標を検出する。 The target judging section 6 operates in the same manner as the target judging section 6 shown in Embodiment 9 to detect a target.
【0135】参考例12 . 図20はこの発明の参考例12による目標検出装置の構
成を示すブロック図であり、図において、5は一次特徴
量算出部、6は目標判定部、501は局所データ抽出回
路、502は特徴情報抽出部、503は算術演算回路、
504は比較選択回路、505は特徴量演算回路、8は
一次特徴量保持回路(一次特徴量保持回路)、601は
閾値保持回路、603は演算比較判定回路である。 Reference Example 12 FIG. 20 is a block diagram showing a configuration of a target detection apparatus according to Embodiment 12 of the present invention. In the figure, reference numeral 5 denotes a primary feature amount calculation unit, 6 is a target determination unit, 501 is a local data extraction circuit, and 502 is feature information. An extraction unit, 503 is an arithmetic operation circuit,
Reference numeral 504 denotes a comparison / selection circuit, reference numeral 505 denotes a feature value calculation circuit, reference numeral 8 denotes a primary feature value holding circuit (primary feature value holding circuit), reference numeral 601 denotes a threshold value holding circuit, and reference numeral 603 denotes a calculation comparison / determination circuit.
【0136】 次に動作について説明する。処理の対象と
なる画像が撮像され、量子化された後、一次特徴量算出
部5に入力された後、局所データ抽出回路501を経由
して特徴情報抽出部502で一次特徴量が算出されるま
では前記参考例9と同様に実行される。時刻Tの入力画
像に対して算出された一次特徴量は目標判定部6に送ら
れると同時に、一次特徴量保持回路8に送られる。 [0136] Next, the operation will be described. After an image to be processed is captured and quantized, the image is input to the primary feature amount calculation unit 5, and the primary feature amount is calculated by the feature information extraction unit 502 via the local data extraction circuit 501. The steps up to this point are performed in the same manner as in the ninth embodiment . The primary feature amount calculated for the input image at time T is sent to the target determination unit 6 and at the same time to the primary feature amount holding circuit 8.
【0137】 一次特徴量保持回路8は例えば2ポートの
メモリで構成されており、時刻Tの入力開始時には時刻
(T−1)の一次特徴量を記憶している。時刻Tの画像
が左上から右下へ向かって順次入力され、各画素を注目
点として一次特徴量が算出されると、それに同期して時
刻(T−1)の一次特徴量を順次読み出すとともに、時
刻Tの一次特徴量を順次記憶する。即ち、一次特徴量保
持回路8は、メモリの各アドレス(x,y)について、
時刻Tの画像データの座標(x,y)を注目点とした一
次特徴量が送られてきたとき、アドレス(x,y)に記
憶されていた時刻(T−1)の画像データの座標(x,
y)を注目点とした一次特徴量を読み出して目標判定部
6に送り、その直後に時刻Tの画像データの座標(x,
y)を注目点とした一次特徴量を新たに記憶する。この
一連の動作によって、一次特徴量は一次特徴量保持回路
8において1時刻分だけ遅れることになる。 The primary characteristic amount holding circuit 8 is formed of, for example, a two-port memory, and stores the primary characteristic amount at time (T-1) at the start of input of time T. When the image at the time T is sequentially input from the upper left to the lower right, and the primary feature amount is calculated with each pixel as a point of interest, the primary feature amount at the time (T-1) is sequentially read out in synchronization with the primary feature amount. The primary feature values at time T are sequentially stored. That is, the primary feature value holding circuit 8 calculates the address (x, y) of the memory
When the primary feature amount having the coordinates (x, y) of the image data at the time T as the point of interest is transmitted, the coordinates (the coordinates of the image data at the time (T-1) stored at the address (x, y) ( x,
y) is read out and sent to the target determination unit 6, and immediately after that, the coordinates (x,
The primary feature amount with y) as the point of interest is newly stored. By this series of operations, the primary feature amount is delayed by one time in the primary feature amount holding circuit 8.
【0138】 目標判定部6に入力された時刻Tの座標
(x,y)を注目点とした一次特徴量と時刻(T−1)
の座標(x,y)を注目点とした一次特徴量は演算比較
判定回路603によって平均値処理され、結果を閾値保
持回路601の内容と比較される。比較の結果、閾値よ
り大きければ目標として論理”1”を出力し、小さけれ
ば論理”0”を出力する。 The primary feature quantity and time (T-1) using the coordinates (x, y) at time T input to the target determination unit 6 as a point of interest
The primary feature amount having the coordinates (x, y) of the target point as an attention point is subjected to an average value processing by the operation comparison and determination circuit 603, and the result is compared with the contents of the threshold value holding circuit 601. As a result of the comparison, if the value is larger than the threshold value, logic "1" is output as a target, and if it is smaller, logic "0" is output.
【0139】[0139]
【発明の効果】以上のように、請求項1の発明によれ
ば、多くの局所画素領域を設定し、少なくとも注目画素
領域の輝度と目標局所画素領域の輝度とを用いて演算に
より複数の一次的な一次特徴量を算出するように構成し
たので、輝度のばらつきが大きい雲や陸地が背景の場合
や背景に対して目標の輝度が十分大きいとは言えない場
合でもより精度よく目標を検出できる効果がある。ま
た、一次特徴量を算出するための処理は非常に単純であ
り、コスト的にも比較的安価に実現できる効果もある。As described above, according to the first aspect of the present invention, many local pixel areas are set, and at least
Calculation using the brightness of the area and the brightness of the target local pixel area
It is configured to calculate more primary primary features.
Therefore, there is an effect that the target can be detected with higher accuracy even in the case where the background of the cloud or land has a large variation in luminance or the case where the luminance of the target is not sufficiently large with respect to the background. Further, the processing for calculating the primary feature amount is very simple, and has an effect that it can be realized at a relatively low cost.
【0140】 請求項2の発明によれば、背景局所画素領
域において、最大輝度、平均輝度、及び最小輝度の内の
少なくともいずれか2つの輝度を求め、これらの輝度か
らディジタル画像を得るためのセンサのノイズ成分を除
去した背景局所画素領域本来の輝度の標準偏差を推定
し、少なくとも該推定結果と注目画素領域の輝度と背景
局所画素領域の1つの輝度とを用いて演算により一次的
な一次特徴量を算出するように構成したので、注目画素
領域と背景の輝度差を背景の輝度のばらつきで正規化し
た一次特徴量を評価することで、輝度のばらつきが大き
い雲や陸地が背景の場合でも目標を検出できる効果があ
る。また、一次特徴量を算出するための処理は非常に単
純であり、コスト的にも比較的安価に実現できる効果も
ある。 [0140] According to the second aspect of the invention, in the background the local pixel area, the maximum luminance, the average luminance, and obtains at least any two of the luminance of the lowest luminance, the sensor for obtaining digital images from these brightness The standard deviation of the original luminance of the background local pixel region from which the noise component has been removed is estimated, and the primary primary feature is calculated by using at least the estimation result, the luminance of the pixel region of interest, and the luminance of one of the background local pixel regions. Because it is configured to calculate the amount, by evaluating the primary feature amount obtained by normalizing the luminance difference between the target pixel area and the background with the variation in the background luminance, even if the cloud or land with large luminance variation is the background There is an effect that the target can be detected. Further, the processing for calculating the primary feature amount is very simple, and has an effect that it can be realized at a relatively low cost.
【0141】 請求項3の発明によれば、目標を判定する
際に、予め背景とわかっている少なくとも1つのディジ
タル画像の各画素について少なくとも1つの一次特徴量
を算出し、少なくとも1つの一次特徴量を1つの軸とす
る少なくとも1次元の空間に一次特徴量をマッピングす
ることにより背景画素の一次特徴量分布を生成して該一
次特徴量分布の統計量を計算し、背景であるか又は目標
であるか未知な画素を含む注目画素領域に対して算出さ
れた少なくとも1つの一次特徴量の空間における位置
と、統計量によって定まる一次特徴量分布の分布中心位
置との間の距離を算出し、該距離が所定の距離閾値より
大きい場合に注目画素領域が目標を含むと判定するよう
に構成したので、背景の状態や目標と背景の輝度差など
の先見的な知識を必要としない効果がある。また、一次
特徴量を算出するための処理は非常に単純であり、コス
ト的にも比較的安価に実現できる効果もある。 [0141] According to the invention of claim 3, in determining the target, to calculate at least one primary feature amount for each pixel of the at least one digital image is known in advance the background, at least one primary feature quantity The primary feature distribution is generated by mapping the primary feature in at least a one-dimensional space having as one axis, and the statistic of the primary feature distribution is calculated. Calculating a distance between a position in a space of at least one primary feature amount calculated for a target pixel area including a certain or unknown pixel and a distribution center position of a primary feature amount distribution determined by a statistic; Since the target pixel area is determined to include the target when the distance is larger than the predetermined distance threshold, a priori knowledge such as the background state and the luminance difference between the target and the background is required. There is no effect with. Further, the processing for calculating the primary feature amount is very simple, and has an effect that it can be realized at a relatively low cost.
【図1】 この発明の参考例1による目標検出処理を示
すフローチャート図である。FIG. 1 is a flowchart illustrating a target detection process according to a first embodiment of the present invention;
【図2】 この発明の参考例1の発明の一参考例におけ
る目標の輝度分布を示す図である。2 is a diagram showing a luminance distribution of <br/> Ru target put to an Example of the invention of Example 1 of the present invention.
【図3】 この発明の参考例2による目標検出処理を示
すフローチャート図である。FIG. 3 is a flowchart illustrating a target detection process according to a second embodiment of the present invention;
【図4】 この発明の参考例2における局所画素領域の
例を示す図である。FIG. 4 is a diagram showing an example of a local pixel region according to a second embodiment of the present invention;
【図5】 この発明の参考例3による目標検出処理を示
すフローチャート図である。FIG. 5 is a flowchart illustrating a target detection process according to a third embodiment of the present invention;
【図6】 この発明の参考例3における局所画素領域の
例を示す図である。FIG. 6 is a diagram showing an example of a local pixel region in a third embodiment of the present invention.
【図7】 この発明の参考例4による目標検出処理を示
すフローチャート図である。FIG. 7 is a flowchart illustrating a target detection process according to a fourth embodiment of the present invention;
【図8】 この発明の参考例4における局所画素領域の
例を示す図である。FIG. 8 is a diagram showing an example of a local pixel region in a fourth embodiment of the present invention.
【図9】 この発明の参考例5による目標検出処理を示
すフローチャート図である。FIG. 9 is a flowchart showing a target detection process according to Embodiment 5 of the present invention.
【図10】 この発明の参考例5における局所画素領域
の例を示す図である。FIG. 10 is a diagram showing an example of a local pixel region in a fifth embodiment of the present invention.
【図11】 この発明の参考例6による目標検出処理を
示すフローチャート図である。FIG. 11 is a flowchart showing a target detection process according to Embodiment 6 of the present invention.
【図12】 この発明の実施例1による目標検出処理を
示すフローチャート図である。FIG. 12 is a flowchart illustrating a target detection process according to the first embodiment of the present invention.
【図13】 この発明の実施例2による目標検出処理を
示すフローチャート図である。FIG. 13 is a flowchart illustrating a target detection process according to the second embodiment of the present invention.
【図14】 この発明の参考例7による目標検出処理を
示すフローチャート図である。FIG. 14 is a flowchart illustrating a target detection process according to Embodiment 7 of the present invention;
【図15】 この発明の参考例8による目標検出処理を
示すフローチャート図である。FIG. 15 is a flowchart showing a target detection process according to Embodiment 8 of the present invention.
【図16】 この発明の参考例8における局所画素領域
の例を示す図である。FIG. 16 is a diagram showing an example of a local pixel area in Embodiment 8 of the present invention.
【図17】 この発明の参考例9の目標検出装置の構成
を示すブロック図である。FIG. 17 is a block diagram illustrating a configuration of a target detection device according to Embodiment 9 of the present invention;
【図18】 この発明の参考例10の目標検出装置の構
成を示すブロック図である。FIG. 18 is a block diagram showing a configuration of a target detection device according to Embodiment 10 of the present invention.
【図19】 この発明の参考例11の目標検出装置の構
成を示すブロック図である。FIG. 19 is a block diagram showing a configuration of a target detection device according to Embodiment 11 of the present invention.
【図20】 この発明の参考例12の目標検出装置の構
成を示すブロック図である。FIG. 20 is a block diagram illustrating a configuration of a target detection apparatus according to Embodiment 12 of the present invention;
【図21】 従来の目標検出装置の構成を示すブロック
図である。FIG. 21 is a block diagram showing a configuration of a conventional target detection device.
【図22】 従来の目標検出装置で用いられる孤立点抽
出フィルタの形状を示す図である。FIG. 22 is a diagram showing the shape of an isolated point extraction filter used in a conventional target detection device.
【図23】 従来の目標検出で抽出される孤立点を示す
図である。FIG. 23 is a diagram showing isolated points extracted by conventional target detection.
6 目標判定部(目標判定手段)、7 再現性判定部
(再現性判定手段)、8一次特徴量保持回路(一次特徴
量保持手段)、12 注目画素領域、13,14,15
目標局所画素領域、16 背景局所画素領域、17
時空間注目画素領域、18 時空間背景局所画素領域
(時空間局所画素領域)、501 局所データ抽出回路
(局所データ抽出手段)、502 特徴情報抽出部(特
徴情報抽出手段)、ST2 一次特徴量算出処理、ST
3 目標判定処理。6 target determination unit (target determination unit), 7 reproducibility determination unit (reproducibility determination unit), 8 primary feature amount holding circuit (primary feature amount holding unit), 12 pixel area of interest, 13, 14, 15
Target local pixel area, 16 Background local pixel area, 17
Spatio-temporal attention pixel area, 18 spatio-temporal background local pixel area (spatio-temporal local pixel area), 501 local data extraction circuit (local data extraction means), 502 feature information extraction unit (feature information extraction means), ST2 primary feature amount calculation Processing, ST
3 Target judgment processing.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−196381(JP,A) 実開 平2−46264(JP,U) 実開 平3−59784(JP,U) 実開 平5−83859(JP,U) 実開 昭58−125883(JP,U) 実開 平1−116853(JP,U) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 7/18 ──────────────────────────────────────────────────続 き Continued from the front page (56) References JP-A-2-196381 (JP, A) JP-A-2-46264 (JP, U) JP-A-3-59784 (JP, U) JP-A-5 83859 (JP, U) Japanese Utility Model Showa 58-125883 (JP, U) Japanese Utility Model Utility Model No. 1-116853 (JP, U) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7/00-7 / 60 G06T 1/00 H04N 7/18
Claims (3)
対象領域として設定し、注目する画素を順次移動させて
目標を検出する目標検出方法において、前記検出対象領
域中に少なくとも1つの画素を含む注目画素領域を設定
し、前記注目画素領域周囲に位置する少なくとも第1、
第2、第3及び第4の局所画素領域を設定し、前記第1
の局所画素領域は前記注目画素領域を中心として該注目
画素領域を取り囲んでいると共に、検出すべき目標の予
想される大きさ以下の大きさを有する目標局所画素領域
であり、前記第2及び第3の局所画素領域は前記注目画
素領域を中心として該注目画素領域の周囲に位置してい
ると共に、検出すべき目標の予想される大きさ以下の大
きさを有する目標局所画素領域であり、前記第4の局所
画素領域は前記注目画素領域を中心として該注目画素領
域を取り囲んでいると共に、検出すべき目標の予想され
る大きさ以上の大きさを有する背景局所画素領域であ
り、少なくとも前記注目画素領域の輝度、前記目標局所
画素領域の輝度、及び前記背景局所画素領域の輝度を用
いて演算により複数の一次的な一次特徴量を算出し、前
記一次特徴量を評価して前記注目画素領域が目標を含む
か否かを判定することを特徴とする目標検出方法。1. A target detection method for setting a whole or a part of a digital image as a detection target area and sequentially moving a pixel of interest to detect a target, wherein the target area includes at least one pixel in the detection target area. A pixel area is set, and at least first,
Setting second, third and fourth local pixel regions,
Of the local pixel region is centered on the pixel region of interest.
Surrounds the pixel area and predicts the target to be detected.
A target local pixel area having a size less than or equal to the expected size
And the second and third local pixel regions are
Pixel region around the pixel region of interest with the pixel region as the center.
Of the target to be detected
A target local pixel region having a size,
The pixel area is centered on the target pixel area,
Surrounding the area and the expected
Background local pixel area with a size larger than
At least the brightness of the target pixel area, the target local
The brightness of the pixel area and the brightness of the background local pixel area are used.
And calculating a plurality of primary primary features by calculation, and evaluating the primary features to determine whether the target pixel region includes a target.
度、平均輝度、及び最小輝度の内の少なくともいずれか
2つの輝度を求め、これらの輝度からディジタル画像を
得るためのセンサのノイズ成分を除去した前記背景局所
画素領域本来の輝度の標準偏差を推定し、少なくとも該
推定結果と前記注目画素領域の輝度と前記背景局所画素
領域の1つの輝度とを用いて演算により一次的な一次特
徴量を算出することを特徴とする請求項1に記載の目標
検出方法。2. In the background local pixel area, at least any two luminances of a maximum luminance, an average luminance, and a minimum luminance are obtained, and a noise component of a sensor for obtaining a digital image is removed from these luminances. A standard deviation of the original luminance of the background local pixel area is estimated, and a primary primary feature amount is calculated by calculation using at least the estimation result, the luminance of the pixel area of interest, and one luminance of the background local pixel area. The target detection method according to claim 1 , wherein
かっている少なくとも1つのディジタル画像の各画素に
ついて少なくとも1つの前記一次特徴量を算出し、少な
くとも1つの前記一次特徴量を1つの軸とする少なくと
も1次元の空間に前記一次特徴量をマッピングすること
により背景画素の一次特徴量分布を生成して該一次特徴
量分布の統計量を計算し、背景であるか又は目標である
か未知な画素を含む注目画素領域に対して算出された少
なくとも1つの一次特徴量の前記空間における位置と、
前記統計量によって定まる前記一次特徴量分布の分布中
心位置との間の距離を算出し、該距離が所定の距離閾値
より大きい場合に前記注目画素領域が目標を含むと判定
することを特徴とする請求項1または請求項2に記載の
目標検出方法。3. The method of claim 1, further comprising: calculating at least one primary feature value for each pixel of at least one digital image known in advance as a background; and determining at least one primary feature value on one axis. By generating the primary feature distribution of the background pixel by mapping the primary feature in at least a one-dimensional space, and calculating the statistic of the primary feature distribution, whether the background is a background or a target is unknown. A position in the space of at least one primary feature amount calculated for the pixel region of interest including
Calculating a distance from the distribution center position of the primary feature amount distribution determined by the statistic, and determining that the target pixel region includes a target when the distance is larger than a predetermined distance threshold value; The target detection method according to claim 1 or 2 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13067594A JP3355027B2 (en) | 1994-06-13 | 1994-06-13 | Target detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13067594A JP3355027B2 (en) | 1994-06-13 | 1994-06-13 | Target detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07334673A JPH07334673A (en) | 1995-12-22 |
JP3355027B2 true JP3355027B2 (en) | 2002-12-09 |
Family
ID=15039933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13067594A Expired - Fee Related JP3355027B2 (en) | 1994-06-13 | 1994-06-13 | Target detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3355027B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6690828B2 (en) * | 2001-04-09 | 2004-02-10 | Gary Elliott Meyers | Method for representing and comparing digital images |
JP2007164617A (en) * | 2005-12-15 | 2007-06-28 | Yamaguchi Univ | Template forming method using gaussian function, and vision input communication method using eye motion |
JP4999788B2 (en) * | 2008-06-26 | 2012-08-15 | 三菱電機株式会社 | Moving target detection apparatus, computer program, and moving target detection method |
JP5634283B2 (en) * | 2011-01-31 | 2014-12-03 | 三菱電機株式会社 | Signal processing device |
JP6338429B2 (en) * | 2014-04-15 | 2018-06-06 | キヤノン株式会社 | Subject detection apparatus, subject detection method, and program |
JP6580201B2 (en) * | 2018-05-10 | 2019-09-25 | キヤノン株式会社 | Subject detection apparatus, subject detection method, and program |
-
1994
- 1994-06-13 JP JP13067594A patent/JP3355027B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07334673A (en) | 1995-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100371470B1 (en) | A New Perceptual Thresholding for Gradient-Based Local Edge Detection | |
JP3964327B2 (en) | Method and apparatus for determining a region of interest in an image and image transmission method and apparatus | |
Ahmad et al. | Local threshold and boolean function based edge detection | |
US6229921B1 (en) | Pattern matching system and method with improved template image sampling using low discrepancy sequences | |
CN111028276A (en) | Image alignment method and device, storage medium and electronic equipment | |
CN110708568B (en) | Video content mutation detection method and device | |
CN110443170B (en) | Human body key point determining method and device and electronic equipment | |
JP3355027B2 (en) | Target detection method | |
WO2020140611A1 (en) | Vin code identification method based on image processing, device and medium | |
CN111079730A (en) | Method for determining area of sample image in interface image and electronic equipment | |
CN108229583B (en) | Method and device for fast template matching based on main direction difference characteristics | |
CN115239661A (en) | Mechanical part burr detection method and system based on image processing | |
US20040131236A1 (en) | Method and apparatus for processing an image | |
US6219452B1 (en) | Pattern matching system and method which performs local stability analysis for improved efficiency | |
CN112883762A (en) | Living body detection method, device, system and storage medium | |
JP2000339471A (en) | Method and device for extracting picture | |
CN108805883B (en) | Image segmentation method, image segmentation device and electronic equipment | |
JPH11312243A (en) | Facial region detector | |
CN118429375A (en) | Image edge detection method based on improved canny algorithm | |
JP3508836B2 (en) | Apparatus and method for detecting approximate position of two-dimensional code | |
US20180150966A1 (en) | System and method for estimating object size | |
US20240320806A1 (en) | Image processing method and apparatus, electronic device and computer readable storage medium | |
JP2000194861A (en) | Method and device for recognizing image | |
CN108345893B (en) | Straight line detection method and device, computer storage medium and terminal | |
JP3163216B2 (en) | Representative feature value extraction method and representative feature value extraction device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080927 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080927 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090927 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090927 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100927 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |