JP3461143B2 - Color image target position detection device - Google Patents

Color image target position detection device

Info

Publication number
JP3461143B2
JP3461143B2 JP14884399A JP14884399A JP3461143B2 JP 3461143 B2 JP3461143 B2 JP 3461143B2 JP 14884399 A JP14884399 A JP 14884399A JP 14884399 A JP14884399 A JP 14884399A JP 3461143 B2 JP3461143 B2 JP 3461143B2
Authority
JP
Japan
Prior art keywords
signal
chromaticity
minimum
point
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14884399A
Other languages
Japanese (ja)
Other versions
JP2000341704A (en
Inventor
宏 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP14884399A priority Critical patent/JP3461143B2/en
Publication of JP2000341704A publication Critical patent/JP2000341704A/en
Application granted granted Critical
Publication of JP3461143B2 publication Critical patent/JP3461143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、テレビジョンカメ
ラで撮影した可視画像による目標追尾を行うためのカラ
ー目標位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color target position detecting device for performing target tracking with a visible image taken by a television camera.

【0002】[0002]

【従来の技術】従来、この種の目標追尾装置において
は、テレビジョンカメラで撮影した画像により、目標物
の動きを検出することによって、撮像方向の自動追従を
実現している。この動きを検出する方法としては、目標
物の周辺画像または特徴部分の画像によって定義した基
準の画像ブロックに対して相関が最大となるブロックの
位置を撮像画像中から検出する方法が一般的に用いられ
てきた。
2. Description of the Related Art Conventionally, in a target tracking device of this type, automatic tracking in the image pickup direction is realized by detecting the movement of a target object from an image taken by a television camera. As a method of detecting this motion, a method of detecting the position of the block having the maximum correlation with respect to the reference image block defined by the peripheral image of the target object or the image of the characteristic portion from the captured image is generally used. Has been.

【0003】この方法の場合、目標物の大きさが変わっ
たり変形した場合には、追尾が困難となる欠点があるの
に加え、相関を取るための回路規模が極めて大きくな
る。また、CPU処理で回路規模を削減しようとすると
処理の負荷が増大して実時間性が失われるという難点が
あった。
In the case of this method, when the size of the target object is changed or deformed, there is a drawback that tracking becomes difficult, and in addition, the circuit scale for obtaining the correlation becomes extremely large. Further, there has been a problem that when the circuit scale is reduced by the CPU processing, the processing load increases and the real time performance is lost.

【0004】そこで、目標物のカラー画像信号をもとに
目標の持つ色情報を用いる幾つかの方法が提案されてい
る。その一つとして、例えば、カラー画像信号のR、
G、Bを直交座標上のベクトルの成分として考え、追尾
対象の色の単位ベクトルを基準ベクトルとして画像信号
のR、G、Bベクトルとの内積
Therefore, some methods have been proposed which use the color information of the target based on the color image signal of the target. As one of them, for example, R of the color image signal,
Consider G and B as components of a vector on Cartesian coordinates, and use the unit vector of the color to be tracked as a reference vector, the dot product with the R, G, and B vectors of the image signal.

【0005】[0005]

【数5】 を求めることによりベクトル方向の差異をcosθ(但
し、θは撮像画像の対応する画素のベクトルと基準ベク
トルのなす角である。)として得る方法がある。
[Equation 5] There is a method of obtaining the difference in the vector direction as cos θ (where θ is the angle formed by the vector of the corresponding pixel of the captured image and the reference vector) by obtaining

【0006】また、特開平4−184283号公報に
は、目標識別の能力を改善する方法として、カラー画像
信号のR、G、Bを
Further, Japanese Patent Laid-Open No. 4-184283 discloses R, G, B of color image signals as a method for improving the ability of target identification.

【0007】[0007]

【数6】 又は、[Equation 6] Or

【0008】[0008]

【数7】 により、r、g、b表色系色度値に変換して比較する方
法で、目標のrまたはbとgから、基準となる2つの値
の組に対する判定範囲を設定し、撮像画像の対応する画
素のrまたはbとgとを比較回路で判定し、両方の値が
判定範囲に入っていればその画素を2値化することで目
標エリアを得た後、輝度値に相当する(R+G+B)の
目標エリア内での最大輝度点で位置を検出する方法が提
案されている。
[Equation 7] According to the method of converting to r, g, b colorimetric chromaticity values and comparing, a determination range is set for two sets of reference values from the target r or b and g, and the correspondence of the captured image is set. The comparison circuit determines r or b and g of the pixel to be processed, and if both values are within the determination range, the pixel is binarized to obtain the target area, and then the brightness value (R + G + B) is obtained. The method of detecting the position at the maximum brightness point in the target area of 1) is proposed.

【0009】[0009]

【発明が解決しようとする課題】上記従来例では、画像
の明暗の情報は除外され、明暗の影響は抑えられるもの
の、cosθにより評価しているため、色が接近してい
ると余弦関数の性質上、殆ど同じ値となってしまい、目
標点の識別が極めて困難となるという欠点を持ってい
る。
In the above-mentioned conventional example, although the information on the lightness and darkness of the image is excluded and the influence of the lightness and darkness is suppressed, since the evaluation is made by cos θ, the characteristics of the cosine function when the colors are close to each other. In addition, the values are almost the same, which makes it extremely difficult to identify the target point.

【0010】さらに、cosθの値を得るためには、画
像信号のR、G、Bベクトルの絶対値で除算する必要が
あることから、デジタル高速処理ではROM等による作
表で逆数を発生してこれを乗ずる方法が用いられるが、
この方法では、R、G、Bの値が大きくなると逆数が減
少して量子化誤差の比率が増大し、これが乗数により拡
大され、目標検出誤りが増大するという欠点も併せ持っ
ている。
Further, in order to obtain the value of cos θ, it is necessary to divide by the absolute values of the R, G and B vectors of the image signal. Therefore, in digital high speed processing, the reciprocal is generated by tabulation by ROM or the like. The method of multiplying this is used,
This method also has a drawback that the reciprocal decreases and the ratio of the quantization error increases as the values of R, G, and B increase, and this increases by the multiplier, which increases the target detection error.

【0011】また、上記特開平4−184283号公報
の方法に依れば、前者の方法に比べ、目標点の識別が容
易になり、検出能力の点では改善されるが、前者と同様
の理由によりデジタル演算の場合、r、g、bを求める
のに直接除算しているため、デジタル高速処理では(R
+G+B)の値が大きく画像が明るい画像領域では、量
子化雑音が増大する。
Further, according to the method of the above-mentioned Japanese Patent Laid-Open No. 4-184283, the target point can be identified more easily and the detection capability is improved compared to the former method, but the same reason as the former method is used. Therefore, in the case of digital calculation, since direct division is performed to obtain r, g, and b, (R
In the image region where the value of + G + B) is large and the image is bright, the quantization noise increases.

【0012】従って、この誤差による目標判定に誤りを
生じる欠点については解消されておらず、また、最終段
階で、最大輝度点を目標検出位置としているため、色度
判定で決定した目標エリア内での輝度分布の変化による
検出位置の飛びが生じる欠点があった。
Therefore, the drawback of causing an error in the target determination due to this error has not been solved, and since the maximum luminance point is the target detection position at the final stage, it is within the target area determined by the chromaticity determination. However, there is a drawback that the detection position jumps due to the change in the luminance distribution of the.

【0013】一方、上記のような除算演算を用いない
で、Y刺激値に対する色相・彩度に関係する情報を持っ
たR−Y及び、B−Yの2つの刺激値信号を使用して目
標物の位置を判定して追尾信号を出す方法が、特開平8
−51564号公報において提案されている。
On the other hand, the target is obtained by using two stimulus value signals of RY and BY having information relating to the hue and saturation with respect to the Y stimulus value, without using the above division operation. A method of determining the position of an object and issuing a tracking signal is disclosed in Japanese Patent Laid-Open No. Hei 8 (1998)
-51564.

【0014】しかしながらこの方法は、目標の輝度に影
響されずに目標を判定するために、目標物のR−Y及
び、B−Yの2つの刺激値とY刺激値(輝度)との関係
をモデル化した色予測関数と、この関数モデルを考慮し
た目標を判定するための許容誤差範囲を設定する必要が
あり、モデル設定と許容誤差範囲の設定の良し悪しが検
出または誤認の特性に影響するという欠点を持ってい
る。
However, in this method, in order to determine the target without being influenced by the brightness of the target, the relationship between the two stimulus values of RY and BY of the target and the Y stimulus value (luminance) is calculated. It is necessary to set the modeled color prediction function and the allowable error range for judging the target considering this functional model, and whether the model setting and the allowable error range setting are good or bad affects the characteristics of detection or misidentification. Has the drawback.

【0015】本発明の目的は、以上の各方法が持つ欠点
を解消することができるカラー目標位置検出手段を提供
することにある。
An object of the present invention is to provide a color target position detecting means capable of eliminating the drawbacks of the above methods.

【0016】[0016]

【課題を解決するための手段】本発明のカラー目標位置
検出装置は、目標カラー画像を撮影し、赤(R)、緑
(G)、青(B)の3つのカラー信号を出力するカラー
画像センサからの画像信号R,G,Bに対して所定の演
算をすることにより、センサから出力される画素毎に実
時間でカラー信号入力に対応する3刺激値信号X、Y、
Zに変換後、さらに、この3刺激値信号X、Y、Zか
ら、画像の明暗に対応する刺激値の大きさの情報を含ま
ない色度座標点の信号x、yを計算し、この色度座標点
の信号x、yから色度差信号ΔCを求め、この色度差信
号ΔCを用いて目標検出を行うことを特徴としている。
A color target position detecting apparatus of the present invention captures a target color image and outputs three color signals of red (R), green (G) and blue (B). By performing a predetermined calculation on the image signals R, G, B from the sensor, the tristimulus value signals X, Y corresponding to the color signal input in real time for each pixel output from the sensor,
After conversion into Z, signals x and y at chromaticity coordinate points that do not include information on the magnitude of the stimulus value corresponding to the lightness and darkness of the image are further calculated from these three stimulus value signals X, Y, and Z, and this color is calculated. It is characterized in that the chromaticity difference signal ΔC is obtained from the signals x and y of the degree coordinate point, and the target is detected using this chromaticity difference signal ΔC.

【0017】色度座標点は、目標が持つ固有の分光反射
率特性に直接関係するので、目標の明暗に捕らわれるこ
となく的確な判定を行うことができ、誤りの少ない目標
位置検出が可能となる。さらに、x、yの値は「1」以
下の値となるため、以降の処理での回路設計で必要とな
る処理値のスケーリングが容易となる。
Since the chromaticity coordinate point is directly related to the unique spectral reflectance characteristic of the target, it is possible to make an accurate determination without being caught by the brightness of the target and to detect the target position with few errors. . Furthermore, since the values of x and y are values of "1" or less, it becomes easy to scale the processing values required in the circuit design in the subsequent processing.

【0018】また、本発明は、色度信号x、yと刺激値
信号Yとを組み合わせ、この色度座標点の信号x、yと
刺激値信号Yに基づいて目標検出を行うこともできる。
これは刺激値信号Yが色光の明るさに相当するため、目
標検出にY刺激値をそのまま使用して色度値、x、yと
を組み合わせることにより、より的確な検出判定が可能
となる。
Further, according to the present invention, it is also possible to combine the chromaticity signals x and y and the stimulus value signal Y and perform the target detection based on the signals x and y of the chromaticity coordinate point and the stimulus value signal Y.
This is because the stimulus value signal Y corresponds to the brightness of the color light, and thus the Y stimulus value is used as it is for target detection and the chromaticity values, x, and y are combined to enable more accurate detection determination.

【0019】また、本発明は、色度座標点の信号x、y
を得るための演算に、対数圧縮後、減算する方法を用い
ることができる。これは、カラー信号R、G、Bを刺激
値信号X、Y、Zに変換しているため、R、G、Bの全
てが「0」とならな限り、x、yの分子である刺激値
X、Yが決して「0」となることはないため、画像が撮
像されている領域では安定した対数圧縮が可能であると
いうX、Yへの刺激値変換によって得られる効果により
採用可能となったものであり、従って、x、yを得るた
めに取り扱える刺激値のダイナミックレンジを極めて広
くすることができ、かつ、除算回路を除くことができ
る。
Further, according to the present invention, the signals x and y at the chromaticity coordinate points are used.
A method of performing logarithmic compression and then subtracting can be used for the calculation for obtaining. This is because the color signals R, G, B are converted into the stimulus value signals X, Y, Z, so long as all of R, G, B are "0", the stimulus that is the numerator of x, y. Since the values X and Y never become "0", it can be adopted due to the effect obtained by the stimulus value conversion into X and Y that stable logarithmic compression is possible in the area where the image is captured. Therefore, the dynamic range of the stimulus values that can be handled to obtain x and y can be extremely widened, and the division circuit can be omitted.

【0020】更に、本発明は、検出すべき目標の色度値
を基準としてその撮像画像について色度空間上での座標
の基準との位置ズレを、距離情報に相当する1つの信号
値に変換し、この値が最小となる点を検出することによ
り目標点検出を行う。これにより、処理回路の規模の削
減が可能となる。
Further, according to the present invention, the positional deviation of the picked-up image from the reference of the coordinates in the chromaticity space with reference to the target chromaticity value to be detected is converted into one signal value corresponding to the distance information. Then, the target point is detected by detecting the point where this value is the minimum. As a result, the scale of the processing circuit can be reduced.

【0021】以下、図7を参照して、本発明の特徴点に
ついて説明する。本発明では、カラー画像センサ101
からの赤、緑、青の3つの画像信号R,G,Bを刺激値
変換部1により、画素毎に実時間でカラー信号入力に応
じて
The features of the present invention will be described below with reference to FIG. In the present invention, the color image sensor 101
The three image signals R, G, and B of red, green, and blue from the image are converted by the stimulus value conversion unit 1 in real time for each pixel according to the color signal input.

【0022】[0022]

【数8】 の演算をすることにより、X、Y、Zの3刺激値信号に
変換する。
[Equation 8] Is converted into tristimulus value signals of X, Y, and Z.

【0023】カラー画像センサ101からのR、G、B
信号は、図13に示すとおり、撮像画面501を信号出
力順序502に従って1画素づつ画面のフレーム全面に
ついて時系列の信号R(α、β)、G(α、β)、B
(α、β)として出力されるため、X、Y、Zの3刺激
値信号もR、G、Bの信号と同様の時系列の信号X
(α、β)、Y(α、β)、Z(α、β)となる。ここ
で、αは画面上での横方向画素列の画素位置を表し、β
は画面上での縦方向画素列の位置を表しており、画面上
の座標に対応している。
R, G, B from the color image sensor 101
As shown in FIG. 13, the signals are time-series signals R (α, β), G (α, β), B on the entire surface of the frame of the image pickup screen 501 pixel by pixel according to the signal output order 502.
Since it is output as (α, β), the tristimulus value signals of X, Y, and Z are time-series signals X similar to the signals of R, G, and B.
(Α, β), Y (α, β), Z (α, β). Where α represents the pixel position of the horizontal pixel row on the screen, and β
Represents the position of the vertical pixel row on the screen and corresponds to the coordinates on the screen.

【0024】本発明では、X、Y、Zの3刺激値信号の
値から、
In the present invention, from the values of the tristimulus value signals of X, Y and Z,

【0025】[0025]

【数9】 の計算により画像の明暗に対応する刺激値の大きさの情
報を含まないx、y色度座標点の信号に変換して時系列
の色度信号x(α、β)、y(α、β)を出力する色度
座標演算部2を有する。
[Equation 9] Is converted into a signal of x, y chromaticity coordinate points that does not include information on the magnitude of the stimulus value corresponding to the lightness and darkness of the image, and time-sequential chromaticity signals x (α, β), y (α, β ) Is output.

【0026】また、得られた色度座標信号x(α、
β)、y(α、β)及び、刺激値Y(α、β)が入力さ
れる指定点データ保持部13を有しており、座標α、β
で表した初期捕捉指定点Gtoと一致した画素のx
(α、β)、y(α、β)と刺激値Y(α、β)を選択
・保持し、これを画像フレーム毎に更新する。
The chromaticity coordinate signal x (α,
β), y (α, β), and a designated point data holding unit 13 to which the stimulus value Y (α, β) is input, and the coordinates α, β
X of the pixel that coincides with the designated initial capture point Gto represented by
(Α, β), y (α, β) and the stimulus value Y (α, β) are selected and held, and this is updated for each image frame.

【0027】この保持データは、指定点色度信号xt
o、yto及び、指定点刺激値Ytoとなり、指定点デ
ータ保持部13の出力として、それぞれ基準色度更新部
4及び基準輝度更新部10に出力される。
This held data is the specified point chromaticity signal xt.
o, yto, and the designated point stimulus value Yto are output to the reference chromaticity updating unit 4 and the reference luminance updating unit 10 as outputs of the designated point data holding unit 13.

【0028】基準色度更新部4では、設定完了タイミン
グ信号Toが入力された時点のみ指定点色度信号xt
o、ytoをそのまま基準色度信号xo、yoの値に更
新して出力する。一方、基準輝度更新部10では、設定
完了タイミング信号Toが入力された時点のみ指定点刺
激値Ytoを基準輝度信号Yoの値に更新して出力す
る。つまり、基準色度信号xo、yo及び、基準輝度信
号Yoは設定完了タイミング信号Toの入力時点で捕捉
する目標点の初期の色度及び輝度の値となっている。
In the reference chromaticity updating section 4, the designated point chromaticity signal xt is set only when the setting completion timing signal To is input.
The values o and yto are updated as they are to the values of the reference chromaticity signals xo and yo and are output. On the other hand, the reference brightness update unit 10 updates the designated point stimulation value Yto to the value of the reference brightness signal Yo and outputs it only when the setting completion timing signal To is input. That is, the reference chromaticity signals xo and yo and the reference luminance signal Yo are initial chromaticity and luminance values of the target point captured at the input of the setting completion timing signal To.

【0029】設定完了タイミング信号To受領以降、基
準色度更新部4では、得られた追尾している目標点の色
度に相当する極小点データ保持部6の出力である最小極
小点色度値xpm、ypmを各フレームごとに入力し
て、次フレームの基準色度を予測またはフィルタリング
処理をし、新たな基準色度信号xo、yoを出力する。
After the setting completion timing signal To is received, the reference chromaticity updating unit 4 outputs the minimum minimum point chromaticity value which is the output of the minimum point data holding unit 6 corresponding to the chromaticity of the obtained tracking target point. xpm and ypm are input for each frame, the reference chromaticity of the next frame is predicted or filtered, and new reference chromaticity signals xo and yo are output.

【0030】また、基準輝度更新部10では、同様に、
追尾している目標点の色度に相当する最小極小点色度値
xpm、ypmがえられた極小点データ保持部6の最小
極小点輝度値Ypmを入力して、予測またはフィルタリ
ング処理をし、新たな基準輝度信号Yoとしている。
Further, in the reference luminance updating section 10, similarly,
The minimum minimum point luminance value Ypm of the minimum point data holding unit 6 for which the minimum minimum point chromaticity values xpm and ypm corresponding to the chromaticity of the tracked target point are input, and prediction or filtering processing is performed, It is used as a new reference luminance signal Yo.

【0031】従って、基準色度信号xo、yo及び、基
準輝度信号Yoの値を基準値として、目標の持つ色度座
標差距離の範囲及び、刺激値Yの分布限度を設定し、両
方が限度内である領域を2値化することができる色度差
信号2値化部7と輝度信号2値化部8を有しているた
め、目標の存在領域を2値化画像として出力することが
できる。
Therefore, using the values of the reference chromaticity signals xo and yo and the reference luminance signal Yo as reference values, the range of the chromaticity coordinate difference distance of the target and the distribution limit of the stimulus value Y are set. Since the chromaticity difference signal binarization unit 7 and the luminance signal binarization unit 8 capable of binarizing an inner region are included, the target existing region can be output as a binarized image. it can.

【0032】本発明では、上記基準色度信号xo、yo
と色度座標演算部2からの色度信号x(α、β)、y
(α、β)との距離を算出して、その結果を色度差信号
ΔC(α,β)(ΔCマップ)として出力する色度差算
出部3を有し、この色度差信号ΔC(α,β)を判定し
て、この信号が極小になる点を検出する極小点検出部5
を有している。
According to the present invention, the reference chromaticity signals xo and yo.
And the chromaticity signals x (α, β), y from the chromaticity coordinate calculation unit 2
The chromaticity difference calculation unit 3 calculates a distance from (α, β) and outputs the result as a chromaticity difference signal ΔC (α, β) (ΔC map). The chromaticity difference signal ΔC ( a minimum point detection unit 5 that determines α, β) and detects a point where this signal has a minimum.
have.

【0033】また、本発明では極小点データ保持部6を
有し、刺激値Y(α、β)、色度信号x(α、β)、y
(α、β)、及び、色度差信号ΔC(α,β)が入力さ
れ、極小点検出部5からは、色度差信号ΔC(α,β)
の極小点が検出される毎に極小点検出タイミング信号p
mを入力するが、この極小点データ保持部6ではpmが
発生する毎に極小点の色度差信号ΔC(α,β)として
取り込み、この値が過去に得た値と現在の値と比較して
小さな方の極小点の色度差信号ΔC(α,β)を保持す
る。
Further, in the present invention, the minimum point data holding unit 6 is provided, and the stimulus value Y (α, β), the chromaticity signal x (α, β), y.
(Α, β) and the chromaticity difference signal ΔC (α, β) are input, and the chromaticity difference signal ΔC (α, β) is input from the minimum point detection unit 5.
Local minimum point detection timing signal p
Although m is input, the minimum point data holding unit 6 takes in as a chromaticity difference signal ΔC (α, β) of the minimum point each time pm occurs, and compares this value with the value obtained in the past and the current value. Then, the chromaticity difference signal ΔC (α, β) of the smaller minimum point is held.

【0034】この時、保持した色度差信号ΔC(α,
β)と対応して入力されている刺激値Y(α、β)、色
度信号x(α、β)、y(α、β)、についても同時に
保持する。これにより、1フレームのカラー信号入力完
了時点で色度差信号ΔC(α,β)の最小の極小点値に
対応するY(α、β)、x(α、β)、y(α、β)、
とΔC(α,β)を得ることができ、これらをそれぞれ
最小極小点輝度値Ypm、最小極小点色度値xpm、y
pm及び、最小極小点色度差ΔCpmとして出力する。
At this time, the held chromaticity difference signal ΔC (α,
The stimulus value Y (α, β) and the chromaticity signals x (α, β), y (α, β) input in correspondence with β) are also held at the same time. As a result, Y (α, β), x (α, β), y (α, β) corresponding to the minimum local minimum value of the chromaticity difference signal ΔC (α, β) at the time of completion of inputting the color signal of one frame. ),
And ΔC (α, β) can be obtained, which are respectively the minimum minimum point luminance value Ypm and the minimum minimum point chromaticity value xpm, y.
pm and the minimum minimum point chromaticity difference ΔCpm.

【0035】本発明では、色度差信号2値化部7と輝度
信号2値化部8に色度差信号ΔC(α,β)と刺激値Y
(α、β)を1フレーム分の画像マップとして一時記憶
する図4に示すΔCマップフレームメモリ71と図5に
示す輝度マップメモリ81とを有しており、従って、こ
こから記憶したマップ情報を読み出すことにより、最小
極小点色度差ΔCpmを得た同じ色度差信号ΔC(α,
β)及び、刺激値Y(α、β)の画像マップをΔCpm
とYpmを基準値として目標の持つ色度座標差距離の範
囲及び、刺激値Yの分布限度を設定し、両方が限度内で
ある領域を2値化するとしたしきい値により二つの2値
化画像出力BΔC(α、β)とBY(α、β)を得るこ
とがきる。
In the present invention, the chromaticity difference signal binarization unit 7 and the luminance signal binarization unit 8 are provided with the chromaticity difference signal ΔC (α, β) and the stimulus value Y.
It has a ΔC map frame memory 71 shown in FIG. 4 and a luminance map memory 81 shown in FIG. 5 for temporarily storing (α, β) as an image map for one frame. Therefore, the map information stored from here is stored. By reading, the same chromaticity difference signal ΔC (α,
β) and the image map of the stimulus value Y (α, β) by ΔCpm
And Ypm as reference values, the range of the chromaticity coordinate difference distance that the target has and the distribution limit of the stimulus value Y are set, and two regions are binarized by the threshold value that binarizes the region where both are within the limits. The image outputs BΔC (α, β) and BY (α, β) can be obtained.

【0036】この二つの2値化画像の論理積B(α、
β)により最終的な面重心を算出する2値化画像重心点
算出部11を有しているため、2値化された目標の存在
領域の面積重心点を目標検出位置信号Gとして出力でき
る。
The logical product B (α,
Since it has the binarized image centroid point calculation unit 11 that calculates the final surface centroid according to β), the binarized area centroid point of the target existing region can be output as the target detection position signal G.

【0037】以上説明したように、本発明では目標が持
つ固有の分光反射率特性に直接関係する色度座標点を特
徴量として目標検出の評価対象としているため、目標に
対する照射光の分光条件の変化が少ないとすれば目標の
明暗に捕らわれない的確な特徴量を判定していることに
なり、従って、一段と誤りの少ない目標位置検出が可能
であるという特徴を有する。
As described above, in the present invention, since the chromaticity coordinate point directly related to the unique spectral reflectance characteristic of the target is used as the target of evaluation for target detection, the spectral condition of the irradiation light with respect to the target is determined. If the change is small, it means that an accurate feature amount that is not caught by the brightness of the target is determined. Therefore, the target position can be detected with less error.

【0038】また、色度座標を得る色度座標演算部2で
は、入力信号である刺激値X(α、β)、Y(α、
β)、Z(α、β)を以下の計算により対数圧縮した状
態で色度座標を得る方法を採用している。
Further, in the chromaticity coordinate calculation unit 2 for obtaining chromaticity coordinates, the stimulus values X (α, β) and Y (α,
A method of obtaining chromaticity coordinates in a state where β) and Z (α, β) are logarithmically compressed by the following calculation is adopted.

【0039】[0039]

【数10】 なおこれは、R、G、B全てについて「0」とならなけ
れば、刺激値X、Yが決して「0」となることはないた
め、画像が撮像されている領域では安定した対数圧縮が
可能となったために採用可能となったものである。
[Equation 10] This is because the stimulus values X and Y will never be "0" unless R, G, and B are all "0", so stable logarithmic compression is possible in the area where the image is captured. It became possible to be adopted because.

【0040】従って、対数圧縮により、極めて広範囲の
画像信号R,G,Bの大きさに対してデジタル演算を使
用する場合、刺激値のデータ範囲を考慮してデータのビ
ット数を多大に増加させることなく色度演算での誤差の
増大を防ぐことが可能であるという優れた特徴を併せも
っている。
Therefore, when logarithmic compression is used to perform digital operation on the image signals R, G and B in an extremely wide range, the number of bits of data is greatly increased in consideration of the data range of the stimulus value. It also has the excellent feature that it is possible to prevent an increase in the error in the chromaticity calculation.

【0041】更に、色度差を求める方法については、図
8に示すように基準色度更新部4で得られた基準色度信
号xo、yoを色度座標において目標指定点色度座標2
03とし、色度座標演算部2からの時系列に出力される
各画素の色度信号x(α、β)、y(α、β)を入力画
像色度座標202として、この2点間の座標の直距離r
を色度差とすることが考えられるが、本発明の色度差算
出部3では、
Further, as for the method of obtaining the chromaticity difference, as shown in FIG. 8, the reference chromaticity signals xo and yo obtained by the reference chromaticity updating unit 4 are used as chromaticity coordinates 2 at the target designated point in the chromaticity coordinates.
03, the chromaticity signals x (α, β), y (α, β) of each pixel output from the chromaticity coordinate calculation unit 2 in time series are used as the input image chromaticity coordinates 202, and between these two points. Direct distance r of coordinates
Is considered to be the chromaticity difference, the chromaticity difference calculation unit 3 of the present invention

【0042】[0042]

【数11】 の計算を採用し色度差ΔCとしている。なお、ABSは
絶対値を表している。
[Equation 11] The calculation is adopted as the chromaticity difference ΔC. Note that ABS represents an absolute value.

【0043】この方法による場合は、目標の色度座標点
と基準の色度座標点との直距離rに対し、常に
According to this method, with respect to the direct distance r between the target chromaticity coordinate point and the reference chromaticity coordinate point,

【0044】[0044]

【数12】 の関係を持っており、目標の色度座標点と基準の色度座
標点との直距離が「0」でない場合は座標点間の上式の
距離rより殆どの場合大きくなるため、比較的鋭敏な目
標識別能力を持つという特徴があるのに加え、単純な加
減算回路で実現できる特徴も有している。
[Equation 12] If the direct distance between the target chromaticity coordinate point and the reference chromaticity coordinate point is not “0”, it will be larger than the distance r in the above equation between the coordinate points in most cases, and In addition to the characteristic that it has a sharp target discriminating ability, it also has the characteristic that it can be realized by a simple addition / subtraction circuit.

【0045】また、本発明では表示を目的としないこと
から、色再現性を考慮して負の分光特性を持った理想特
性に近づけるマスキング処理等をせず、撮像デバイスの
出力をそのままRGB信号出力として使用することを前
提としている。この場合、カラー画像センサの撮像デバ
イスの出力は負の感度領域は無いことから、図9に示す
ように カラー画像センサのRGB信号による色度の値
域201から外に位置する座標の色度値となることはな
い。
In addition, since the present invention is not intended for display, the output of the image pickup device is directly output as an RGB signal without performing masking processing or the like in consideration of color reproducibility so as to approximate an ideal characteristic having a negative spectral characteristic. It is supposed to be used as. In this case, since the output of the image pickup device of the color image sensor does not have a negative sensitivity region, as shown in FIG. 9, the chromaticity value of the coordinates located outside the chromaticity range 201 of the RGB signals of the color image sensor It never happens.

【0046】このカラー画像センサのRGB信号による
色度の値域201は、x+y=1となる直線301と、
xとyの座標軸及び、O点を基準としたΔC≦1.0を
満たす限界線302に囲まれた範囲にあり、従って、Δ
Cの大きもまた必ず「0」から「1」の範囲にあること
になり、rと同様にΔCを処理する回路のデータのスケ
ーリングが容易であるという有利な点がある。
The range 201 of the chromaticity by the RGB signal of this color image sensor is a straight line 301 where x + y = 1,
It is in the range surrounded by the coordinate axes of x and y and the limit line 302 that satisfies ΔC ≦ 1.0 with respect to the point O, and therefore Δ
The magnitude of C is also always in the range of "0" to "1", which has an advantage that it is easy to scale the data of the circuit that processes ΔC as in the case of r.

【0047】[0047]

【発明の実施の形態】図1は、本発明のカラー画像目標
位置検出装置の実施の形態を示すブロック図である。ま
た、図2〜図5は、それぞれ図1の、色度座標演算部
2、色度差算出部3、色度差信号2値化部7、輝度信号
2値化部8の一実施例を示している。また、図6は、図
1のカラー画像目標位置検出装置を使用接続例をブロッ
ク図で示したものである。
FIG. 1 is a block diagram showing an embodiment of a color image target position detecting device of the present invention. 2 to 5 show examples of the chromaticity coordinate calculation unit 2, the chromaticity difference calculation unit 3, the chromaticity difference signal binarization unit 7, and the luminance signal binarization unit 8 of FIG. 1, respectively. Shows. Further, FIG. 6 is a block diagram showing an example of connection using the color image target position detection device of FIG.

【0048】まず、本発明のカラー画像目標位置検出装
置を用いた目標追尾動作の概略について、図6を参照し
て説明する。
First, the outline of the target tracking operation using the color image target position detecting device of the present invention will be described with reference to FIG.

【0049】本発明のカラー画像目標位置検出装置10
0は、撮像対象106を撮影して赤、緑、青の3つの画
像信号R,G,Bを出力するカラー画像センサ101、
画像信号R,G,Bにより撮像画像を表示する画像表示
装置103、表示画面から操作者が追尾する目標を初期
段階で指定する初期捕捉指定入力装置102、カラー目
標位置検出装置100からの目標検出位置信号Gにより
目標を追尾するための目標追尾駆動信号DTを出力する
追尾信号出力装置105及び、目標追尾駆動信号DTに
よりその視軸を変更するジンバル装置104と結合され
使用される。
Color image target position detecting apparatus 10 of the present invention
Reference numeral 0 denotes a color image sensor 101 that captures an image of the imaging target 106 and outputs three image signals R, G and B of red, green and blue.
An image display device 103 that displays a picked-up image by image signals R, G, and B, an initial capture designation input device 102 that designates a target to be tracked by an operator from the display screen at an initial stage, and a target detection from a color target position detection device 100. The tracking signal output device 105 that outputs the target tracking drive signal DT for tracking the target by the position signal G and the gimbal device 104 that changes the visual axis thereof by the target tracking drive signal DT are used in combination.

【0050】追尾動作は、先ず、ジンバル装置104を
直接の操作により動かしてカラー画像センサ101の視
軸をおおよその目標方向に合わせて、画像表示装置10
3の表示画面107に追尾目標108が撮像されるよう
にする。
In the tracking operation, first, the gimbal device 104 is directly operated to align the visual axis of the color image sensor 101 with the approximate target direction, and the image display device 10 is operated.
The tracking target 108 is imaged on the display screen 107 of No. 3.

【0051】操作者は追尾したい目標を表示画面107
の上で目視確認し、初期捕捉指定入力装置102で追尾
目標点の設定と、排除したい類似目標への捕捉を禁止す
るウィンドウの設定を行う。画像表示装置103の表示
画面107には、初期捕捉指定入力装置102で設定し
た追尾目標点とウィンドウをそれぞれ初期捕捉指定点マ
ーカ107bと初期捕捉ウィンドウマーカ107aとし
て撮像された画像と重畳して表示されるため、これを監
視しながら、追尾目標点とウィンドウを設定することが
できる。
The operator displays the target to be tracked on the display screen 107.
Then, the initial capture designation input device 102 is used to set a tracking target point and to set a window for prohibiting capture to a similar target to be excluded. On the display screen 107 of the image display device 103, the tracking target point and the window set by the initial capture designation input device 102 are displayed in an overlapping manner with the images captured as the initial capture designated point marker 107b and the initial capture window marker 107a, respectively. Therefore, the tracking target point and the window can be set while monitoring this.

【0052】この設定値は、初期捕捉指定入力装置10
2で画面上の座標α、βで表した初期捕捉指定点Gto
と初期捕捉ウィンドウWGtoを発生し、逐次本発明の
カラー画像目標位置検出装置100に出力される。
This set value is used for the initial capture designation input device 10.
Initial acquisition designated point Gto represented by coordinates α and β on the screen in 2
And an initial capture window WGto are generated and sequentially output to the color image target position detection device 100 of the present invention.

【0053】操作者は設定が完了した時点でスイッチ操
作等を行うが、これにより初期捕捉指定入力装置102
で設定完了タイミング信号Toが作られ、本発明のカラ
ー画像目標位置検出装置100に出力される。
When the operator completes the setting, he or she performs a switch operation or the like, which causes the initial capture designation input device 102.
Then, the setting completion timing signal To is generated and output to the color image target position detection device 100 of the present invention.

【0054】カラー画像目標位置検出装置100は、初
期捕捉指定入力装置102からの初期捕捉指定点Gto
と初期捕捉ウィンドウWGtoを設定完了タイミング信
号To入力時点で取り込み、この点を初期の追尾目標点
とする。以降、カラー画像目標位置検出装置100は、
カラー画像から得られる前記追尾目標点の特徴量をもと
に、目標位置を検出して目標検出位置信号Gを逐次出力
する。
The color image target position detection device 100 uses the initial capture designation point Gto from the initial capture designation input device 102.
And the initial acquisition window WGto at the time of inputting the setting completion timing signal To, and this point is set as the initial tracking target point. After that, the color image target position detection device 100
The target position is detected based on the feature amount of the tracking target point obtained from the color image, and the target detection position signal G is sequentially output.

【0055】追尾信号出力装置105は、目標検出位置
信号Gが画面の中心の座標点となるようにジンバル装置
104を制御する目標追尾駆動信号DTを出力する。こ
のことにより、設定完了タイミング信号To発生時点以
降は、カラー画像センサ101の視軸は捕捉指定を行っ
た目標の動きに追尾する動作を継続する。
The tracking signal output device 105 outputs a target tracking drive signal DT for controlling the gimbal device 104 so that the target detection position signal G becomes the coordinate point at the center of the screen. As a result, after the setting completion timing signal To is generated, the visual axis of the color image sensor 101 continues the operation of tracking the movement of the target for which capture is designated.

【0056】次に、本発明のカラー画像目標位置検出装
置100の構成について、図1〜図5を参照して説明す
る。
Next, the configuration of the color image target position detecting device 100 of the present invention will be described with reference to FIGS.

【0057】本発明のカラー画像目標位置検出装置は、
カラー画像センサ101からの入力であるカラー画像信
号(赤)R、カラー画像信号(緑)G、カラー画像信号
(青)B、図6に示した初期捕捉指定入力装置102か
らの入力である初期捕捉指定点Gtoと初期捕捉ウィン
ドウWGto及び、設定完了タイミング信号Toの6つ
の信号を入力して目標検出位置Gを出力する。
The color image target position detecting device of the present invention is
The color image signal (red) R, the color image signal (green) G, the color image signal (blue) B, which are the inputs from the color image sensor 101, and the initial, which is the input from the initial capture designation input device 102 shown in FIG. The target detection position G is output by inputting six signals including the designated capture point Gto, the initial capture window WGto, and the setting completion timing signal To.

【0058】カラー画像信号(赤)R、(緑)G、
(青)Bの3つは、刺激値変換部1の3つの入力端に接
続され、刺激値変換部1のX、Y、Z刺激値の3つの出
力端は、色度座標演算部2に接続されている。また、色
度座標演算部2の色度座標x、yの出力は、色度差算出
部3に接続されて、その出力である色度差信号ΔCは極
小点検出部5に入力される。
Color image signals (red) R, (green) G,
The three (blue) B are connected to the three input terminals of the stimulus value conversion unit 1, and the three output terminals of the stimulus value conversion unit 1 for the X, Y, and Z stimulus values are connected to the chromaticity coordinate calculation unit 2. It is connected. The outputs of the chromaticity coordinates x and y of the chromaticity coordinate calculation unit 2 are connected to the chromaticity difference calculation unit 3, and the output chromaticity difference signal ΔC is input to the minimum point detection unit 5.

【0059】極小点データ保持部6の入力端には、極小
点検出部5からの極小点検出タイミング信号pm、色度
差算出部3からの色度差信号ΔC、色度座標演算部2か
らの色度信号x、y、及び、刺激値変換部1からの輝度
信号Y(Y刺激値)が入力される。
At the input terminal of the minimum point data holding section 6, the minimum point detection timing signal pm from the minimum point detection section 5, the chromaticity difference signal ΔC from the chromaticity difference calculation section 3, and the chromaticity coordinate calculation section 2 are input. The chromaticity signals x and y and the luminance signal Y (Y stimulus value) from the stimulus value conversion unit 1 are input.

【0060】極小点検出部5では、色度差信号ΔCを極
小点の検出エリアを限定するための評価エリア発生部1
2からの入力である検出エリア信号WGを図11及び1
2に示すごとく、pmの発生範囲指定エリア404の範
囲について、時系列で入力される色度差信号ΔCを逐次
判定して、色度差信号ΔCの信号が極小値条件を満足す
る点ΔCi,jを検出し、pm発生点403を走査した
時に、極小点検出タイミング信号pmを出力する。
In the minimum point detecting section 5, the evaluation area generating section 1 for limiting the detection area of the minimum point of the chromaticity difference signal ΔC.
The detection area signal WG which is the input from FIG.
As shown in FIG. 2, the chromaticity difference signal ΔC input in time series is sequentially determined in the range of the pm generation range designation area 404, and the point ΔCi at which the signal of the chromaticity difference signal ΔC satisfies the minimum value condition, When j is detected and the pm generation point 403 is scanned, the minimum point detection timing signal pm is output.

【0061】極小点データ保持部6では、pmが発生す
る毎に極小点の色度差信号ΔCを取り込み、この値が過
去に取り込んだ値と現在の値と比較して小さな方の極小
点の色度差信号ΔCを保持する。この時、保持した色度
差信号ΔCと対応して入力されている輝度信号Y、色度
信号x、yについも同時に保持する。
The minimum point data holding unit 6 takes in the chromaticity difference signal ΔC of the minimum point every time pm occurs, and this value is compared with the value fetched in the past and the present value, and the minimum point of the smaller one is compared. The chromaticity difference signal ΔC is held. At this time, the luminance signal Y and the chromaticity signals x and y input corresponding to the held chromaticity difference signal ΔC are simultaneously held.

【0062】これにより、1フレームのカラー信号入力
完了時点で、色度差信号ΔCの最小の極小点値に対応す
るY、x、y、及びΔCを得ることができ、極小点デー
タ保持部6の出力端から、これらをそれぞれ最小極小点
輝度値Ypm、最小極小点色度値xpm、ypm及び最
小極小点色度差ΔCpmとして出力する。
As a result, Y, x, y, and ΔC corresponding to the minimum minimum point value of the chromaticity difference signal ΔC can be obtained at the time when the color signal input for one frame is completed, and the minimum point data holding unit 6 is obtained. These are output from the output terminal of as the minimum minimum point luminance value Ypm, the minimum minimum point chromaticity value xpm, ypm, and the minimum minimum point chromaticity difference ΔCpm.

【0063】また、色度座標演算部2から得られた色度
信号x、y及び、刺激値変換部1から得られた輝度信号
Yは、指定点データ保持部13に入力され、本カラー画
像目標位置検出装置100の入力である初期捕捉指定点
Gtoと一致した画面座標点の画素の色度x、yと刺激
値Yを保持し、これを画像フレーム毎に更新する。
Further, the chromaticity signals x and y obtained from the chromaticity coordinate calculation unit 2 and the luminance signal Y obtained from the stimulus value conversion unit 1 are input to the designated point data holding unit 13 and the main color image is obtained. The chromaticity x, y and the stimulus value Y of the pixel at the screen coordinate point that coincides with the initial capture designated point Gto, which is the input of the target position detection device 100, are held and updated for each image frame.

【0064】この色度x、yと輝度信号Yは、指定点色
度信号xto、yto及び、指定点刺激値Ytoとし
て、指定点データ保持部13からそれぞれ基準色度更新
部4及び基準輝度更新部10に出力される。
The chromaticity x and y and the luminance signal Y are designated point chromaticity signals xto and yto and designated point stimulus value Yto, respectively, from the designated point data holding section 13 to the reference chromaticity updating section 4 and the reference luminance updating. It is output to the unit 10.

【0065】基準色度更新部4の入力端には、指定点デ
ータ保持部13からの指定点色度信号xto、yto及
び、極小点データ保持部6からの最小極小点色度値xp
m、ypmが入力される。
At the input end of the reference chromaticity updating section 4, designated point chromaticity signals xto and yto from the designated point data holding section 13 and the minimum minimum point chromaticity value xp from the minimum point data holding section 6 are input.
m and ypm are input.

【0066】基準色度更新部4では、設定完了タイミン
グ信号Toが入力された時点のみ指定点色度信号xt
o、ytoでそのまま基準色度信号xo、yoの値に更
新し、その他の場合は最小極小点色度値xpm、ypm
を用いて、次画像フレームの基準色度を予測またはフィ
ルタリング処理をし、新たな基準色度xo、yoに更新
して出力する。この基準色度更新部4の出力は色度差算
出部3の入力端に接続されている。
In the reference chromaticity updating unit 4, the designated point chromaticity signal xt is set only when the setting completion timing signal To is input.
The values of the reference chromaticity signals xo and yo are updated as they are with o and yto, and in other cases, the minimum minimum point chromaticity values xpm and ypm are updated.
Is used to predict or filter the reference chromaticity of the next image frame, update to new reference chromaticities xo and yo, and output. The output of the reference chromaticity update unit 4 is connected to the input end of the chromaticity difference calculation unit 3.

【0067】一方、基準輝度更新部10の入力端には、
指定点データ保持部13からの指定点刺激値Yto及
び、極小点データ保持部6からの最小極小点輝度値Yp
mが入力される。基準輝度更新部10では、設定完了タ
イミング信号Toが入力された時点のみ指定点刺激値Y
toでそのまま基準輝度信号Yoの値に更新して出力
し、その他の場合は最小極小点輝度値Ypmを用いて、
次画像フレームの基準色度を予測またはフィルタリング
処理をし、新たな基準輝度信号Yoに更新して出力す
る。
On the other hand, at the input end of the reference brightness updating section 10,
The designated point stimulus value Yto from the designated point data holding unit 13 and the minimum minimal point luminance value Yp from the minimal point data holding unit 6
m is input. In the reference luminance updating unit 10, the designated point stimulus value Y is obtained only when the setting completion timing signal To is input.
At to, the value of the reference luminance signal Yo is updated and output as it is. In other cases, the minimum minimum point luminance value Ypm is used.
The reference chromaticity of the next image frame is predicted or filtered, updated to a new reference luminance signal Yo, and output.

【0068】この基準輝度更新部10の出力Yoは、輝
度信号2値化部8の2つの入力端の一方に接続されてい
る。輝度信号2値化部8の入力端の他方には刺激値変換
部1からの2値化対象となる輝度信号Yが入力されお
り、輝度信号2値化部8の出力端からは輝度画像2値化
信号BYが出力され、AND回路9の3つの入力端の内
の一つに接続されている。
The output Yo of the reference brightness updating unit 10 is connected to one of the two input terminals of the brightness signal binarizing unit 8. The luminance signal Y to be binarized from the stimulus value conversion unit 1 is input to the other input end of the luminance signal binarization unit 8, and the luminance image 2 is output from the output end of the luminance signal binarization unit 8. The binarized signal BY is output and connected to one of the three input terminals of the AND circuit 9.

【0069】色度差信号2値化部7の2つの入力端の一
方には、極小点データ保持部6からの最小極小点色度差
ΔCpmが入力され、他方の入力端には色度差算出部3
からの2値化対象となる色度差信号ΔC入力される。こ
の色度差信号2値化部7の出力端にはΔCマップ2値化
信号BΔCが出力され、AND回路9の3つの入力端の
内のもう一つに接続されている。AND回路9の3つ目
の入力端には、評価エリア発生部12の出力である2値
化出力画像エリアを限定する2値化ウィンドウエリア信
号wが接続されている。
The minimum minimum point chromaticity difference ΔCpm from the minimum point data holding section 6 is input to one of the two input terminals of the chromaticity difference signal binarization section 7, and the chromaticity difference is input to the other input terminal. Calculation unit 3
The chromaticity difference signal ΔC to be binarized from is input. The ΔC map binarization signal BΔC is output to the output end of the chromaticity difference signal binarization unit 7 and is connected to another one of the three input ends of the AND circuit 9. A binarized window area signal w that limits the binarized output image area, which is the output of the evaluation area generation unit 12, is connected to the third input terminal of the AND circuit 9.

【0070】AND回路9では、図10に示すように輝
度画像2値化信号BY、ΔCマップ2値化信号BΔC及
び、2値化ウィンドウエリア信号wの論理積で得られる
2値化画像信号Bを出力し、2値化画像重心点算出部1
1に入力している。
In the AND circuit 9, as shown in FIG. 10, the binarized image signal B obtained by the logical product of the luminance image binarized signal BY, the ΔC map binarized signal BΔC and the binarized window area signal w. To output the binarized image centroid point calculation unit 1
You have entered 1.

【0071】2値化画像重心点算出部11では、図10
で示すように、2値化されB=1となったエリアの面積
重心(αG、βG)を求め目標検出位置Gとすると同時
にB=1となった画素数を値とする2値化面積Sを求
め、2値化画像重心点算出部11から出力する。なお、
本カラー画像目標位置検出装置からは目標検出位置Gが
出力される。
In the binarized image centroid calculation unit 11, FIG.
As shown in, the binarized area S having the area centroid (αG, βG) of the binarized area of B = 1 as the target detection position G and the value of the number of pixels of B = 1 at the same time Is calculated and output from the binarized image centroid calculation unit 11. In addition,
The target detection position G is output from the color image target position detection device.

【0072】極小点の検出エリアを限定するための検出
エリア信号WGと、このエリアに一致した2値化出力画
像エリアを限定するための2値化ウィンドウエリア信号
wを発生する評価エリア発生部12の入力端には、2値
化画像重心点算出部11からの目標検出位置G及び2値
化面積Sと、本カラー画像目標位置検出装置の入力であ
る初期捕捉ウィンドウWGto及び設定完了タイミング
信号Toが入力される。
The evaluation area generating unit 12 for generating the detection area signal WG for limiting the detection area of the minimum point and the binarized window area signal w for limiting the binarized output image area which coincides with this area. At the input end of, the target detection position G and the binarized area S from the binarized image centroid calculation unit 11, the initial capture window WGto and the setting completion timing signal To input to the color image target position detection apparatus are input. Is entered.

【0073】評価エリア発生部12では、設定完了タイ
ミング信号Toを受領した時点では、図6の初期捕捉ウ
ィンドウマーカ107aに対応する初期捕捉ウィンドウ
WGtoを検出エリア信号WGの初期値とし、また、こ
れに対応する2値化ウィンドウエリア信号wを発生して
初期捕捉を確実なものとする。
At the time of receiving the setting completion timing signal To, the evaluation area generating unit 12 sets the initial capture window WGto corresponding to the initial capture window marker 107a in FIG. 6 as the initial value of the detection area signal WG, and Generate a corresponding binarized window area signal w to ensure initial capture.

【0074】設定完了タイミング信号To受領時点以降
では、評価エリア発生部12は、2値化画像重心点算出
部11からの入力である目標検出位置Gと、B=1とな
った画素数を値とする2値化面積Sから、目標検出位置
Gを中心位置とし、且、初期捕捉ウィンドウWGtoの
縦横の比率を一定としつつ、WGtoのエリア面積に対
する2値化面積Sの比率が一定となるように検出エリア
信号WGと2値化ウィンドウエリア信号w発生領域を更
新する。
After the time point when the setting completion timing signal To is received, the evaluation area generation unit 12 sets the target detection position G which is the input from the binarized image centroid calculation unit 11 and the number of pixels where B = 1. From the binarized area S, the target detection position G is set to the center position, and the ratio of the initial capture window WGto in the vertical and horizontal directions is made constant, while the ratio of the binarized area S to the area area of WGto becomes constant. Then, the detection area signal WG and the binarized window area signal w generation area are updated.

【0075】従って、極小点検出部5では、追尾目標付
近エリアのみ色度差信号ΔCの最小の極小点値検出を行
うことが可能となり、また、2値化画像信号Bを2値化
画像重心点算出部11へ入力することを可能としてい
る。
Therefore, the minimum point detecting section 5 can detect the minimum minimum point value of the chromaticity difference signal ΔC only in the area near the tracking target, and the binarized image signal B is converted into the binarized image centroid. It is possible to input to the point calculation unit 11.

【0076】本装置の構成中、色度座標演算部2は図2
に示すごとく、1つの3入力加算回路21、3つの対数
圧縮回路22、23、24、2つの2入力減算回路2
5、26及び、2つの指数関数発生回路27、28から
構成されている。
In the construction of this apparatus, the chromaticity coordinate calculation unit 2 is shown in FIG.
, One 3-input adder circuit 21, three logarithmic compression circuits 22, 23, 24, and two 2-input subtractor circuits 2
5, 26 and two exponential function generating circuits 27, 28.

【0077】3入力加算回路21には、X、Y、Z刺激
値の信号ラインが接続されその出力端が対数圧縮回路2
2に接続されている。対数圧縮回路23にはX刺激値の
信号ラインが接続され、対数圧縮回路24にはY刺激値
の信号ラインが接続されている。
Signal lines for X, Y, and Z stimulus values are connected to the 3-input addition circuit 21, and the output terminal thereof is a logarithmic compression circuit 2.
Connected to 2. An X stimulus value signal line is connected to the logarithmic compression circuit 23, and a Y stimulus value signal line is connected to the logarithmic compression circuit 24.

【0078】対数圧縮回路22の出力端は、2入力減算
回路25、26の減算値入力端に接続され、対数圧縮回
路23の出力端と対数圧縮回路24の出力端はそれぞ
れ、指数関数発生回路27と指数関数発生回路28の被
減算値入力端に接続されている。指数関数発生回路27
の出力端には色度座標x、指数関数発生回路28の出力
端には色度座標yの信号が出力される。
The output terminal of the logarithmic compression circuit 22 is connected to the subtraction value input terminals of the two-input subtraction circuits 25 and 26, and the output terminal of the logarithmic compression circuit 23 and the output terminal of the logarithmic compression circuit 24 are exponential function generating circuits. 27 and the exponential function generating circuit 28 are connected to the subtracted value input terminals. Exponential function generator 27
The signal of the chromaticity coordinate x is output to the output terminal of, and the signal of the chromaticity coordinate y is output to the output terminal of the exponential function generating circuit 28.

【0079】本装置の構成中、色度差算出部3は図3に
示すごとく、2つの2入力減算回路31、32、2つの
絶対値化回路33、34及び2入力加算回路35から構
成されている。2入力減算回路31の入力端には色度座
標xと基準色度座標xoの信号ラインが接続され、2入
力減算回路32の入力端には色度座標yと基準色度座標
yoの信号ラインが接続されている。
In the configuration of this apparatus, the chromaticity difference calculating section 3 is composed of two 2-input subtraction circuits 31, 32, two absolute value conversion circuits 33, 34 and a 2-input addition circuit 35 as shown in FIG. ing. The signal line of the chromaticity coordinate x and the reference chromaticity coordinate xo is connected to the input end of the 2-input subtraction circuit 31, and the signal line of the chromaticity coordinate y and the reference chromaticity coordinate yo is connected to the input end of the 2-input subtraction circuit 32. Are connected.

【0080】2入力減算回路31、32の出力端はそれ
ぞれ絶対値化回路33、34に接続され、それらの出力
端は2入力加算回路35の入力端に接続されている。2
入力加算回路35の出力端からは色度差信号ΔCが出力
される。
The output terminals of the 2-input subtraction circuits 31 and 32 are connected to the absolute value conversion circuits 33 and 34, respectively, and their output terminals are connected to the input terminals of the 2-input addition circuit 35. Two
The chromaticity difference signal ΔC is output from the output end of the input addition circuit 35.

【0081】本装置の構成中、色度差信号2値化部7は
図4に示すごとく、ΔCマップフレームメモリ71、Δ
Cmax算出処理回路72及び、2値化回路73から構
成されている。ΔCマップフレームメモリ71の入力端
には図1に示す色度差算出部3からの色度差信号ΔCの
信号ラインが接続され、その出力端は2値化回路73の
入力端に接続されている。
In the configuration of the present apparatus, the chromaticity difference signal binarization unit 7 has the ΔC map frame memory 71, Δ as shown in FIG.
It is composed of a Cmax calculation processing circuit 72 and a binarization circuit 73. The signal line of the chromaticity difference signal ΔC from the chromaticity difference calculation unit 3 shown in FIG. 1 is connected to the input end of the ΔC map frame memory 71, and its output end is connected to the input end of the binarization circuit 73. There is.

【0082】ΔCmax算出処理回路72の入力端に
は、図1に示す極小点データ保持部6からの最小極小点
色度差ΔCpmの信号出力が接続され、その出力端は2
値化回路73の2値化しきい値設定入力端に接続されて
いる。この、最小極小点色度差ΔCpmは目標指定点の
色度に最も近い色度となっており、撮像時点の最新の目
標の色度として取り扱うことができる。
A signal output of the minimum minimum point chromaticity difference ΔCpm from the minimum point data holding unit 6 shown in FIG. 1 is connected to the input terminal of the ΔCmax calculation processing circuit 72, and its output terminal is 2
It is connected to the binarization threshold value setting input terminal of the binarization circuit 73. This minimum minimum point chromaticity difference ΔCpm is the chromaticity closest to the chromaticity of the target designated point, and can be treated as the latest target chromaticity at the time of image capturing.

【0083】従って、この値から目標のモデルによる目
標判定限界値分だけ大きい値を設定しこれをしきい値と
して、これ以下のΔCを2値化することにより、目標の
特徴存在エリアを2値化できることになる。
Therefore, a value larger than the target judgment limit value by the target model is set from this value, and this value is used as a threshold value to binarize ΔC below this value, whereby the target feature existing area is binarized. Can be realized.

【0084】ΔCmax算出処理回路72では、色度差
信号ΔCを2値化するために、極小点データ保持部6に
保持されている最小極小点色度差ΔCpmの値に目標判
定限界値分を加算して得られる2値化しきい値ΔCma
xを出力する。2値化回路73の出力端からは、ΔCマ
ップフレームメモリ71から読み出した色度差信号ΔC
について2値化しきい値ΔCmaxより小さなΔCマッ
プ2値化信号BΔCを「1」とし、2値化画像として出
力する。
In the ΔCmax calculation processing circuit 72, in order to binarize the chromaticity difference signal ΔC, the target judgment limit value is added to the value of the minimum minimum point chromaticity difference ΔCpm held in the minimum point data holding unit 6. Binarization threshold value ΔCma obtained by addition
Output x. From the output end of the binarization circuit 73, the chromaticity difference signal ΔC read from the ΔC map frame memory 71.
Is set to "1", and the ΔC map binarized signal BΔC smaller than the binarized threshold value ΔCmax is output as a binarized image.

【0085】本装置の構成中、輝度信号2値化部8は図
5に示すごとく、輝度マップフレームメモリ81、Ym
ax、Ymin算出処理回路82及び、2値化回路83
から構成されている。輝度マップフレームメモリ81の
入力端には図1に示す刺激値変換部1からの輝度信号Y
の信号ラインが接続され、その出力端には2値化回路8
3の入力端に接続されている。
In the configuration of the present apparatus, the luminance signal binarization unit 8 has the luminance map frame memory 81 and Ym as shown in FIG.
ax, Ymin calculation processing circuit 82 and binarization circuit 83
It consists of A luminance signal Y from the stimulus value conversion unit 1 shown in FIG.
Signal line is connected to the output terminal of the binarization circuit 8
3 is connected to the input end.

【0086】Ymax、Ymin算出処理回路82の入
力端には、図1に示す基準輝度更新部10からの基準輝
度Yoのラインが接続され、その出力端は2値化回路8
3の2値化しきい値設定入力端に接続されている。2値
化回路73の出力端からは輝度2値化信号BYが出力さ
れる。
The line of the reference luminance Yo from the reference luminance updating unit 10 shown in FIG. 1 is connected to the input terminal of the Ymax and Ymin calculation processing circuit 82, and the output terminal thereof is the binarization circuit 8.
3 is connected to the binarized threshold value setting input terminal. A luminance binarization signal BY is output from the output terminal of the binarization circuit 73.

【0087】最小極小点輝度値Ypmもまた、ΔCpm
と同様に目標の特徴量であると考えられるため、このY
pmをもとに基準輝度値Yoを求め、これを中心として
目標の特性を勘案した輝度2値化限界値Ymax、Ym
inを求め、この範囲内にあるYの値を2値化して前記
ΔCマップ2値化信号BΔCと論理積を取ることによ
り、高い確度で目標エリアの2値化画像を得ることがで
きる。
The minimum minimum point luminance value Ypm is also ΔCpm
Since it is considered to be the target feature quantity like
A reference luminance value Yo is calculated based on pm, and the luminance binarization limit values Ymax and Ym are obtained with the target characteristics taken into consideration.
By obtaining in, binarizing the value of Y within this range and taking the logical product with the ΔC map binary signal BΔC, the binarized image of the target area can be obtained with high accuracy.

【0088】輝度信号Yを2値化するため、図1に示す
極小点データ保持部6に保持されている目標の最小極小
点輝度値Ypmから、図1に示す基準輝度更新部10に
より予測またはフィルタリング処理で得た基準輝度Yo
を得るが、Ymax、Ymin算出処理回路82では、
このYoから目標の特性を勘案した目標判定限界上限幅
の分を加算した輝度2値化限界値Ymaxと目標判定限
界下限幅の分を減算した輝度2値化限界値Yminを求
める。
In order to binarize the brightness signal Y, the reference minimum brightness value Ypm shown in FIG. Reference luminance Yo obtained by the filtering process
However, in the Ymax and Ymin calculation processing circuit 82,
A luminance binarization limit value Ymax obtained by adding the target determination limit upper limit width considering the characteristics of the target to this Yo and a luminance binarization limit value Ymin obtained by subtracting the target determination limit lower limit width from the Yo are obtained.

【0089】2値化回路73では、このYmax、Ym
inの間の範囲にある輝度マップフレームメモリ81か
ら読み出したYの値について輝度画像2値化信号BYを
「1」とし、2値化画像として出力する。
In the binarization circuit 73, these Ymax and Ym
The luminance image binarization signal BY is set to "1" for the value of Y read from the luminance map frame memory 81 in the range between in and the binarized image is output.

【0090】以下、本発明のカラー画像目標位置検出装
置の動作について、図1〜図13を参照して説明する。
The operation of the color image target position detecting apparatus of the present invention will be described below with reference to FIGS.

【0091】まず、3つの受信カラー画像信号R,G,
Bが1画素づつセンサの出力と同じレートで刺激値変換
部1に入力され、
First, the three received color image signals R, G,
B is input to the stimulus value conversion unit 1 at the same rate as the output of the sensor pixel by pixel,

【0092】[0092]

【数13】 の演算結果が逐次出力される。[Equation 13] The calculation results of are sequentially output.

【0093】この出力は、X、Y、Z刺激値として色度
座標演算部2に出力される。なお、この3つの刺激値の
内、刺激値Yは画像の輝度を表す原色の刺激値に対応し
ている。これらX、Y、Zの信号は、図2に示す色度座
標演算部2の3入力加算回路21で合計され、対数圧縮
回路22に入力される。
This output is output to the chromaticity coordinate calculation unit 2 as X, Y, Z stimulus values. Of these three stimulus values, the stimulus value Y corresponds to the stimulus value of the primary color representing the brightness of the image. These X, Y, and Z signals are summed by the 3-input addition circuit 21 of the chromaticity coordinate calculation unit 2 shown in FIG. 2 and input to the logarithmic compression circuit 22.

【0094】XとYの信号は、それぞれ対数圧縮回路2
3と対数圧縮回路24に入力され、2入力減算回路2
5、26に出力される。2入力減算回路25、26では
入力値から対数圧縮回路22の出力値を減算することに
より、
The X and Y signals are the logarithmic compression circuit 2 respectively.
3 and the logarithmic compression circuit 24, and the 2-input subtraction circuit 2
5 and 26 are output. The two-input subtraction circuits 25 and 26 subtract the output value of the logarithmic compression circuit 22 from the input value,

【0095】[0095]

【数14】 を得る。これらx’、y’の信号は指数関数発生回路2
7、28に入力され、ここで
[Equation 14] To get These x'and y'signals are the exponential function generating circuit 2
Input to 7, 28, where

【0096】[0096]

【数15】 の値を得た後、色度座標演算部2からの出力信号として
出力する。この色度信号x、yの値は
[Equation 15] After obtaining the value of, the output signal is output from the chromaticity coordinate calculation unit 2. The values of the chromaticity signals x and y are

【0097】[0097]

【数16】 の計算結果に一致しており、カラー画像信号R,G,B
に対する色度座標点を示している。
[Equation 16] Of the color image signals R, G, B
Shows the chromaticity coordinate points for the.

【0098】一方、色度座標演算部2からの色度信号
x、y及び、刺激値変換部1からの刺激値Yは共に指定
点データ保持部13に入力され、ここで目標を指定した
ときに与えられる初期捕捉指定点Gtoと一致した画素
のx、yと刺激値Yを選択・保持し、これを画像フレー
ム毎に更新して、指定点色度信号xto、yto及び、
指定点刺激値Ytoとして指定点データ保持部13から
出力する。
On the other hand, when the chromaticity signals x and y from the chromaticity coordinate calculation unit 2 and the stimulus value Y from the stimulus value conversion unit 1 are both input to the designated point data holding unit 13 and a target is designated here. X and y of the pixel that coincides with the initial capture designated point Gto given to the above and the stimulus value Y are selected and held, and this is updated for each image frame, and the designated point chromaticity signals xto, yto and
The designated point stimulus value Yto is output from the designated point data holding unit 13.

【0099】この内、指定点色度信号xto、ytoは
基準色度更新部4に入力される。基準色度更新部4で
は、初期捕捉指定点Gtoが初期捕捉点として設定を完
了したことを示す設定完了タイミング信号Toを受領し
た時点で指定点色度信号xto、ytoをそのまま基準
色度更新部4の初期の基準色度信号xo、yoとする。
Of these, the specified point chromaticity signals xto and yto are input to the reference chromaticity updating section 4. In the reference chromaticity update unit 4, when the setting completion timing signal To indicating that the initial capture designated point Gto has been set as the initial capture point is received, the designated point chromaticity signals xto and yto are used as they are as the reference chromaticity update unit. 4 and the initial reference chromaticity signals xo and yo.

【0100】指定点刺激値Ytoについては、基準輝度
更新部10に入力され、設定完了タイミング信号Toを
受領した時点で基準輝度更新部10の初期の基準輝度信
号Yoとする。また、評価エリア発生部12では設定完
了タイミング信号Toを受領した時点で与えられる初期
捕捉ウィンドウWGtoを初期値とした検出エリア信号
WGを発生する。
The designated point stimulus value Yto is input to the reference luminance updating unit 10 and is set as the initial reference luminance signal Yo of the reference luminance updating unit 10 when the setting completion timing signal To is received. Further, the evaluation area generator 12 generates a detection area signal WG having an initial value of the initial capture window WGto given at the time of receiving the setting completion timing signal To.

【0101】次に、色度座標演算部2からの色度信号
x、yの値は図3に示す色度差算出部3の2入力減算回
路31、32で前記xo、yoを引き、絶対値化回路3
3、34で絶対値を求めた後、それらを2入力加算回路
35で加算することにより、
Next, the values of the chromaticity signals x and y from the chromaticity coordinate calculation unit 2 are subtracted by the two-input subtraction circuits 31 and 32 of the chromaticity difference calculation unit 3 shown in FIG. Value circuit 3
After obtaining the absolute values in 3 and 34, by adding them in the 2-input adding circuit 35,

【0102】[0102]

【数17】 の式による1画素毎の色度差信号ΔCをセンサからの画
像信号と同じレートで得る。
[Equation 17] The chromaticity difference signal ΔC for each pixel according to the equation is obtained at the same rate as the image signal from the sensor.

【0103】この色度差信号ΔCは極小点検出部5に入
力され、ここでΔCの極小点が検出される毎にその発生
時点を示す極小点検出タイミング信号pmが極小点デー
タ保持部6に出力される。
This chromaticity difference signal ΔC is input to the minimum point detecting section 5, and every time when the minimum point of ΔC is detected, the minimum point detection timing signal pm indicating the time of occurrence is input to the minimum point data holding section 6. Is output.

【0104】極小点データ保持部6では、色度差算出部
3からの色度差信号ΔC、色度座標演算部2からの色度
座標信号x、y、及び、刺激値変換部1からの輝度信号
Y(Y刺激値)が入力されているが、極小点検出信号p
mが来た時点で過去に保持した色度差信号ΔCより小さ
なΔCが入力されているかを判定し、小さい値が入力さ
れている場合は入力されている信号全てを更新・保持す
る。
In the minimum point data holding section 6, the chromaticity difference signal ΔC from the chromaticity difference calculating section 3, the chromaticity coordinate signals x and y from the chromaticity coordinate calculating section 2, and the stimulus value converting section 1 are sent. The luminance signal Y (Y stimulus value) is input, but the minimum point detection signal p
When m comes, it is determined whether or not ΔC smaller than the previously stored chromaticity difference signal ΔC is input, and if a small value is input, all the input signals are updated and held.

【0105】従って、本装置に1画面全面1フレームの
入力が完了した時点で色度差信号ΔCの最小値を持つ極
小点のΔC、x、y、Yが極小点データ保持部6の内部
に保持されていることになり、これらをそれぞれ、ΔC
pm、xpm、ypm、Ypmとして出力する。
Therefore, when the input of one frame on the entire screen is completed in this apparatus, the minimum points ΔC, x, y, and Y having the minimum value of the chromaticity difference signal ΔC are stored in the minimum point data holding unit 6. Are held, and each of these is ΔC
Output as pm, xpm, ypm, Ypm.

【0106】極小点データ保持部6からのΔCpmの信
号は図4に示す色度差信号2値化部7で目標の特性から
モデル化した目標判定限界値を加算した2値化しきい値
ΔCmaxを算出処理回路72で求め、ΔCmaxを2
値化回路73に設定する。
The ΔCpm signal from the minimum point data holding unit 6 is a binarization threshold value ΔCmax obtained by adding the target judgment limit value modeled from the target characteristic by the chromaticity difference signal binarization unit 7 shown in FIG. Calculated by the calculation processing circuit 72, ΔCmax is 2
The value is set in the digitizing circuit 73.

【0107】同様に、図5に示す輝度信号2値化部8で
は、基準輝度更新部10からの基準輝度信号Yoをもと
に目標の特性を勘案した目標判定限界上限幅の分を加算
した輝度2値化限界値Ymaxと目標判定限界下限幅の
分を減算した輝度2値化限界値Yminを2値化範囲と
してYmax、Ymin算出処理回路82で求め、2値
化回路73に設定する。
Similarly, in the luminance signal binarization unit 8 shown in FIG. 5, the target determination limit upper limit width considering the characteristics of the target is added based on the reference luminance signal Yo from the reference luminance updating unit 10. The luminance binarization limit value Ymin obtained by subtracting the luminance binarization limit value Ymax and the target determination limit lower limit width is obtained as a binarization range by the Ymax and Ymin calculation processing circuit 82 and set in the binarization circuit 73.

【0108】ΔCmaxとYmax、Yminの設定完
了時点で、1フレーム分のΔCのマップデータを図4に
示すΔCマップフレームメモリ71から、また、Yのマ
ップデータは図5に示す輝度マップフレームメモリ81
から読み取り、2値化回路73、83でそれぞれΔCと
Yに対する2つの2値化画像信号BΔCとBYを得る。
When the setting of ΔCmax, Ymax, and Ymin is completed, ΔC map data for one frame is obtained from the ΔC map frame memory 71 shown in FIG. 4, and Y map data is obtained from the luminance map frame memory 81 shown in FIG.
, And two binary image signals BΔC and BY for ΔC and Y are obtained by the binarizing circuits 73 and 83, respectively.

【0109】評価エリア発生部12では、設定完了タイ
ミング信号Toを受領した時点で与えられる初期捕捉ウ
ィンドウWGtoを初期値とした検出エリア信号WGに
よりこれに対応する画像フレーム上のエリア内であれ
ば、「1」となる2値化エリア信号wを発生し出力する
が、この2値化エリア信号wと前記2値化画像信号BΔ
C、BYとをAND回路9で論理積をとり、最終的な目
標の2値化画像Bを得る。
In the evaluation area generator 12, if the detection area signal WG has an initial capture window WGto given at the time of receiving the setting completion timing signal To as an initial value, and the area is on the corresponding image frame, The binarized area signal w of "1" is generated and output, and the binarized area signal w and the binarized image signal BΔ
The AND circuit 9 ANDs C and BY to obtain the final target binarized image B.

【0110】得られた2値化画像Bは、2値化画像重心
点演算部11でラベリング処理が行われ、複数の独立し
た2値化エリアに区別・分離した後、過去の検出位置の
動きによる予測によって2値化エリアのひとつを選択し
て面重心点を計算し目標検出位置Gとして本装置から出
力される。
The obtained binarized image B is subjected to labeling processing in the binarized image centroid calculation unit 11 to distinguish and separate into a plurality of independent binarized areas, and then the movement of the past detected position. One of the binarized areas is selected according to the prediction by, and the center of gravity of the surface is calculated, and the target detection position G is output from this apparatus.

【0111】次のフレームの処理に移行する時点では、
次の画像フレーム入力開始前に基準色度更新部4で、極
小点データ保持部6に保持されている最新の目標の色度
xpm、ypmを入力し、現在保持している基準色度値
xo、yoを基準として、次フレームの基準色度を予測
またはフィルタリング処理をし、新たな基準色度値x
o、yoとする。
At the time of shifting to the processing of the next frame,
Before inputting the next image frame, the reference chromaticity updating unit 4 inputs the latest target chromaticities xpm and ypm held in the minimum point data holding unit 6, and the currently held reference chromaticity value xo. , Yo as a reference, the reference chromaticity of the next frame is predicted or filtered to obtain a new reference chromaticity value x.
o and yo.

【0112】基準輝度更新部10でも同様に、極小点デ
ータ保持部6に保持されている目標の輝度Ypmによ
り、予測またはフィルタリング処理で新たな基準輝度Y
oに更新する。
Similarly, the reference luminance updating unit 10 uses the target luminance Ypm held in the local minimum point data holding unit 6 to obtain a new reference luminance Y in the prediction or filtering process.
Update to o.

【0113】評価エリア発生部12では、2値化画像重
心点算出部11からの目標検出位置Gと2値化面積Sか
ら、目標検出位置Gを中心位置とし、且、初期捕捉ウィ
ンドウWGtoの縦横の比率を一定としつつ、WGto
のエリア面積にたいする2値化面積Sの比率が一定とな
るように検出エリア信号WGを更新し、また、次フレー
ムで更新されたWGに対応する2値化エリア信号wを発
生可能な状態とする。
In the evaluation area generation unit 12, the target detection position G is set as the center position from the target detection position G and the binarized area S from the binarized image centroid calculation unit 11, and the vertical and horizontal directions of the initial capture window WGto are set. WGto while keeping the ratio of
The detection area signal WG is updated so that the ratio of the binarized area S to the area area of is constant, and the binarized area signal w corresponding to the WG updated in the next frame can be generated. .

【0114】以上を1フレーム毎のカラー画像信号R,
G,Bの入力から繰り返すことにより、最初に設定完了
タイミング信号Toを受領したときの初期捕捉指定点の
目標を検出し、その位置をフレーム毎出力する動作をす
る。また、次に設定完了タイミング信号Toが入力され
た場合は、その時点で与えられた初期捕捉指定点Gto
の目標が新たな目標になる。
The above is the color image signal R for each frame,
By repeating from the input of G and B, the target of the initial capture designated point when the setting completion timing signal To is first received is detected, and the position is output for each frame. When the setting completion timing signal To is input next, the initial capture designated point Gto given at that time is input.
The goal of is a new goal.

【0115】上記の実施例では、極小点データ保持部6
の保持するデータは最小のΔCを持つ極小点に対応する
データ群を1点についてのみ保持し目標に追尾するため
の情報として出力する構成としたが、他の実施例とし
て、極小点データ保持部6を極小点の画面上の位置座標
も保持できるようにして、且、複数の極小点についての
データ群をリストの形で保持できる構成にすることがで
きる。
In the above embodiment, the minimum point data holding unit 6
The data held by is stored in a data group corresponding to the minimum point having the minimum ΔC and is output as information for tracking the target, but as another embodiment, the minimum point data holding unit 6 can also hold the position coordinates of the minimum points on the screen, and can also be configured to hold a data group for a plurality of minimum points in the form of a list.

【0116】この構成では、探索する色度を目標指定点
色度として設定するようにすれば、探索する目標候補の
点の画面上の座標を複数ΔCの小さい順で順位づけを行
ってデータ群を整理し、これらを出力することが可能な
いわゆる目標候補探索装置となる。
In this configuration, if the chromaticity to be searched is set as the target designated point chromaticity, the coordinates of the target candidate point to be searched on the screen are ranked in the order of a plurality of small ΔC, and the data group is obtained. Becomes a so-called target candidate search device capable of organizing and outputting these.

【0117】[0117]

【発明の効果】本発明は、赤、緑、青の3つの画像信号
R,G,Bを、センサから出力される画素毎に実時間で
カラー信号入力に対応して3刺激値信号X、Y、Zに変
換し、この3刺激値信号X、Y、Zから目標の反射光が
持つ分光特性に直接関係する色度座標点の信号x、yを
計算しているので、目標の明暗に捕らわれない的確な目
標検出ができる。
According to the present invention, the three image signals R, G and B of red, green and blue are supplied in real time for each pixel output from the sensor in response to a color signal input, and a tristimulus value signal X, Since the signals are converted into Y and Z, and the signals x and y of the chromaticity coordinate points directly related to the spectral characteristics of the target reflected light are calculated from these tristimulus value signals X, Y, and Z, it is possible to calculate the target brightness and darkness. Accurate target detection that is not captured is possible.

【0118】更に、x、yの値は必ず、「1」以下の値
となるため、以降の処理での回路設計で必要となる処理
値のスケーリングが容易になる。また、刺激値変換部で
得られるY刺激値は色光の明るさに相当するため、目標
検出にY刺激値をそのまま使用して色度値、x、yとを
組み合わせた場合には、より的確な検出判定が可能とな
る。
Furthermore, since the values of x and y are always values of "1" or less, the scaling of the processing values required for the circuit design in the subsequent processing becomes easy. Further, since the Y stimulus value obtained by the stimulus value conversion unit corresponds to the brightness of the colored light, if the Y stimulus value is used as it is for the target detection and the chromaticity values, x, and y are combined, it is more accurate. It is possible to make various detection determinations.

【0119】また、本発明は、色度座標演算部で、x、
yを得るための演算に、対数圧縮後、減算する方法を用
いることができるので、x、yを得るために取り扱える
刺激値のダイナミックレンジを極めて広くすることがで
き、かつ、除算回路を排除できる効果をもっている。
Further, the present invention is a chromaticity coordinate calculation unit, wherein x,
Since a method of performing logarithmic compression and then subtracting can be used for the operation for obtaining y, the dynamic range of the stimulus value that can be handled for obtaining x and y can be made extremely wide, and the division circuit can be eliminated. Has an effect.

【0120】また、色度差算出部3では検出すべき目標
の色度値を基準としてその撮像画像について色度空間上
での座標の基準との位置ズレを、距離情報という1つの
信号値に変換しているため、この値が最小となる点を検
出するのみで目標点検出点とすることができ、処理回路
の規模を削減することができる。さらに、色度空間上で
の座標の基準との位置ズレを距離情報得る際に、色度差
を算出しているので、距離情報を、自乗演算及び平方根
を求めることなく簡単に求められると同時に、常にΔC
≧rの関係があるので、rの値より大きな色度の差の値
として求めることができる。
Further, the chromaticity difference calculating section 3 uses the target chromaticity value to be detected as a reference and the positional deviation of the captured image from the reference of the coordinates in the chromaticity space as one signal value called distance information. Since the conversion is performed, the target point can be set as the target point detection point only by detecting the point having the minimum value, and the scale of the processing circuit can be reduced. Furthermore, since the chromaticity difference is calculated when obtaining the distance information about the positional deviation from the coordinate reference in the chromaticity space, the distance information can be easily obtained without the square calculation and the square root. , Always ΔC
Since there is a relation of ≧ r, it can be obtained as a value of a difference in chromaticity larger than the value of r.

【0121】また、本発明では、基準色度更新部4を有
しているので、時間と共に目標の距離が遠方に変化し、
大気の散乱光及び、透過率の分光特性の影響を受け、撮
像色度が変化した場合でも、基準色度のトラッキングが
可能であり、撮像距離の影響を抑える効果を持ってい
る。
Further, according to the present invention, since the reference chromaticity updating unit 4 is provided, the target distance changes to a distant position with time,
Even if the imaging chromaticity changes due to the influence of the atmospheric scattered light and the spectral characteristics of the transmittance, the reference chromaticity can be tracked, and the effect of the imaging distance can be suppressed.

【0122】また、最終の目標位置の算出は、2値化画
像重心点演算部11により、ラベリング処理した後、目
標の動き予測判定による2値化エリア選択の後に面重心
として出力しているので、同色物体交差判定も可能であ
り、且、検出位置がエリア内で平均化されて検出点位置
の揺らぎ又は、飛びの幅を緩和することができる。
Further, since the final target position is calculated by the binarized image barycenter calculation unit 11 after the labeling process, it is output as the surface barycenter after the binarized area is selected by the target motion prediction determination. The same-color object intersection determination can be performed, and the detection positions can be averaged within the area to reduce the fluctuation of the detection point position or the jump width.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】図1における色度座標変換部2の一例を示すブ
ロック図である。
FIG. 2 is a block diagram showing an example of a chromaticity coordinate conversion unit 2 in FIG.

【図3】図1における色度差算出部3の一例を示すブロ
ック図である。
3 is a block diagram showing an example of a chromaticity difference calculation unit 3 in FIG.

【図4】図1における色度差信号2値化部7の一例を示
すブロック図である。
FIG. 4 is a block diagram showing an example of a chromaticity difference signal binarization unit 7 in FIG.

【図5】図1における輝度信号2値化部8の一例を示す
ブロック図である。
5 is a block diagram showing an example of a luminance signal binarization unit 8 in FIG.

【図6】図1の使用接続例を示すブロック図である。FIG. 6 is a block diagram showing an example of use connection of FIG.

【図7】図1における各ブロックの動作を説明するため
の図である。
FIG. 7 is a diagram for explaining the operation of each block in FIG.

【図8】本発明の動作を説明するための図である。FIG. 8 is a diagram for explaining the operation of the present invention.

【図9】本発明の動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of the present invention.

【図10】本発明の動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of the present invention.

【図11】本発明の動作を説明するための図である。FIG. 11 is a diagram for explaining the operation of the present invention.

【図12】本発明の動作を説明するための図である。FIG. 12 is a diagram for explaining the operation of the present invention.

【図13】本発明の動作を説明するための図である。FIG. 13 is a diagram for explaining the operation of the present invention.

【符号の説明】[Explanation of symbols]

1 刺激値変換部 2 色度座標演算部 3 色度差算出部 4 基準色度更新部 5 極小点検出部 6 極小点データ保持部 7 色度差信号2値化部 8 輝度信号2値化部 9 AND回路 10 基準輝度更新部 11 2値化画像重心点算出部 12 評価エリア発生部 13 指定点データ保持部 21 3入力加算回路 22,23,24 対数圧縮回路 25,26 減算回路 27,28 指数関数回路 31,32 減算回路 33,34 絶対値化回路 35 2入力加算回路 71 ΔCマップフレームメモリ 72 ΔCmax算出処理回路 73 2値化回路 81 輝度マップフレームメモリ 82 Ymax/Ymin算出処理回路 83 2値化回路 100 カラー画像目標検出装置 101 カラー画像センサ 102 初期捕捉指定入力装置 103 画像・指定位置表示装置 104 ジンバル装置 105 追尾信号出力装置 106 撮像対象 107 表示画面 108 追尾目標 201 カラー画像センサのRGB信号による色度の
値域 202 入力画像の色度座標 203 目標指定点色度座標(基準色度座標) 301 x+y=1となる直線 302 0点を基準としたΔC≦1.0を満たす限界
線 401 ΔCマップ 402 極小点 403 pm発生点 404 pm発生範囲指定エリアWG 501 撮像画面 502 信号出力順序
1 Stimulus value conversion unit 2 Chromaticity coordinate calculation unit 3 Chromaticity difference calculation unit 4 Reference chromaticity update unit 5 Minimum point detection unit 6 Minimum point data holding unit 7 Chromaticity difference signal binarization unit 8 Luminance signal binarization unit 9 AND circuit 10 Reference luminance update unit 11 Binary image centroid calculation unit 12 Evaluation area generation unit 13 Specified point data storage unit 21 3 Input addition circuit 22, 23, 24 Logarithmic compression circuit 25, 26 Subtraction circuit 27, 28 Exponent Function circuit 31, 32 Subtraction circuit 33, 34 Absolute value conversion circuit 35 2-input addition circuit 71 ΔC map frame memory 72 ΔCmax calculation processing circuit 73 Binarization circuit 81 Luminance map frame memory 82 Ymax / Ymin calculation processing circuit 83 Binarization Circuit 100 Color image target detection device 101 Color image sensor 102 Initial capture designation input device 103 Image / designated position display device 104 Gimbal device 105 Tail signal output device 106 Imaging target 107 Display screen 108 Tracking target 201 Chromaticity range by RGB signal of color image sensor 202 Chromaticity coordinate 203 of input image Target designated point chromaticity coordinate (reference chromaticity coordinate) 301 x + y = 1 A straight line 302 a limit line 401 that satisfies ΔC ≦ 1.0 based on 0 points ΔC map 402 minimum point 403 pm generation point 404 pm generation range designation area WG 501 imaging screen 502 signal output order

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 5/222 - 5/257 H04N 9/04 - 9/11 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of front page (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G06T 1/00 H04N 5/222-5/257 H04N 9/04-9 / 11 H04N 7/18

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 目標カラー画像を撮影し、赤(R)、緑
(G)、青(B)の3つのカラー信号を出力するカラー
画像センサからの画像信号R,G,Bを、 【数1】 の演算をすることにより、センサから出力される画素毎
に実時間でカラー信号入力に対応してX、Y、Zの3刺
激値信号に変換する刺激値変換部と、 前記X、Y、Zの3刺激値信号を 【数2】 の演算をすることにより色度座標信号x、yに変換する
色度座標演算部と、 基準色度座標信号xo、yoと前記色度座標信号x、y
から、 【数3】 の演算をすることにより色度差ΔCを算出する色度差算
出部と、 評価エリア発生部からの検出エリア信号によって設定さ
れた検出エリア内で前記色度差ΔCが極小となる点を検
出して極小点検出タイミング信号pmを出力する極小点
検出部と、 前記極小点検出タイミング信号pmが発生する毎に極小
点の色度差ΔC及び該極小点の色度差ΔCに対応する色
度座標信号x、yを保持し、1フレームのカラー信号入
力完了時点で前記極小点の色度差ΔCの中の最小のもの
及び該最小のΔCに対応する色度座標信号x、yを最小
極小点色度差ΔCpm及び最小極小点色度値xpm、y
pmとして出力する極小点データ保持部と、 前記色度差ΔCと前記最小極小点色度差ΔCpmを入力
して、前記色度差ΔCを2値化色度差BΔCに変換する
色度差信号2値化部と、 前記2値化色度差BΔCと前記評価エリア発生部から出
力される2値化出力画像エリアを限定する2値化ウィン
ドウエリア信号wとの論理積信号Bを出力するAND回
路と、 前記論理積信号Bを入力して、2値化画像の重心点Gと
B=1となる画素数を値とする2値化面積Sを算出する
2値化画像重心点算出部と、 初期捕捉指定点と一致した画素の色度座標信号x、yを
選択・保持し、指定点色度信号xto、ytoとして出
力する指定点データ保持部と、 前記指定点色度信号xto、ytoと前記最小極小点色
度値xpm、ypmを入力し、前記基準色度信号xo、
yoを出力する基準色度更新部と、を備えていることを
特徴とするカラー画像目標位置検出装置。
1. An image signal R, G, B from a color image sensor that captures a target color image and outputs three color signals of red (R), green (G), and blue (B) 1] And a stimulus value conversion unit for converting each pixel output from the sensor into a tristimulus value signal of X, Y, Z in real time corresponding to a color signal input, and the X, Y, Z 3 stimulus value signals of [Equation 2] And a chromaticity coordinate calculation unit for converting into chromaticity coordinate signals x and y by performing the following calculation, and reference chromaticity coordinate signals xo and yo and the chromaticity coordinate signals x and y.
From, The chromaticity difference calculation unit that calculates the chromaticity difference ΔC by performing the above calculation, and the point where the chromaticity difference ΔC becomes the minimum in the detection area set by the detection area signal from the evaluation area generation unit is detected. And a chromaticity coordinate corresponding to the chromaticity difference ΔC of the minimum point and the chromaticity difference ΔC of the minimum point each time the minimum point detection timing signal pm is generated. The signals x and y are held, and the minimum one of the chromaticity differences ΔC of the minimum points and the chromaticity coordinate signals x and y corresponding to the minimum ΔC at the time point when the color signal input for one frame is completed are the minimum minimum points. Chromaticity difference ΔCpm and minimum minimal point chromaticity value xpm, y
A minimum point data holding unit that outputs as pm, and a chromaticity difference signal that inputs the chromaticity difference ΔC and the minimum minimum point chromaticity difference ΔCpm and converts the chromaticity difference ΔC into a binarized chromaticity difference BΔC. AND which outputs a logical product signal B of the binarization unit and the binarization chromaticity difference BΔC and the binarization window area signal w that limits the binarization output image area output from the evaluation area generation unit A circuit, and a binarized image centroid point calculation unit for inputting the logical product signal B and computing a binarized area S having a value of the number of pixels where B = 1 and the centroid point G of the binarized image. A designated point data holding unit that selects and holds the chromaticity coordinate signals x and y of the pixels that match the initially captured designated point and outputs the designated point chromaticity signals xto and yto; and the designated point chromaticity signals xto and yto. And the minimum minimum point chromaticity values xpm and ypm are input, and the reference chromaticity signal is input. o,
and a reference chromaticity updating unit that outputs yo.
【請求項2】 前記極小点データ保持部は、更に、前記
極小点検出タイミング信号pmが発生する毎に前記極小
点の色度差ΔCに対応する刺激値信号Yを保持し、1フ
レームのカラー信号入力完了時点で前記極小点の色度差
ΔCの中の最小のΔCに対応する刺激値信号Yを最小極
小点刺激値信号Ypmとして出力する手段を備え、前記
指示点データ保持部は、更に、前記初期捕捉指定点と一
致した画素の刺激値信号Yを選択・保持し、指定点刺激
値信号Ytoとして出力する手段を備えており、 更に、前記最小極小点刺激値信号Ypmと前記指定点刺
激値信号Ytoを入力して、基準輝度信号Yoを出力す
る基準輝度更新部と、 前記刺激値信号Yと前記基準輝度信号Yoを入力して、
前記刺激値信号Yを2値化輝度信号BYに変換して前記
AND回路へ出力する輝度信号2値化部とを備え、 前記AND回路から、前記2値化色度差BΔCと前記輝
度信号BYと前記2値化ウィンドウエリア信号wとの論
理積信号Bを出力することを特徴とする請求項1記載の
カラー画像目標位置検出装置。
2. The minimum point data holding unit further holds a stimulus value signal Y corresponding to the chromaticity difference ΔC of the minimum point every time the minimum point detection timing signal pm is generated, and stores the stimulus value signal Y for one frame. The pointing point data holding unit further comprises means for outputting a stimulus value signal Y corresponding to the minimum ΔC in the chromaticity difference ΔC of the minimum points at the time of completion of signal input, as the minimum minimum point stimulus value signal Ypm. , A means for selecting and holding a stimulus value signal Y of a pixel that coincides with the initial capture designated point and outputting it as a designated point stimulus value signal Yto, further, the minimum minimum point stimulus value signal Ypm and the designated point. A reference brightness update unit that inputs a stimulus value signal Yto and outputs a reference brightness signal Yo; and inputs the stimulus value signal Y and the reference brightness signal Yo,
And a luminance signal binarization unit that converts the stimulation value signal Y into a binarized luminance signal BY and outputs the binarized luminance signal BY to the AND circuit, and the binarized chromaticity difference BΔC and the luminance signal BY are output from the AND circuit. 3. The color image target position detecting device according to claim 1, wherein a logical product signal B of the binary window area signal w and the binary signal is output.
【請求項3】 前記色座標変換部は、前記色度座標信号
x、yを、 【数4】 により求める演算手段を備えていることを特徴とする請
求項1または2記載のカラー画像目標位置検出装置。
3. The color coordinate conversion unit converts the chromaticity coordinate signals x and y into 3. The color image target position detecting device according to claim 1 or 2, further comprising a calculating unit that obtains
JP14884399A 1999-05-27 1999-05-27 Color image target position detection device Expired - Fee Related JP3461143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14884399A JP3461143B2 (en) 1999-05-27 1999-05-27 Color image target position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14884399A JP3461143B2 (en) 1999-05-27 1999-05-27 Color image target position detection device

Publications (2)

Publication Number Publication Date
JP2000341704A JP2000341704A (en) 2000-12-08
JP3461143B2 true JP3461143B2 (en) 2003-10-27

Family

ID=15461991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14884399A Expired - Fee Related JP3461143B2 (en) 1999-05-27 1999-05-27 Color image target position detection device

Country Status (1)

Country Link
JP (1) JP3461143B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4961555B2 (en) * 2005-12-28 2012-06-27 国立大学法人宇都宮大学 Method for locating target part of plant, target part locating device by the method, and working robot using the device
JP4991356B2 (en) * 2007-03-20 2012-08-01 株式会社東芝 Image processing apparatus, image processing method, and image processing program
CN105334492B (en) * 2014-06-27 2018-03-27 日本电气株式会社 Method for tracking target and device based on sensor network
JP7254283B2 (en) * 2019-03-22 2023-04-10 株式会社Screenホールディングス Threshold determination method, image processing method, specimen image evaluation method, computer program and recording medium

Also Published As

Publication number Publication date
JP2000341704A (en) 2000-12-08

Similar Documents

Publication Publication Date Title
JP2686274B2 (en) Cell image processing method and apparatus
JP4054184B2 (en) Defective pixel correction device
US5471535A (en) Method for detecting a contour of a given subject to be separated from images and apparatus for separating a given subject from images
CN106815587B (en) Image processing method and device
CN109753945B (en) Target subject identification method and device, storage medium and electronic equipment
CN104951742A (en) Detection method and system for sensitive video
JP3490482B2 (en) Edge and contour extraction device
JP3461143B2 (en) Color image target position detection device
US6304672B1 (en) Edge detecting method and edge detecting device which detects edges for each individual primary color and employs individual color weighting coefficients
JPH07209402A (en) Target detecting tracking device
KR100230446B1 (en) Determination method for color of light from color image
JPH10247246A (en) Object detection method
JPH07230546A (en) Image processor and its method
JPH0688789A (en) Method for extracting density fluctuation constitution picture element in image and method for judging concentration fluctuation mass
JP4156850B2 (en) Contrast calculation device, similar color arrangement search device, and methods thereof
JP3783881B2 (en) Vehicle detection method and vehicle detection apparatus using the same
JPH11183584A (en) Target detecting apparatus
JP2810867B2 (en) Specific color extraction device
JP3143291B2 (en) Image target detection device
JPH0844852A (en) Image processor
JPH0559547U (en) Image target detection device
JPH07234190A (en) Method for inspecting a non-metal inclusion by color image
CN117611554A (en) Shadow detection method based on fusion of YUV color space and gradient characteristics
JPH10143673A (en) Picture processor
JPH05210737A (en) Method for recognizing pattern

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees