JP2000341704A - Device for detecting target position of color image - Google Patents

Device for detecting target position of color image

Info

Publication number
JP2000341704A
JP2000341704A JP11148843A JP14884399A JP2000341704A JP 2000341704 A JP2000341704 A JP 2000341704A JP 11148843 A JP11148843 A JP 11148843A JP 14884399 A JP14884399 A JP 14884399A JP 2000341704 A JP2000341704 A JP 2000341704A
Authority
JP
Japan
Prior art keywords
signal
chromaticity
minimum
point
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11148843A
Other languages
Japanese (ja)
Other versions
JP3461143B2 (en
Inventor
Hiroshi Ide
宏 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP14884399A priority Critical patent/JP3461143B2/en
Publication of JP2000341704A publication Critical patent/JP2000341704A/en
Application granted granted Critical
Publication of JP3461143B2 publication Critical patent/JP3461143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a target image position detection means capable of accurately detecting a target independently of the tone of the target. SOLUTION: In the target position detection device, a stimulus value conversion part 1 converts image signals of red(R), green(G), and blue(B) outputted from a color image sensor 101 for photographing a target color image and outputting three color signals of R, G and B into three stimulus value signals X, Y, Z corresponding to the inputted color signals at real time in each pixel outputted from the sensor 101 by executing prescribed operation and a chromaticity coordinate operation means 2 calculates the signals x, y of chromaticity coordinate points including no information about the size of stimulus values corresponding to the tone of the image from the three stimulus value signals X, Y, Z, finds out chromaticity difference signal ΔC from the signals x, y and detects a target by using the signal ΔC.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、テレビジョンカメ
ラで撮影した可視画像による目標追尾を行うためのカラ
ー目標位置検出装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a color target position detecting device for tracking a target using a visible image captured by a television camera.

【0002】[0002]

【従来の技術】従来、この種の目標追尾装置において
は、テレビジョンカメラで撮影した画像により、目標物
の動きを検出することによって、撮像方向の自動追従を
実現している。この動きを検出する方法としては、目標
物の周辺画像または特徴部分の画像によって定義した基
準の画像ブロックに対して相関が最大となるブロックの
位置を撮像画像中から検出する方法が一般的に用いられ
てきた。
2. Description of the Related Art Conventionally, this type of target tracking apparatus has realized automatic tracking of the imaging direction by detecting the movement of a target from an image taken by a television camera. As a method of detecting this movement, a method of detecting a position of a block having a maximum correlation with a reference image block defined by a peripheral image of a target or an image of a characteristic portion from a captured image is generally used. I have been.

【0003】この方法の場合、目標物の大きさが変わっ
たり変形した場合には、追尾が困難となる欠点があるの
に加え、相関を取るための回路規模が極めて大きくな
る。また、CPU処理で回路規模を削減しようとすると
処理の負荷が増大して実時間性が失われるという難点が
あった。
In this method, when the size of the target object changes or deforms, there is a disadvantage that tracking becomes difficult, and in addition, a circuit scale for obtaining a correlation becomes extremely large. Further, there is a problem that an attempt to reduce the circuit scale in the CPU processing increases the processing load and loses real-time performance.

【0004】そこで、目標物のカラー画像信号をもとに
目標の持つ色情報を用いる幾つかの方法が提案されてい
る。その一つとして、例えば、カラー画像信号のR、
G、Bを直交座標上のベクトルの成分として考え、追尾
対象の色の単位ベクトルを基準ベクトルとして画像信号
のR、G、Bベクトルとの内積
Therefore, there have been proposed several methods for using color information of a target based on a color image signal of the target. As one of them, for example, R of a color image signal,
Consider G and B as vector components on rectangular coordinates, and use the unit vector of the color to be tracked as a reference vector and the inner product with the R, G, and B vectors of the image signal.

【0005】[0005]

【数5】 を求めることによりベクトル方向の差異をcosθ(但
し、θは撮像画像の対応する画素のベクトルと基準ベク
トルのなす角である。)として得る方法がある。
(Equation 5) To obtain the difference in the vector direction as cos θ (where θ is the angle between the vector of the corresponding pixel of the captured image and the reference vector).

【0006】また、特開平4−184283号公報に
は、目標識別の能力を改善する方法として、カラー画像
信号のR、G、Bを
Japanese Unexamined Patent Publication No. 4-184283 discloses a method of improving the target discrimination ability by using R, G, and B of a color image signal.

【0007】[0007]

【数6】 又は、(Equation 6) Or

【0008】[0008]

【数7】 により、r、g、b表色系色度値に変換して比較する方
法で、目標のrまたはbとgから、基準となる2つの値
の組に対する判定範囲を設定し、撮像画像の対応する画
素のrまたはbとgとを比較回路で判定し、両方の値が
判定範囲に入っていればその画素を2値化することで目
標エリアを得た後、輝度値に相当する(R+G+B)の
目標エリア内での最大輝度点で位置を検出する方法が提
案されている。
(Equation 7) In the method of converting into r, g, and b color system chromaticity values and comparing the values, a determination range for a set of two reference values is set from the target r or b and g, and the correspondence of the captured image is set. The comparison circuit determines the r or b and g of the pixel to be processed, and if both values fall within the determination range, the pixel is binarized to obtain a target area and then correspond to the luminance value (R + G + B). The method of detecting the position at the maximum luminance point in the target area of (1) has been proposed.

【0009】[0009]

【発明が解決しようとする課題】上記従来例では、画像
の明暗の情報は除外され、明暗の影響は抑えられるもの
の、cosθにより評価しているため、色が接近してい
ると余弦関数の性質上、殆ど同じ値となってしまい、目
標点の識別が極めて困難となるという欠点を持ってい
る。
In the above-mentioned conventional example, the information on the brightness of the image is excluded, and the influence of the brightness is suppressed. In addition, there is a disadvantage that the values are almost the same, and it is extremely difficult to identify the target point.

【0010】さらに、cosθの値を得るためには、画
像信号のR、G、Bベクトルの絶対値で除算する必要が
あることから、デジタル高速処理ではROM等による作
表で逆数を発生してこれを乗ずる方法が用いられるが、
この方法では、R、G、Bの値が大きくなると逆数が減
少して量子化誤差の比率が増大し、これが乗数により拡
大され、目標検出誤りが増大するという欠点も併せ持っ
ている。
Furthermore, in order to obtain the value of cos θ, it is necessary to divide by the absolute values of the R, G, and B vectors of the image signal. A method of multiplying this is used,
This method also has the disadvantage that as the values of R, G, and B increase, the reciprocal decreases and the ratio of the quantization error increases, which is increased by the multiplier, and the target detection error increases.

【0011】また、上記特開平4−184283号公報
の方法に依れば、前者の方法に比べ、目標点の識別が容
易になり、検出能力の点では改善されるが、前者と同様
の理由によりデジタル演算の場合、r、g、bを求める
のに直接除算しているため、デジタル高速処理では(R
+G+B)の値が大きく画像が明るい画像領域では、量
子化雑音が増大する。
According to the method disclosed in Japanese Patent Application Laid-Open No. 4-184283, the target point can be easily identified and the detection ability is improved as compared with the former method. , In the case of digital operation, direct division is performed to obtain r, g, and b.
In the image region where the value of (+ G + B) is large and the image is bright, the quantization noise increases.

【0012】従って、この誤差による目標判定に誤りを
生じる欠点については解消されておらず、また、最終段
階で、最大輝度点を目標検出位置としているため、色度
判定で決定した目標エリア内での輝度分布の変化による
検出位置の飛びが生じる欠点があった。
Therefore, the disadvantage that the target determination due to the error causes an error has not been solved, and the maximum luminance point is set as the target detection position in the final stage, so that the target area determined by the chromaticity determination is within the target area. There is a drawback that the detection position jumps due to a change in the luminance distribution of.

【0013】一方、上記のような除算演算を用いない
で、Y刺激値に対する色相・彩度に関係する情報を持っ
たR−Y及び、B−Yの2つの刺激値信号を使用して目
標物の位置を判定して追尾信号を出す方法が、特開平8
−51564号公報において提案されている。
On the other hand, without using the above-described division operation, a target is obtained by using two stimulus value signals of RY and BY having information relating to hue and saturation with respect to the Y stimulus value. A method of determining the position of an object and outputting a tracking signal is disclosed in
No. 5,515,564.

【0014】しかしながらこの方法は、目標の輝度に影
響されずに目標を判定するために、目標物のR−Y及
び、B−Yの2つの刺激値とY刺激値(輝度)との関係
をモデル化した色予測関数と、この関数モデルを考慮し
た目標を判定するための許容誤差範囲を設定する必要が
あり、モデル設定と許容誤差範囲の設定の良し悪しが検
出または誤認の特性に影響するという欠点を持ってい
る。
However, in this method, in order to determine the target without being affected by the luminance of the target, the relationship between the two stimulus values RY and BY of the target and the Y stimulus value (luminance) is determined. It is necessary to set an allowable error range for determining a modeled color prediction function and a target in consideration of this function model, and the quality of the model setting and the setting of the allowable error range affects the characteristics of detection or false recognition. It has the drawback.

【0015】本発明の目的は、以上の各方法が持つ欠点
を解消することができるカラー目標位置検出手段を提供
することにある。
An object of the present invention is to provide a color target position detecting means capable of eliminating the drawbacks of each of the above methods.

【0016】[0016]

【課題を解決するための手段】本発明のカラー目標位置
検出装置は、目標カラー画像を撮影し、赤(R)、緑
(G)、青(B)の3つのカラー信号を出力するカラー
画像センサからの画像信号R,G,Bに対して所定の演
算をすることにより、センサから出力される画素毎に実
時間でカラー信号入力に対応する3刺激値信号X、Y、
Zに変換後、さらに、この3刺激値信号X、Y、Zか
ら、画像の明暗に対応する刺激値の大きさの情報を含ま
ない色度座標点の信号x、yを計算し、この色度座標点
の信号x、yから色度差信号ΔCを求め、この色度差信
号ΔCを用いて目標検出を行うことを特徴としている。
A color target position detecting device according to the present invention captures a target color image and outputs three color signals of red (R), green (G) and blue (B). By performing a predetermined operation on the image signals R, G, and B from the sensor, the tristimulus value signals X, Y, and X corresponding to the color signal input in real time for each pixel output from the sensor.
After the conversion into Z, the signals x, y of the chromaticity coordinate points not including the information of the magnitude of the stimulus value corresponding to the brightness of the image are calculated from the tristimulus value signals X, Y, Z, and this color is calculated. It is characterized in that a chromaticity difference signal ΔC is obtained from the signals x and y of the chromaticity coordinate points, and target detection is performed using the chromaticity difference signal ΔC.

【0017】色度座標点は、目標が持つ固有の分光反射
率特性に直接関係するので、目標の明暗に捕らわれるこ
となく的確な判定を行うことができ、誤りの少ない目標
位置検出が可能となる。さらに、x、yの値は「1」以
下の値となるため、以降の処理での回路設計で必要とな
る処理値のスケーリングが容易となる。
Since the chromaticity coordinate points are directly related to the inherent spectral reflectance characteristics of the target, accurate determination can be made without being caught by the brightness of the target, and the target position with few errors can be detected. . Further, since the values of x and y are equal to or less than “1”, scaling of processing values required for circuit design in subsequent processing is facilitated.

【0018】また、本発明は、色度信号x、yと刺激値
信号Yとを組み合わせ、この色度座標点の信号x、yと
刺激値信号Yに基づいて目標検出を行うこともできる。
これは刺激値信号Yが色光の明るさに相当するため、目
標検出にY刺激値をそのまま使用して色度値、x、yと
を組み合わせることにより、より的確な検出判定が可能
となる。
In the present invention, the chromaticity signals x and y are combined with the stimulus value signal Y, and the target can be detected based on the chromaticity coordinate point signals x and y and the stimulus value signal Y.
Since the stimulus value signal Y corresponds to the brightness of the color light, more accurate detection determination can be made by combining the chromaticity values, x, and y using the Y stimulus value as it is for target detection.

【0019】また、本発明は、色度座標点の信号x、y
を得るための演算に、対数圧縮後、減算する方法を用い
ることができる。これは、カラー信号R、G、Bを刺激
値信号X、Y、Zに変換しているため、R、G、Bの全
てが「0」とならな限り、x、yの分子である刺激値
X、Yが決して「0」となることはないため、画像が撮
像されている領域では安定した対数圧縮が可能であると
いうX、Yへの刺激値変換によって得られる効果により
採用可能となったものであり、従って、x、yを得るた
めに取り扱える刺激値のダイナミックレンジを極めて広
くすることができ、かつ、除算回路を除くことができ
る。
Further, according to the present invention, the signals x, y of the chromaticity coordinate points are provided.
A method of subtracting after logarithmic compression can be used for the operation for obtaining. This is because color signals R, G, and B are converted into stimulus value signals X, Y, and Z, so long as all of R, G, and B are “0”, stimuli that are numerators of x and y Since the values X and Y never become “0”, it is possible to adopt the effect obtained by the stimulus value conversion into X and Y that stable logarithmic compression is possible in the area where the image is captured. Therefore, the dynamic range of stimulus values that can be handled to obtain x and y can be made extremely wide, and the division circuit can be omitted.

【0020】更に、本発明は、検出すべき目標の色度値
を基準としてその撮像画像について色度空間上での座標
の基準との位置ズレを、距離情報に相当する1つの信号
値に変換し、この値が最小となる点を検出することによ
り目標点検出を行う。これにより、処理回路の規模の削
減が可能となる。
Further, according to the present invention, a positional deviation of a captured image from a coordinate reference in a chromaticity space with respect to a target chromaticity value to be detected is converted into one signal value corresponding to distance information. Then, a target point is detected by detecting a point at which this value is minimum. As a result, the scale of the processing circuit can be reduced.

【0021】以下、図7を参照して、本発明の特徴点に
ついて説明する。本発明では、カラー画像センサ101
からの赤、緑、青の3つの画像信号R,G,Bを刺激値
変換部1により、画素毎に実時間でカラー信号入力に応
じて
Hereinafter, the features of the present invention will be described with reference to FIG. In the present invention, the color image sensor 101
The three image signals R, G, and B of red, green, and blue are input by the stimulus value converter 1 for each pixel in real time in response to a color signal input.

【0022】[0022]

【数8】 の演算をすることにより、X、Y、Zの3刺激値信号に
変換する。
(Equation 8) Is converted to tristimulus value signals of X, Y, and Z.

【0023】カラー画像センサ101からのR、G、B
信号は、図13に示すとおり、撮像画面501を信号出
力順序502に従って1画素づつ画面のフレーム全面に
ついて時系列の信号R(α、β)、G(α、β)、B
(α、β)として出力されるため、X、Y、Zの3刺激
値信号もR、G、Bの信号と同様の時系列の信号X
(α、β)、Y(α、β)、Z(α、β)となる。ここ
で、αは画面上での横方向画素列の画素位置を表し、β
は画面上での縦方向画素列の位置を表しており、画面上
の座標に対応している。
R, G, B from the color image sensor 101
As shown in FIG. 13, the signals are time-series signals R (α, β), G (α, β), and B in the imaging screen 501 over the entire frame of the screen one pixel at a time according to the signal output order 502.
(Α, β), the X, Y, and Z tristimulus value signals are also time-series signals X similar to the R, G, and B signals.
(Α, β), Y (α, β), and Z (α, β). Here, α represents the pixel position of the horizontal pixel row on the screen, and β
Represents the position of the vertical pixel row on the screen, and corresponds to the coordinates on the screen.

【0024】本発明では、X、Y、Zの3刺激値信号の
値から、
In the present invention, from the values of the X, Y, and Z tristimulus value signals,

【0025】[0025]

【数9】 の計算により画像の明暗に対応する刺激値の大きさの情
報を含まないx、y色度座標点の信号に変換して時系列
の色度信号x(α、β)、y(α、β)を出力する色度
座標演算部2を有する。
(Equation 9) Is converted to a signal of x, y chromaticity coordinate points not including information of the magnitude of the stimulus value corresponding to the brightness of the image, and the time-series chromaticity signals x (α, β), y (α, β) ) Is output.

【0026】また、得られた色度座標信号x(α、
β)、y(α、β)及び、刺激値Y(α、β)が入力さ
れる指定点データ保持部13を有しており、座標α、β
で表した初期捕捉指定点Gtoと一致した画素のx
(α、β)、y(α、β)と刺激値Y(α、β)を選択
・保持し、これを画像フレーム毎に更新する。
The obtained chromaticity coordinate signal x (α,
β), y (α, β) and the stimulus value Y (α, β) are input to the designated point data holding unit 13, and the coordinates α, β
X of the pixel that matches the initial capture designated point Gto expressed by
(Α, β), y (α, β) and the stimulus value Y (α, β) are selected and held, and are updated for each image frame.

【0027】この保持データは、指定点色度信号xt
o、yto及び、指定点刺激値Ytoとなり、指定点デ
ータ保持部13の出力として、それぞれ基準色度更新部
4及び基準輝度更新部10に出力される。
This held data is a designated point chromaticity signal xt
o, yto, and the designated point stimulus value Yto are output to the reference chromaticity updating unit 4 and the reference luminance updating unit 10 as outputs of the designated point data holding unit 13, respectively.

【0028】基準色度更新部4では、設定完了タイミン
グ信号Toが入力された時点のみ指定点色度信号xt
o、ytoをそのまま基準色度信号xo、yoの値に更
新して出力する。一方、基準輝度更新部10では、設定
完了タイミング信号Toが入力された時点のみ指定点刺
激値Ytoを基準輝度信号Yoの値に更新して出力す
る。つまり、基準色度信号xo、yo及び、基準輝度信
号Yoは設定完了タイミング信号Toの入力時点で捕捉
する目標点の初期の色度及び輝度の値となっている。
The reference chromaticity updating section 4 only outputs the designated point chromaticity signal xt when the setting completion timing signal To is input.
The values o and yto are directly updated to the values of the reference chromaticity signals xo and yo and output. On the other hand, the reference luminance updating unit 10 updates the designated point stimulus value Yto to the value of the reference luminance signal Yo only when the setting completion timing signal To is input, and outputs it. That is, the reference chromaticity signals xo and yo and the reference luminance signal Yo are the initial chromaticity and luminance values of the target point captured at the time of input of the setting completion timing signal To.

【0029】設定完了タイミング信号To受領以降、基
準色度更新部4では、得られた追尾している目標点の色
度に相当する極小点データ保持部6の出力である最小極
小点色度値xpm、ypmを各フレームごとに入力し
て、次フレームの基準色度を予測またはフィルタリング
処理をし、新たな基準色度信号xo、yoを出力する。
After receiving the setting completion timing signal To, the reference chromaticity updating unit 4 outputs the minimum minimum point chromaticity value output from the minimum point data holding unit 6 corresponding to the obtained chromaticity of the tracked target point. xpm and ypm are input for each frame, the reference chromaticity of the next frame is predicted or filtered, and new reference chromaticity signals xo and yo are output.

【0030】また、基準輝度更新部10では、同様に、
追尾している目標点の色度に相当する最小極小点色度値
xpm、ypmがえられた極小点データ保持部6の最小
極小点輝度値Ypmを入力して、予測またはフィルタリ
ング処理をし、新たな基準輝度信号Yoとしている。
In the reference luminance updating unit 10, similarly,
The minimum minimum point luminance value Ypm of the minimum point data holding unit 6 in which the minimum minimum point chromaticity values xpm and ypm corresponding to the chromaticity of the target point being tracked are input, and prediction or filtering processing is performed. This is a new reference luminance signal Yo.

【0031】従って、基準色度信号xo、yo及び、基
準輝度信号Yoの値を基準値として、目標の持つ色度座
標差距離の範囲及び、刺激値Yの分布限度を設定し、両
方が限度内である領域を2値化することができる色度差
信号2値化部7と輝度信号2値化部8を有しているた
め、目標の存在領域を2値化画像として出力することが
できる。
Therefore, using the values of the reference chromaticity signals xo, yo and the reference luminance signal Yo as reference values, the range of the target chromaticity coordinate difference distance and the distribution limit of the stimulus value Y are set, and both are limited. Since it has the chrominance difference signal binarization unit 7 and the luminance signal binarization unit 8 that can binarize an area in the target, the target existence area can be output as a binarized image. it can.

【0032】本発明では、上記基準色度信号xo、yo
と色度座標演算部2からの色度信号x(α、β)、y
(α、β)との距離を算出して、その結果を色度差信号
ΔC(α,β)(ΔCマップ)として出力する色度差算
出部3を有し、この色度差信号ΔC(α,β)を判定し
て、この信号が極小になる点を検出する極小点検出部5
を有している。
In the present invention, the reference chromaticity signals xo, yo
And the chromaticity signal x (α, β), y from the chromaticity coordinate calculator 2
(Α, β), and outputs the result as a chromaticity difference signal ΔC (α, β) (ΔC map). α, β) and a minimum point detection unit 5 for detecting a point at which this signal becomes minimum.
have.

【0033】また、本発明では極小点データ保持部6を
有し、刺激値Y(α、β)、色度信号x(α、β)、y
(α、β)、及び、色度差信号ΔC(α,β)が入力さ
れ、極小点検出部5からは、色度差信号ΔC(α,β)
の極小点が検出される毎に極小点検出タイミング信号p
mを入力するが、この極小点データ保持部6ではpmが
発生する毎に極小点の色度差信号ΔC(α,β)として
取り込み、この値が過去に得た値と現在の値と比較して
小さな方の極小点の色度差信号ΔC(α,β)を保持す
る。
Further, the present invention has a minimum point data holding unit 6 for stimulus values Y (α, β), chromaticity signals x (α, β), y
(Α, β) and the chromaticity difference signal ΔC (α, β) are input, and the chromaticity difference signal ΔC (α, β)
Every time a minimum point is detected, the minimum point detection timing signal p
m, the minimum point data holding unit 6 takes in the chromaticity difference signal ΔC (α, β) of the minimum point every time pm is generated, and compares this value with the value obtained in the past and the current value. Then, the chromaticity difference signal ΔC (α, β) of the smaller minimum point is held.

【0034】この時、保持した色度差信号ΔC(α,
β)と対応して入力されている刺激値Y(α、β)、色
度信号x(α、β)、y(α、β)、についても同時に
保持する。これにより、1フレームのカラー信号入力完
了時点で色度差信号ΔC(α,β)の最小の極小点値に
対応するY(α、β)、x(α、β)、y(α、β)、
とΔC(α,β)を得ることができ、これらをそれぞれ
最小極小点輝度値Ypm、最小極小点色度値xpm、y
pm及び、最小極小点色度差ΔCpmとして出力する。
At this time, the held chromaticity difference signal ΔC (α,
The stimulus value Y (α, β) and the chromaticity signals x (α, β) and y (α, β) input corresponding to β) are also held at the same time. As a result, when the input of the color signal of one frame is completed, Y (α, β), x (α, β), y (α, β) corresponding to the minimum value of the minimum value of the chromaticity difference signal ΔC (α, β) are obtained. ),
And ΔC (α, β) can be obtained, and these are respectively calculated as minimum minimum point luminance value Ypm and minimum minimum point chromaticity value xpm, y
pm and the minimum minimum point chromaticity difference ΔCpm.

【0035】本発明では、色度差信号2値化部7と輝度
信号2値化部8に色度差信号ΔC(α,β)と刺激値Y
(α、β)を1フレーム分の画像マップとして一時記憶
する図4に示すΔCマップフレームメモリ71と図5に
示す輝度マップメモリ81とを有しており、従って、こ
こから記憶したマップ情報を読み出すことにより、最小
極小点色度差ΔCpmを得た同じ色度差信号ΔC(α,
β)及び、刺激値Y(α、β)の画像マップをΔCpm
とYpmを基準値として目標の持つ色度座標差距離の範
囲及び、刺激値Yの分布限度を設定し、両方が限度内で
ある領域を2値化するとしたしきい値により二つの2値
化画像出力BΔC(α、β)とBY(α、β)を得るこ
とがきる。
In the present invention, the chromaticity difference signal ΔC (α, β) and the stimulus
It has a ΔC map frame memory 71 shown in FIG. 4 and a luminance map memory 81 shown in FIG. 5 for temporarily storing (α, β) as an image map for one frame. By reading, the same chromaticity difference signal ΔC (α, α,
β) and the image map of the stimulus value Y (α, β) is ΔCpm
Binary binarization using a threshold that sets the range of the chromaticity coordinate difference distance of the target and the distribution limit of the stimulus value Y using the threshold values Yp and Ypm as the reference values, and binarizes an area where both are within the limits. Image outputs BΔC (α, β) and BY (α, β) can be obtained.

【0036】この二つの2値化画像の論理積B(α、
β)により最終的な面重心を算出する2値化画像重心点
算出部11を有しているため、2値化された目標の存在
領域の面積重心点を目標検出位置信号Gとして出力でき
る。
The logical product B (α,
The binarized image centroid calculating unit 11 that calculates the final surface centroid according to β) can output the binarized area centroid of the target existence region as the target detection position signal G.

【0037】以上説明したように、本発明では目標が持
つ固有の分光反射率特性に直接関係する色度座標点を特
徴量として目標検出の評価対象としているため、目標に
対する照射光の分光条件の変化が少ないとすれば目標の
明暗に捕らわれない的確な特徴量を判定していることに
なり、従って、一段と誤りの少ない目標位置検出が可能
であるという特徴を有する。
As described above, in the present invention, since the chromaticity coordinate points directly related to the intrinsic spectral reflectance characteristic of the target are evaluated as the feature amounts in the target detection evaluation, the spectral conditions of the irradiation light with respect to the target are evaluated. If the change is small, it means that an accurate feature amount that is not captured by the brightness of the target is determined, and therefore, there is a feature that the target position can be detected with much less error.

【0038】また、色度座標を得る色度座標演算部2で
は、入力信号である刺激値X(α、β)、Y(α、
β)、Z(α、β)を以下の計算により対数圧縮した状
態で色度座標を得る方法を採用している。
In the chromaticity coordinate calculator 2 for obtaining chromaticity coordinates, the stimulus values X (α, β) and Y (α,
β) and Z (α, β) are logarithmically compressed by the following calculation to obtain chromaticity coordinates.

【0039】[0039]

【数10】 なおこれは、R、G、B全てについて「0」とならなけ
れば、刺激値X、Yが決して「0」となることはないた
め、画像が撮像されている領域では安定した対数圧縮が
可能となったために採用可能となったものである。
(Equation 10) This is because if the stimulus values X and Y never become “0” unless all of R, G and B become “0”, stable logarithmic compression is possible in the area where the image is captured. It became possible to adopt it.

【0040】従って、対数圧縮により、極めて広範囲の
画像信号R,G,Bの大きさに対してデジタル演算を使
用する場合、刺激値のデータ範囲を考慮してデータのビ
ット数を多大に増加させることなく色度演算での誤差の
増大を防ぐことが可能であるという優れた特徴を併せも
っている。
Therefore, when digital arithmetic is used for an extremely wide range of image signals R, G, and B by logarithmic compression, the number of data bits is greatly increased in consideration of the data range of the stimulus value. It also has an excellent feature that it is possible to prevent an increase in an error in chromaticity calculation without using it.

【0041】更に、色度差を求める方法については、図
8に示すように基準色度更新部4で得られた基準色度信
号xo、yoを色度座標において目標指定点色度座標2
03とし、色度座標演算部2からの時系列に出力される
各画素の色度信号x(α、β)、y(α、β)を入力画
像色度座標202として、この2点間の座標の直距離r
を色度差とすることが考えられるが、本発明の色度差算
出部3では、
Further, as for the method of calculating the chromaticity difference, as shown in FIG. 8, the reference chromaticity signals xo and yo obtained by the reference chromaticity updating unit 4 are converted to the target designated point chromaticity coordinates 2 in the chromaticity coordinates.
03, and the chromaticity signals x (α, β) and y (α, β) of each pixel output in chronological order from the chromaticity coordinate calculation unit 2 are used as input image chromaticity coordinates 202 to determine the chromaticity coordinates between these two points. Coordinate direct distance r
Can be considered as a chromaticity difference, but the chromaticity difference calculating unit 3 of the present invention uses

【0042】[0042]

【数11】 の計算を採用し色度差ΔCとしている。なお、ABSは
絶対値を表している。
[Equation 11] Is used as the chromaticity difference ΔC. Note that ABS represents an absolute value.

【0043】この方法による場合は、目標の色度座標点
と基準の色度座標点との直距離rに対し、常に
In this method, the direct distance r between the target chromaticity coordinate point and the reference chromaticity coordinate point is always

【0044】[0044]

【数12】 の関係を持っており、目標の色度座標点と基準の色度座
標点との直距離が「0」でない場合は座標点間の上式の
距離rより殆どの場合大きくなるため、比較的鋭敏な目
標識別能力を持つという特徴があるのに加え、単純な加
減算回路で実現できる特徴も有している。
(Equation 12) When the direct distance between the target chromaticity coordinate point and the reference chromaticity coordinate point is not “0”, it is almost always larger than the distance r in the above equation between the coordinate points. In addition to the feature that it has a sharp target discriminating ability, it also has a feature that can be realized by a simple addition and subtraction circuit.

【0045】また、本発明では表示を目的としないこと
から、色再現性を考慮して負の分光特性を持った理想特
性に近づけるマスキング処理等をせず、撮像デバイスの
出力をそのままRGB信号出力として使用することを前
提としている。この場合、カラー画像センサの撮像デバ
イスの出力は負の感度領域は無いことから、図9に示す
ように カラー画像センサのRGB信号による色度の値
域201から外に位置する座標の色度値となることはな
い。
In addition, since the present invention is not intended for display, the output of the image pickup device is output as it is without performing a masking process or the like that approaches an ideal characteristic having a negative spectral characteristic in consideration of color reproducibility. It is assumed to be used as In this case, since the output of the imaging device of the color image sensor has no negative sensitivity region, the chromaticity value of the coordinates located outside the chromaticity value range 201 based on the RGB signal of the color image sensor as shown in FIG. It will not be.

【0046】このカラー画像センサのRGB信号による
色度の値域201は、x+y=1となる直線301と、
xとyの座標軸及び、O点を基準としたΔC≦1.0を
満たす限界線302に囲まれた範囲にあり、従って、Δ
Cの大きもまた必ず「0」から「1」の範囲にあること
になり、rと同様にΔCを処理する回路のデータのスケ
ーリングが容易であるという有利な点がある。
The chromaticity value range 201 of the color image sensor based on the RGB signals is represented by a straight line 301 where x + y = 1,
It is in the range surrounded by the x- and y-coordinate axes and the limit line 302 satisfying ΔC ≦ 1.0 with respect to the point O.
The magnitude of C is also always in the range of "0" to "1", which has the advantage that data scaling of the circuit for processing .DELTA.C as in r is easy.

【0047】[0047]

【発明の実施の形態】図1は、本発明のカラー画像目標
位置検出装置の実施の形態を示すブロック図である。ま
た、図2〜図5は、それぞれ図1の、色度座標演算部
2、色度差算出部3、色度差信号2値化部7、輝度信号
2値化部8の一実施例を示している。また、図6は、図
1のカラー画像目標位置検出装置を使用接続例をブロッ
ク図で示したものである。
FIG. 1 is a block diagram showing an embodiment of a color image target position detecting device according to the present invention. 2 to 5 show an embodiment of the chromaticity coordinate calculator 2, chromaticity difference calculator 3, chromaticity difference signal binarizer 7, and luminance signal binarizer 8, respectively, of FIG. Is shown. FIG. 6 is a block diagram showing a connection example using the color image target position detecting device of FIG.

【0048】まず、本発明のカラー画像目標位置検出装
置を用いた目標追尾動作の概略について、図6を参照し
て説明する。
First, the outline of the target tracking operation using the color image target position detecting device of the present invention will be described with reference to FIG.

【0049】本発明のカラー画像目標位置検出装置10
0は、撮像対象106を撮影して赤、緑、青の3つの画
像信号R,G,Bを出力するカラー画像センサ101、
画像信号R,G,Bにより撮像画像を表示する画像表示
装置103、表示画面から操作者が追尾する目標を初期
段階で指定する初期捕捉指定入力装置102、カラー目
標位置検出装置100からの目標検出位置信号Gにより
目標を追尾するための目標追尾駆動信号DTを出力する
追尾信号出力装置105及び、目標追尾駆動信号DTに
よりその視軸を変更するジンバル装置104と結合され
使用される。
The color image target position detecting device 10 of the present invention
0 is a color image sensor 101 that captures the image of the imaging target 106 and outputs three image signals R, G, and B of red, green, and blue;
An image display device 103 that displays a captured image by image signals R, G, and B, an initial capture designation input device 102 that designates a target to be tracked by an operator from a display screen at an initial stage, and a target detection from a color target position detection device 100. A tracking signal output device 105 for outputting a target tracking drive signal DT for tracking a target based on the position signal G and a gimbal device 104 for changing its visual axis based on the target tracking drive signal DT are used.

【0050】追尾動作は、先ず、ジンバル装置104を
直接の操作により動かしてカラー画像センサ101の視
軸をおおよその目標方向に合わせて、画像表示装置10
3の表示画面107に追尾目標108が撮像されるよう
にする。
In the tracking operation, first, the gimbal device 104 is moved by direct operation to adjust the visual axis of the color image sensor 101 to the approximate target direction, and the image display device 10 is operated.
The tracking target 108 is imaged on the third display screen 107.

【0051】操作者は追尾したい目標を表示画面107
の上で目視確認し、初期捕捉指定入力装置102で追尾
目標点の設定と、排除したい類似目標への捕捉を禁止す
るウィンドウの設定を行う。画像表示装置103の表示
画面107には、初期捕捉指定入力装置102で設定し
た追尾目標点とウィンドウをそれぞれ初期捕捉指定点マ
ーカ107bと初期捕捉ウィンドウマーカ107aとし
て撮像された画像と重畳して表示されるため、これを監
視しながら、追尾目標点とウィンドウを設定することが
できる。
The operator displays a target to be tracked on the display screen 107.
Then, the initial capture designation input device 102 sets a tracking target point and sets a window for prohibiting capture of a similar target to be excluded. On the display screen 107 of the image display device 103, the tracking target point and the window set by the initial capture designation input device 102 are displayed so as to be superimposed on the images captured as the initial capture designated point marker 107b and the initial capture window marker 107a, respectively. Therefore, it is possible to set the tracking target point and the window while monitoring this.

【0052】この設定値は、初期捕捉指定入力装置10
2で画面上の座標α、βで表した初期捕捉指定点Gto
と初期捕捉ウィンドウWGtoを発生し、逐次本発明の
カラー画像目標位置検出装置100に出力される。
This set value is set in the initial capture designation input device 10.
Initial capture designated point Gto represented by coordinates α and β on the screen in 2
And an initial capture window WGto, which are sequentially output to the color image target position detecting device 100 of the present invention.

【0053】操作者は設定が完了した時点でスイッチ操
作等を行うが、これにより初期捕捉指定入力装置102
で設定完了タイミング信号Toが作られ、本発明のカラ
ー画像目標位置検出装置100に出力される。
When the setting is completed, the operator performs a switch operation or the like.
Is generated, and is output to the color image target position detecting device 100 of the present invention.

【0054】カラー画像目標位置検出装置100は、初
期捕捉指定入力装置102からの初期捕捉指定点Gto
と初期捕捉ウィンドウWGtoを設定完了タイミング信
号To入力時点で取り込み、この点を初期の追尾目標点
とする。以降、カラー画像目標位置検出装置100は、
カラー画像から得られる前記追尾目標点の特徴量をもと
に、目標位置を検出して目標検出位置信号Gを逐次出力
する。
The color image target position detecting device 100 receives the initial capture designation point Gto from the initial capture designation input device 102.
And an initial capture window WGto at the time of input of the setting completion timing signal To, and this point is set as an initial tracking target point. Hereinafter, the color image target position detecting device 100
A target position is detected based on the feature amount of the tracking target point obtained from the color image, and a target detection position signal G is sequentially output.

【0055】追尾信号出力装置105は、目標検出位置
信号Gが画面の中心の座標点となるようにジンバル装置
104を制御する目標追尾駆動信号DTを出力する。こ
のことにより、設定完了タイミング信号To発生時点以
降は、カラー画像センサ101の視軸は捕捉指定を行っ
た目標の動きに追尾する動作を継続する。
The tracking signal output device 105 outputs a target tracking drive signal DT for controlling the gimbal device 104 so that the target detection position signal G becomes a coordinate point at the center of the screen. As a result, after the generation of the setting completion timing signal To, the visual axis of the color image sensor 101 continues to follow the movement of the target for which capture designation has been performed.

【0056】次に、本発明のカラー画像目標位置検出装
置100の構成について、図1〜図5を参照して説明す
る。
Next, the configuration of the color image target position detecting device 100 of the present invention will be described with reference to FIGS.

【0057】本発明のカラー画像目標位置検出装置は、
カラー画像センサ101からの入力であるカラー画像信
号(赤)R、カラー画像信号(緑)G、カラー画像信号
(青)B、図6に示した初期捕捉指定入力装置102か
らの入力である初期捕捉指定点Gtoと初期捕捉ウィン
ドウWGto及び、設定完了タイミング信号Toの6つ
の信号を入力して目標検出位置Gを出力する。
The color image target position detecting device of the present invention comprises:
The color image signal (red) R, the color image signal (green) G, the color image signal (blue) B, which are the inputs from the color image sensor 101, and the initial which is the input from the initial capture designation input device 102 shown in FIG. The target detection position G is output by inputting six signals of the designated capture point Gto, the initial capture window WGto, and the setting completion timing signal To.

【0058】カラー画像信号(赤)R、(緑)G、
(青)Bの3つは、刺激値変換部1の3つの入力端に接
続され、刺激値変換部1のX、Y、Z刺激値の3つの出
力端は、色度座標演算部2に接続されている。また、色
度座標演算部2の色度座標x、yの出力は、色度差算出
部3に接続されて、その出力である色度差信号ΔCは極
小点検出部5に入力される。
The color image signals (red) R, (green) G,
(Blue) Three of B are connected to three input terminals of the stimulus value conversion unit 1, and three output terminals of the stimulus value conversion unit 1 for the X, Y, and Z stimulus values are sent to the chromaticity coordinate calculation unit 2. It is connected. The outputs of the chromaticity coordinates x and y of the chromaticity coordinate calculator 2 are connected to a chromaticity difference calculator 3, and the chromaticity difference signal ΔC as the output is input to the minimum point detector 5.

【0059】極小点データ保持部6の入力端には、極小
点検出部5からの極小点検出タイミング信号pm、色度
差算出部3からの色度差信号ΔC、色度座標演算部2か
らの色度信号x、y、及び、刺激値変換部1からの輝度
信号Y(Y刺激値)が入力される。
At the input end of the minimum point data holding section 6, the minimum point detection timing signal pm from the minimum point detection section 5, the chromaticity difference signal ΔC from the chromaticity difference calculation section 3, and the chromaticity coordinate calculation section 2 , And the luminance signal Y (Y stimulus value) from the stimulus value converter 1 are input.

【0060】極小点検出部5では、色度差信号ΔCを極
小点の検出エリアを限定するための評価エリア発生部1
2からの入力である検出エリア信号WGを図11及び1
2に示すごとく、pmの発生範囲指定エリア404の範
囲について、時系列で入力される色度差信号ΔCを逐次
判定して、色度差信号ΔCの信号が極小値条件を満足す
る点ΔCi,jを検出し、pm発生点403を走査した
時に、極小点検出タイミング信号pmを出力する。
In the minimum point detecting section 5, the chromaticity difference signal ΔC is used as an evaluation area generating section 1 for limiting the detection area of the minimum point.
2 and the detection area signal WG, which is an input from FIG.
As shown in FIG. 2, the chromaticity difference signal ΔC input in time series is sequentially determined for the range of the pm generation range designation area 404, and the points ΔCi, at which the chromaticity difference signal ΔC satisfies the minimum value condition, When a j is detected and the pm generation point 403 is scanned, a minimum point detection timing signal pm is output.

【0061】極小点データ保持部6では、pmが発生す
る毎に極小点の色度差信号ΔCを取り込み、この値が過
去に取り込んだ値と現在の値と比較して小さな方の極小
点の色度差信号ΔCを保持する。この時、保持した色度
差信号ΔCと対応して入力されている輝度信号Y、色度
信号x、yについも同時に保持する。
The minimum point data holding unit 6 captures the chromaticity difference signal ΔC of the minimum point every time pm is generated, and compares this value with the value obtained in the past and the current value to determine the smaller minimum point. The chromaticity difference signal ΔC is held. At this time, the luminance signal Y and the chromaticity signals x and y input corresponding to the held chromaticity difference signal ΔC are also held at the same time.

【0062】これにより、1フレームのカラー信号入力
完了時点で、色度差信号ΔCの最小の極小点値に対応す
るY、x、y、及びΔCを得ることができ、極小点デー
タ保持部6の出力端から、これらをそれぞれ最小極小点
輝度値Ypm、最小極小点色度値xpm、ypm及び最
小極小点色度差ΔCpmとして出力する。
As a result, at the time when the input of the color signal of one frame is completed, Y, x, y, and ΔC corresponding to the minimum minimum value of the chromaticity difference signal ΔC can be obtained. Are output as the minimum minimum point luminance value Ypm, the minimum minimum point chromaticity values xpm and ypm, and the minimum minimum point chromaticity difference ΔCpm, respectively.

【0063】また、色度座標演算部2から得られた色度
信号x、y及び、刺激値変換部1から得られた輝度信号
Yは、指定点データ保持部13に入力され、本カラー画
像目標位置検出装置100の入力である初期捕捉指定点
Gtoと一致した画面座標点の画素の色度x、yと刺激
値Yを保持し、これを画像フレーム毎に更新する。
The chromaticity signals x and y obtained from the chromaticity coordinate calculation unit 2 and the luminance signal Y obtained from the stimulus value conversion unit 1 are input to the designated point data holding unit 13, and the color image The chromaticity x and y and the stimulus value Y of the pixel at the screen coordinate point that matches the initial capture designated point Gto, which is the input of the target position detecting apparatus 100, are held and updated for each image frame.

【0064】この色度x、yと輝度信号Yは、指定点色
度信号xto、yto及び、指定点刺激値Ytoとし
て、指定点データ保持部13からそれぞれ基準色度更新
部4及び基準輝度更新部10に出力される。
The chromaticity x, y and the luminance signal Y are designated as designated point chromaticity signals xto, yto and designated point stimulus value Yto from the designated point data holding unit 13 and the reference chromaticity updating unit 4 and the reference luminance updating unit 4, respectively. Output to the unit 10.

【0065】基準色度更新部4の入力端には、指定点デ
ータ保持部13からの指定点色度信号xto、yto及
び、極小点データ保持部6からの最小極小点色度値xp
m、ypmが入力される。
At the input terminal of the reference chromaticity updating unit 4, the designated point chromaticity signals xto and yto from the designated point data holding unit 13 and the minimum minimum point chromaticity value xp from the minimum point data holding unit 6 are input.
m and ypm are input.

【0066】基準色度更新部4では、設定完了タイミン
グ信号Toが入力された時点のみ指定点色度信号xt
o、ytoでそのまま基準色度信号xo、yoの値に更
新し、その他の場合は最小極小点色度値xpm、ypm
を用いて、次画像フレームの基準色度を予測またはフィ
ルタリング処理をし、新たな基準色度xo、yoに更新
して出力する。この基準色度更新部4の出力は色度差算
出部3の入力端に接続されている。
The reference chromaticity updating unit 4 only outputs the designated point chromaticity signal xt when the setting completion timing signal To is input.
The values of the reference chromaticity signals xo and yo are updated as they are in o and yto, and in other cases, the minimum minimum point chromaticity values xpm and ypm
Is used to predict or filter the reference chromaticity of the next image frame, and update and output new reference chromaticities xo and yo. The output of the reference chromaticity updating unit 4 is connected to the input terminal of the chromaticity difference calculating unit 3.

【0067】一方、基準輝度更新部10の入力端には、
指定点データ保持部13からの指定点刺激値Yto及
び、極小点データ保持部6からの最小極小点輝度値Yp
mが入力される。基準輝度更新部10では、設定完了タ
イミング信号Toが入力された時点のみ指定点刺激値Y
toでそのまま基準輝度信号Yoの値に更新して出力
し、その他の場合は最小極小点輝度値Ypmを用いて、
次画像フレームの基準色度を予測またはフィルタリング
処理をし、新たな基準輝度信号Yoに更新して出力す
る。
On the other hand, the input terminal of the reference luminance updating unit 10
The specified point stimulus value Yto from the specified point data holding unit 13 and the minimum minimum point luminance value Yp from the minimum point data holding unit 6
m is input. The reference luminance updating unit 10 sets the designated point stimulus value Y only when the setting completion timing signal To is input.
The value is updated to the value of the reference luminance signal Yo as it is, and in other cases, using the minimum minimum point luminance value Ypm,
The reference chromaticity of the next image frame is predicted or filtered, updated to a new reference luminance signal Yo, and output.

【0068】この基準輝度更新部10の出力Yoは、輝
度信号2値化部8の2つの入力端の一方に接続されてい
る。輝度信号2値化部8の入力端の他方には刺激値変換
部1からの2値化対象となる輝度信号Yが入力されお
り、輝度信号2値化部8の出力端からは輝度画像2値化
信号BYが出力され、AND回路9の3つの入力端の内
の一つに接続されている。
The output Yo of the reference luminance updating section 10 is connected to one of two input terminals of the luminance signal binarizing section 8. A luminance signal Y to be binarized from the stimulus value conversion unit 1 is input to the other input terminal of the luminance signal binarization unit 8, and a luminance image 2 is output from the output terminal of the luminance signal binarization unit 8. The digitized signal BY is output and connected to one of three input terminals of the AND circuit 9.

【0069】色度差信号2値化部7の2つの入力端の一
方には、極小点データ保持部6からの最小極小点色度差
ΔCpmが入力され、他方の入力端には色度差算出部3
からの2値化対象となる色度差信号ΔC入力される。こ
の色度差信号2値化部7の出力端にはΔCマップ2値化
信号BΔCが出力され、AND回路9の3つの入力端の
内のもう一つに接続されている。AND回路9の3つ目
の入力端には、評価エリア発生部12の出力である2値
化出力画像エリアを限定する2値化ウィンドウエリア信
号wが接続されている。
One of the two input terminals of the chrominance difference signal binarization unit 7 receives the minimum minimum point chromaticity difference ΔCpm from the minimum point data holding unit 6, and the other input terminal receives the chromaticity difference Calculator 3
, The chromaticity difference signal ΔC to be binarized is input. An output terminal of the chromaticity difference signal binarization unit 7 outputs a ΔC map binarization signal BΔC, which is connected to another of the three input terminals of the AND circuit 9. A third input terminal of the AND circuit 9 is connected to a binarized window area signal w for limiting a binarized output image area, which is an output of the evaluation area generator 12.

【0070】AND回路9では、図10に示すように輝
度画像2値化信号BY、ΔCマップ2値化信号BΔC及
び、2値化ウィンドウエリア信号wの論理積で得られる
2値化画像信号Bを出力し、2値化画像重心点算出部1
1に入力している。
In the AND circuit 9, as shown in FIG. 10, the binary image signal B obtained by the logical product of the luminance image binary signal BY, the ΔC map binary signal BΔC, and the binary window area signal w. And a binarized image centroid calculation unit 1
1 is input.

【0071】2値化画像重心点算出部11では、図10
で示すように、2値化されB=1となったエリアの面積
重心(αG、βG)を求め目標検出位置Gとすると同時
にB=1となった画素数を値とする2値化面積Sを求
め、2値化画像重心点算出部11から出力する。なお、
本カラー画像目標位置検出装置からは目標検出位置Gが
出力される。
The binarized image center-of-gravity point calculating section 11 performs the processing shown in FIG.
As shown by, the area centroids (αG, βG) of the binarized area where B = 1 are obtained, set as the target detection position G, and at the same time, the binarized area S whose value is the number of pixels where B = 1. And outputs it from the binarized image centroid calculation unit 11. In addition,
The target detection position G is output from the present color image target position detection device.

【0072】極小点の検出エリアを限定するための検出
エリア信号WGと、このエリアに一致した2値化出力画
像エリアを限定するための2値化ウィンドウエリア信号
wを発生する評価エリア発生部12の入力端には、2値
化画像重心点算出部11からの目標検出位置G及び2値
化面積Sと、本カラー画像目標位置検出装置の入力であ
る初期捕捉ウィンドウWGto及び設定完了タイミング
信号Toが入力される。
An evaluation area generator 12 for generating a detection area signal WG for limiting the detection area of the minimum point and a binarization window area signal w for limiting the binarized output image area corresponding to this area. At the input end, a target detection position G and a binarization area S from the binarized image centroid calculation unit 11, an initial capture window WGto and a setting completion timing signal To which are inputs to the present color image target position detection device. Is entered.

【0073】評価エリア発生部12では、設定完了タイ
ミング信号Toを受領した時点では、図6の初期捕捉ウ
ィンドウマーカ107aに対応する初期捕捉ウィンドウ
WGtoを検出エリア信号WGの初期値とし、また、こ
れに対応する2値化ウィンドウエリア信号wを発生して
初期捕捉を確実なものとする。
When the evaluation area generating section 12 receives the setting completion timing signal To, the initial capture window WGto corresponding to the initial capture window marker 107a in FIG. 6 is set as the initial value of the detection area signal WG. A corresponding binarized window area signal w is generated to ensure initial acquisition.

【0074】設定完了タイミング信号To受領時点以降
では、評価エリア発生部12は、2値化画像重心点算出
部11からの入力である目標検出位置Gと、B=1とな
った画素数を値とする2値化面積Sから、目標検出位置
Gを中心位置とし、且、初期捕捉ウィンドウWGtoの
縦横の比率を一定としつつ、WGtoのエリア面積に対
する2値化面積Sの比率が一定となるように検出エリア
信号WGと2値化ウィンドウエリア信号w発生領域を更
新する。
After receiving the setting completion timing signal To, the evaluation area generating unit 12 calculates the target detection position G input from the binarized image center-of-gravity point calculating unit 11 and the number of pixels where B = 1 as a value. From the binarized area S, the target detection position G is set as the center position, and the ratio of the binarized area S to the area area of WGto is constant while the vertical and horizontal ratio of the initial capture window WGto is fixed. Then, the detection area signal WG and the binarized window area signal w generation area are updated.

【0075】従って、極小点検出部5では、追尾目標付
近エリアのみ色度差信号ΔCの最小の極小点値検出を行
うことが可能となり、また、2値化画像信号Bを2値化
画像重心点算出部11へ入力することを可能としてい
る。
Therefore, the minimum point detecting section 5 can detect the minimum minimum value of the chromaticity difference signal ΔC only in the area near the tracking target, and converts the binary image signal B into the binary image centroid. It is possible to input to the point calculation unit 11.

【0076】本装置の構成中、色度座標演算部2は図2
に示すごとく、1つの3入力加算回路21、3つの対数
圧縮回路22、23、24、2つの2入力減算回路2
5、26及び、2つの指数関数発生回路27、28から
構成されている。
In the configuration of the present apparatus, the chromaticity coordinate calculating section 2
, One three-input addition circuit 21, three logarithmic compression circuits 22, 23, 24, and two two-input subtraction circuits 2
5 and 26, and two exponential function generating circuits 27 and 28.

【0077】3入力加算回路21には、X、Y、Z刺激
値の信号ラインが接続されその出力端が対数圧縮回路2
2に接続されている。対数圧縮回路23にはX刺激値の
信号ラインが接続され、対数圧縮回路24にはY刺激値
の信号ラインが接続されている。
A signal line for X, Y, and Z stimulus values is connected to the three-input addition circuit 21 and the output terminal thereof is connected to the logarithmic compression circuit 2.
2 are connected. The logarithmic compression circuit 23 is connected to an X stimulus value signal line, and the logarithmic compression circuit 24 is connected to a Y stimulus value signal line.

【0078】対数圧縮回路22の出力端は、2入力減算
回路25、26の減算値入力端に接続され、対数圧縮回
路23の出力端と対数圧縮回路24の出力端はそれぞ
れ、指数関数発生回路27と指数関数発生回路28の被
減算値入力端に接続されている。指数関数発生回路27
の出力端には色度座標x、指数関数発生回路28の出力
端には色度座標yの信号が出力される。
An output terminal of the logarithmic compression circuit 22 is connected to subtraction value input terminals of two-input subtraction circuits 25 and 26. An output terminal of the logarithmic compression circuit 23 and an output terminal of the logarithmic compression circuit 24 are respectively an exponential function generation circuit. 27 and an exponential function generating circuit 28. Exponential function generation circuit 27
The signal of the chromaticity coordinate x is output to the output terminal of, and the signal of the chromaticity coordinate y is output to the output terminal of the exponential function generation circuit 28.

【0079】本装置の構成中、色度差算出部3は図3に
示すごとく、2つの2入力減算回路31、32、2つの
絶対値化回路33、34及び2入力加算回路35から構
成されている。2入力減算回路31の入力端には色度座
標xと基準色度座標xoの信号ラインが接続され、2入
力減算回路32の入力端には色度座標yと基準色度座標
yoの信号ラインが接続されている。
In the configuration of the present apparatus, the chromaticity difference calculator 3 comprises two two-input subtraction circuits 31, 32, two absolute value conversion circuits 33, 34 and a two-input addition circuit 35, as shown in FIG. ing. A signal line of chromaticity coordinates x and reference chromaticity coordinates xo is connected to an input terminal of the two-input subtraction circuit 31, and a signal line of chromaticity coordinates y and reference chromaticity coordinates yo is connected to an input terminal of the two-input subtraction circuit 32. Is connected.

【0080】2入力減算回路31、32の出力端はそれ
ぞれ絶対値化回路33、34に接続され、それらの出力
端は2入力加算回路35の入力端に接続されている。2
入力加算回路35の出力端からは色度差信号ΔCが出力
される。
The output terminals of the two-input subtraction circuits 31 and 32 are connected to absolute value conversion circuits 33 and 34, respectively, and their output terminals are connected to the input terminal of a two-input addition circuit 35. 2
A chromaticity difference signal ΔC is output from the output terminal of the input addition circuit 35.

【0081】本装置の構成中、色度差信号2値化部7は
図4に示すごとく、ΔCマップフレームメモリ71、Δ
Cmax算出処理回路72及び、2値化回路73から構
成されている。ΔCマップフレームメモリ71の入力端
には図1に示す色度差算出部3からの色度差信号ΔCの
信号ラインが接続され、その出力端は2値化回路73の
入力端に接続されている。
In the configuration of the present apparatus, the chrominance difference signal binarizing section 7 has a ΔC map frame memory 71, ΔC
It comprises a Cmax calculation processing circuit 72 and a binarization circuit 73. A signal line of the chromaticity difference signal ΔC from the chromaticity difference calculator 3 shown in FIG. 1 is connected to an input end of the ΔC map frame memory 71, and an output end thereof is connected to an input end of the binarization circuit 73. I have.

【0082】ΔCmax算出処理回路72の入力端に
は、図1に示す極小点データ保持部6からの最小極小点
色度差ΔCpmの信号出力が接続され、その出力端は2
値化回路73の2値化しきい値設定入力端に接続されて
いる。この、最小極小点色度差ΔCpmは目標指定点の
色度に最も近い色度となっており、撮像時点の最新の目
標の色度として取り扱うことができる。
The input terminal of the ΔCmax calculation processing circuit 72 is connected to the signal output of the minimum minimum point chromaticity difference ΔCpm from the minimum point data holding unit 6 shown in FIG.
It is connected to the binarization threshold setting input terminal of the binarization circuit 73. The minimum minimum point chromaticity difference ΔCpm is the chromaticity closest to the chromaticity of the target designated point, and can be handled as the latest target chromaticity at the time of imaging.

【0083】従って、この値から目標のモデルによる目
標判定限界値分だけ大きい値を設定しこれをしきい値と
して、これ以下のΔCを2値化することにより、目標の
特徴存在エリアを2値化できることになる。
Therefore, by setting a value larger than this value by the target judgment limit value of the target model and using this value as a threshold value and binarizing ΔC below this value, the target feature existence area can be binarized. Will be able to

【0084】ΔCmax算出処理回路72では、色度差
信号ΔCを2値化するために、極小点データ保持部6に
保持されている最小極小点色度差ΔCpmの値に目標判
定限界値分を加算して得られる2値化しきい値ΔCma
xを出力する。2値化回路73の出力端からは、ΔCマ
ップフレームメモリ71から読み出した色度差信号ΔC
について2値化しきい値ΔCmaxより小さなΔCマッ
プ2値化信号BΔCを「1」とし、2値化画像として出
力する。
The ΔCmax calculation processing circuit 72 converts the value of the minimum minimum point chromaticity difference ΔCpm held in the minimum point data holding unit 6 into the target judgment limit value in order to binarize the chromaticity difference signal ΔC. Binarization threshold ΔCma obtained by addition
Output x. From the output terminal of the binarization circuit 73, the chromaticity difference signal ΔC read from the ΔC map frame memory 71 is output.
, The ΔC map binary signal BΔC smaller than the binary threshold value ΔCmax is set to “1” and output as a binary image.

【0085】本装置の構成中、輝度信号2値化部8は図
5に示すごとく、輝度マップフレームメモリ81、Ym
ax、Ymin算出処理回路82及び、2値化回路83
から構成されている。輝度マップフレームメモリ81の
入力端には図1に示す刺激値変換部1からの輝度信号Y
の信号ラインが接続され、その出力端には2値化回路8
3の入力端に接続されている。
In the configuration of the present apparatus, the luminance signal binarizing section 8 includes a luminance map frame memory 81, Ym, as shown in FIG.
ax, Ymin calculation processing circuit 82 and binarization circuit 83
It is composed of A luminance signal Y from the stimulus value converter 1 shown in FIG.
Is connected to the output terminal, and a binarizing circuit 8 is
3 is connected to the input terminal.

【0086】Ymax、Ymin算出処理回路82の入
力端には、図1に示す基準輝度更新部10からの基準輝
度Yoのラインが接続され、その出力端は2値化回路8
3の2値化しきい値設定入力端に接続されている。2値
化回路73の出力端からは輝度2値化信号BYが出力さ
れる。
The input terminal of the Ymax / Ymin calculation processing circuit 82 is connected to the line of the reference luminance Yo from the reference luminance updating unit 10 shown in FIG.
3 is connected to a binarization threshold setting input terminal. An output terminal of the binarization circuit 73 outputs a luminance binarization signal BY.

【0087】最小極小点輝度値Ypmもまた、ΔCpm
と同様に目標の特徴量であると考えられるため、このY
pmをもとに基準輝度値Yoを求め、これを中心として
目標の特性を勘案した輝度2値化限界値Ymax、Ym
inを求め、この範囲内にあるYの値を2値化して前記
ΔCマップ2値化信号BΔCと論理積を取ることによ
り、高い確度で目標エリアの2値化画像を得ることがで
きる。
The minimum minimum point luminance value Ypm is also ΔCpm
Is considered to be the target feature value in the same manner as
pm, a reference luminance value Yo is determined, and the luminance binarization limit values Ymax, Ym taking the characteristic of the target into consideration centering on this reference luminance value Yo
In, a binary image of the target area can be obtained with a high degree of accuracy by binarizing the value of Y in this range and taking a logical product with the ΔC map binary signal BΔC.

【0088】輝度信号Yを2値化するため、図1に示す
極小点データ保持部6に保持されている目標の最小極小
点輝度値Ypmから、図1に示す基準輝度更新部10に
より予測またはフィルタリング処理で得た基準輝度Yo
を得るが、Ymax、Ymin算出処理回路82では、
このYoから目標の特性を勘案した目標判定限界上限幅
の分を加算した輝度2値化限界値Ymaxと目標判定限
界下限幅の分を減算した輝度2値化限界値Yminを求
める。
In order to binarize the luminance signal Y, the reference luminance updating section 10 shown in FIG. 1 predicts or converts the luminance signal Y from the target minimum minimum point luminance value Ypm held in the minimum point data holding section 6 shown in FIG. Reference luminance Yo obtained by filtering processing
In the Ymax and Ymin calculation processing circuit 82,
A luminance binarization limit value Ymin obtained by adding the target determination limit upper limit width in consideration of the target characteristics from this Yo and a target binarization limit lower limit value Ymin is obtained.

【0089】2値化回路73では、このYmax、Ym
inの間の範囲にある輝度マップフレームメモリ81か
ら読み出したYの値について輝度画像2値化信号BYを
「1」とし、2値化画像として出力する。
In the binarizing circuit 73, Ymax, Ym
The luminance image binary signal BY is set to “1” for the Y value read from the luminance map frame memory 81 in the range between “in” and is output as a binary image.

【0090】以下、本発明のカラー画像目標位置検出装
置の動作について、図1〜図13を参照して説明する。
Hereinafter, the operation of the color image target position detecting device of the present invention will be described with reference to FIGS.

【0091】まず、3つの受信カラー画像信号R,G,
Bが1画素づつセンサの出力と同じレートで刺激値変換
部1に入力され、
First, three received color image signals R, G,
B is input to the stimulus value converter 1 at the same rate as the output of the sensor one pixel at a time,

【0092】[0092]

【数13】 の演算結果が逐次出力される。(Equation 13) Are sequentially output.

【0093】この出力は、X、Y、Z刺激値として色度
座標演算部2に出力される。なお、この3つの刺激値の
内、刺激値Yは画像の輝度を表す原色の刺激値に対応し
ている。これらX、Y、Zの信号は、図2に示す色度座
標演算部2の3入力加算回路21で合計され、対数圧縮
回路22に入力される。
This output is output to the chromaticity coordinate calculator 2 as X, Y, and Z stimulus values. Note that, among these three stimulus values, the stimulus value Y corresponds to the stimulus value of the primary color representing the luminance of the image. These X, Y, and Z signals are summed up by the three-input addition circuit 21 of the chromaticity coordinate calculation unit 2 shown in FIG.

【0094】XとYの信号は、それぞれ対数圧縮回路2
3と対数圧縮回路24に入力され、2入力減算回路2
5、26に出力される。2入力減算回路25、26では
入力値から対数圧縮回路22の出力値を減算することに
より、
The X and Y signals are respectively supplied to a logarithmic compression circuit 2
3 and input to a logarithmic compression circuit 24, and a two-input subtraction circuit 2
5 and 26. The two-input subtraction circuits 25 and 26 subtract the output value of the logarithmic compression circuit 22 from the input value,

【0095】[0095]

【数14】 を得る。これらx’、y’の信号は指数関数発生回路2
7、28に入力され、ここで
[Equation 14] Get. These x 'and y' signals are output by an exponential function generator 2
7, 28, where

【0096】[0096]

【数15】 の値を得た後、色度座標演算部2からの出力信号として
出力する。この色度信号x、yの値は
(Equation 15) Is obtained as an output signal from the chromaticity coordinate calculator 2. The values of the chromaticity signals x and y are

【0097】[0097]

【数16】 の計算結果に一致しており、カラー画像信号R,G,B
に対する色度座標点を示している。
(Equation 16) Of the color image signals R, G, B
Shows the chromaticity coordinate points for.

【0098】一方、色度座標演算部2からの色度信号
x、y及び、刺激値変換部1からの刺激値Yは共に指定
点データ保持部13に入力され、ここで目標を指定した
ときに与えられる初期捕捉指定点Gtoと一致した画素
のx、yと刺激値Yを選択・保持し、これを画像フレー
ム毎に更新して、指定点色度信号xto、yto及び、
指定点刺激値Ytoとして指定点データ保持部13から
出力する。
On the other hand, the chromaticity signals x and y from the chromaticity coordinate calculator 2 and the stimulus value Y from the stimulus value converter 1 are both input to the designated point data holding unit 13, and when the target is designated here X, y and the stimulus value Y of the pixel that coincides with the initial capture designated point Gto given to the target point, and update them for each image frame to obtain the designated point chromaticity signals xto, yto,
The designated point data holding unit 13 outputs the designated point stimulus value Yto.

【0099】この内、指定点色度信号xto、ytoは
基準色度更新部4に入力される。基準色度更新部4で
は、初期捕捉指定点Gtoが初期捕捉点として設定を完
了したことを示す設定完了タイミング信号Toを受領し
た時点で指定点色度信号xto、ytoをそのまま基準
色度更新部4の初期の基準色度信号xo、yoとする。
The designated point chromaticity signals xto and yto are input to the reference chromaticity updating unit 4. The reference chromaticity update unit 4 receives the specified point chromaticity signals xto and yto as they are when the setting completion timing signal To indicating that the initial capture designated point Gto has been set as the initial capture point is received. 4 as initial reference chromaticity signals xo and yo.

【0100】指定点刺激値Ytoについては、基準輝度
更新部10に入力され、設定完了タイミング信号Toを
受領した時点で基準輝度更新部10の初期の基準輝度信
号Yoとする。また、評価エリア発生部12では設定完
了タイミング信号Toを受領した時点で与えられる初期
捕捉ウィンドウWGtoを初期値とした検出エリア信号
WGを発生する。
The specified point stimulus value Yto is input to the reference luminance updating unit 10 and is set as the initial reference luminance signal Yo of the reference luminance updating unit 10 when the setting completion timing signal To is received. In addition, the evaluation area generation unit 12 generates a detection area signal WG having an initial capture window WGto given at the time of receiving the setting completion timing signal To as an initial value.

【0101】次に、色度座標演算部2からの色度信号
x、yの値は図3に示す色度差算出部3の2入力減算回
路31、32で前記xo、yoを引き、絶対値化回路3
3、34で絶対値を求めた後、それらを2入力加算回路
35で加算することにより、
Next, the values of the chromaticity signals x and y from the chromaticity coordinate calculator 2 are subtracted from the xo and yo by the two-input subtraction circuits 31 and 32 of the chromaticity difference calculator 3 shown in FIG. Value conversion circuit 3
After obtaining the absolute values at 3 and 34, they are added by a two-input adding circuit 35,

【0102】[0102]

【数17】 の式による1画素毎の色度差信号ΔCをセンサからの画
像信号と同じレートで得る。
[Equation 17] Is obtained at the same rate as the image signal from the sensor.

【0103】この色度差信号ΔCは極小点検出部5に入
力され、ここでΔCの極小点が検出される毎にその発生
時点を示す極小点検出タイミング信号pmが極小点デー
タ保持部6に出力される。
This chromaticity difference signal ΔC is input to the minimum point detection unit 5, and every time a minimum point of ΔC is detected, a minimum point detection timing signal pm indicating the occurrence point is stored in the minimum point data holding unit 6. Is output.

【0104】極小点データ保持部6では、色度差算出部
3からの色度差信号ΔC、色度座標演算部2からの色度
座標信号x、y、及び、刺激値変換部1からの輝度信号
Y(Y刺激値)が入力されているが、極小点検出信号p
mが来た時点で過去に保持した色度差信号ΔCより小さ
なΔCが入力されているかを判定し、小さい値が入力さ
れている場合は入力されている信号全てを更新・保持す
る。
In the minimum point data holding unit 6, the chromaticity difference signal ΔC from the chromaticity difference calculating unit 3, the chromaticity coordinate signals x and y from the chromaticity coordinate calculating unit 2, and the stimulus value converting unit 1 Although the luminance signal Y (Y stimulus value) is input, the minimum point detection signal p
At the time when m comes, it is determined whether ΔC smaller than the previously held chromaticity difference signal ΔC has been input, and if a smaller value has been input, all the input signals are updated / held.

【0105】従って、本装置に1画面全面1フレームの
入力が完了した時点で色度差信号ΔCの最小値を持つ極
小点のΔC、x、y、Yが極小点データ保持部6の内部
に保持されていることになり、これらをそれぞれ、ΔC
pm、xpm、ypm、Ypmとして出力する。
Therefore, at the time when the input of one frame on one screen is completed, ΔC, x, y, and Y of the minimum point having the minimum value of the chromaticity difference signal ΔC are stored in the minimum point data holding unit 6. Are retained, and these are respectively represented by ΔC
Output as pm, xpm, ypm, Ypm.

【0106】極小点データ保持部6からのΔCpmの信
号は図4に示す色度差信号2値化部7で目標の特性から
モデル化した目標判定限界値を加算した2値化しきい値
ΔCmaxを算出処理回路72で求め、ΔCmaxを2
値化回路73に設定する。
The signal of ΔCpm from the minimum point data holding unit 6 is a binary threshold value ΔCmax obtained by adding a target determination limit value modeled from a target characteristic by the chromaticity difference signal binarization unit 7 shown in FIG. Calculated by the calculation processing circuit 72, and ΔCmax is 2
The value is set in the value conversion circuit 73.

【0107】同様に、図5に示す輝度信号2値化部8で
は、基準輝度更新部10からの基準輝度信号Yoをもと
に目標の特性を勘案した目標判定限界上限幅の分を加算
した輝度2値化限界値Ymaxと目標判定限界下限幅の
分を減算した輝度2値化限界値Yminを2値化範囲と
してYmax、Ymin算出処理回路82で求め、2値
化回路73に設定する。
Similarly, the luminance signal binarizing section 8 shown in FIG. 5 adds, based on the reference luminance signal Yo from the reference luminance updating section 10, a target determination limit upper limit width in consideration of target characteristics. The luminance binarization limit value Ymin obtained by subtracting the luminance binarization limit value Ymax and the target determination limit lower limit width is determined as a binarization range by the Ymax and Ymin calculation processing circuit 82 and set in the binarization circuit 73.

【0108】ΔCmaxとYmax、Yminの設定完
了時点で、1フレーム分のΔCのマップデータを図4に
示すΔCマップフレームメモリ71から、また、Yのマ
ップデータは図5に示す輝度マップフレームメモリ81
から読み取り、2値化回路73、83でそれぞれΔCと
Yに対する2つの2値化画像信号BΔCとBYを得る。
When the setting of ΔCmax, Ymax, and Ymin is completed, the map data of ΔC for one frame is stored in the ΔC map frame memory 71 shown in FIG. 4, and the map data of Y is stored in the luminance map frame memory 81 shown in FIG.
, And two binarized image signals BΔC and BY for ΔC and Y are obtained by the binarization circuits 73 and 83, respectively.

【0109】評価エリア発生部12では、設定完了タイ
ミング信号Toを受領した時点で与えられる初期捕捉ウ
ィンドウWGtoを初期値とした検出エリア信号WGに
よりこれに対応する画像フレーム上のエリア内であれ
ば、「1」となる2値化エリア信号wを発生し出力する
が、この2値化エリア信号wと前記2値化画像信号BΔ
C、BYとをAND回路9で論理積をとり、最終的な目
標の2値化画像Bを得る。
In the evaluation area generating unit 12, if the detection area signal WG having the initial capture window WGto given at the time of receiving the setting completion timing signal To as an initial value is within the area on the corresponding image frame, A binarized area signal w which is "1" is generated and output. The binarized area signal w and the binarized image signal BΔ
C and BY are ANDed by an AND circuit 9 to obtain a final target binary image B.

【0110】得られた2値化画像Bは、2値化画像重心
点演算部11でラベリング処理が行われ、複数の独立し
た2値化エリアに区別・分離した後、過去の検出位置の
動きによる予測によって2値化エリアのひとつを選択し
て面重心点を計算し目標検出位置Gとして本装置から出
力される。
The obtained binarized image B is subjected to a labeling process in the binarized image centroid calculating section 11 to discriminate / separate into a plurality of independent binarized areas. , One of the binarized areas is selected, the surface centroid is calculated, and output as the target detection position G from the apparatus.

【0111】次のフレームの処理に移行する時点では、
次の画像フレーム入力開始前に基準色度更新部4で、極
小点データ保持部6に保持されている最新の目標の色度
xpm、ypmを入力し、現在保持している基準色度値
xo、yoを基準として、次フレームの基準色度を予測
またはフィルタリング処理をし、新たな基準色度値x
o、yoとする。
At the time of moving to the processing of the next frame,
Before starting the input of the next image frame, the reference chromaticity updating unit 4 inputs the latest target chromaticities xpm and ypm held in the minimum point data holding unit 6, and stores the currently held reference chromaticity value xo. , Yo, the reference chromaticity of the next frame is predicted or filtered to obtain a new reference chromaticity value x.
o and yo.

【0112】基準輝度更新部10でも同様に、極小点デ
ータ保持部6に保持されている目標の輝度Ypmによ
り、予測またはフィルタリング処理で新たな基準輝度Y
oに更新する。
Similarly, the reference luminance updating section 10 uses the target luminance Ypm held in the minimum point data holding section 6 to set a new reference luminance Y by prediction or filtering.
Update to o.

【0113】評価エリア発生部12では、2値化画像重
心点算出部11からの目標検出位置Gと2値化面積Sか
ら、目標検出位置Gを中心位置とし、且、初期捕捉ウィ
ンドウWGtoの縦横の比率を一定としつつ、WGto
のエリア面積にたいする2値化面積Sの比率が一定とな
るように検出エリア信号WGを更新し、また、次フレー
ムで更新されたWGに対応する2値化エリア信号wを発
生可能な状態とする。
The evaluation area generation unit 12 sets the target detection position G as the center position based on the target detection position G and the binarized area S from the binarized image centroid calculation unit 11, and sets the vertical and horizontal directions of the initial capture window WGto. WGto while keeping the ratio of
The detection area signal WG is updated so that the ratio of the binarized area S to the area area is constant, and the binarized area signal w corresponding to the WG updated in the next frame can be generated. .

【0114】以上を1フレーム毎のカラー画像信号R,
G,Bの入力から繰り返すことにより、最初に設定完了
タイミング信号Toを受領したときの初期捕捉指定点の
目標を検出し、その位置をフレーム毎出力する動作をす
る。また、次に設定完了タイミング信号Toが入力され
た場合は、その時点で与えられた初期捕捉指定点Gto
の目標が新たな目標になる。
The above description is based on the color image signals R,
By repeating from the input of G and B, the target of the initial capture designated point when the setting completion timing signal To is first received is detected, and the position is output for each frame. When the setting completion timing signal To is next input, the initial capture designated point Gto given at that time is input.
Goals become new goals.

【0115】上記の実施例では、極小点データ保持部6
の保持するデータは最小のΔCを持つ極小点に対応する
データ群を1点についてのみ保持し目標に追尾するため
の情報として出力する構成としたが、他の実施例とし
て、極小点データ保持部6を極小点の画面上の位置座標
も保持できるようにして、且、複数の極小点についての
データ群をリストの形で保持できる構成にすることがで
きる。
In the above embodiment, the minimum point data holding unit 6
Holds the data group corresponding to the minimum point having the minimum ΔC for only one point and outputs it as information for tracking the target. However, as another embodiment, the minimum point data holding unit 6 can also hold the position coordinates of the minimum point on the screen, and can be configured to hold a data group for a plurality of minimum points in the form of a list.

【0116】この構成では、探索する色度を目標指定点
色度として設定するようにすれば、探索する目標候補の
点の画面上の座標を複数ΔCの小さい順で順位づけを行
ってデータ群を整理し、これらを出力することが可能な
いわゆる目標候補探索装置となる。
In this configuration, if the chromaticity to be searched is set as the target designated point chromaticity, the coordinates of the target candidate points to be searched on the screen are ranked in ascending order of a plurality of ΔC, and the data group is set. And a so-called target candidate search device that can output these.

【0117】[0117]

【発明の効果】本発明は、赤、緑、青の3つの画像信号
R,G,Bを、センサから出力される画素毎に実時間で
カラー信号入力に対応して3刺激値信号X、Y、Zに変
換し、この3刺激値信号X、Y、Zから目標の反射光が
持つ分光特性に直接関係する色度座標点の信号x、yを
計算しているので、目標の明暗に捕らわれない的確な目
標検出ができる。
According to the present invention, three image signals R, G, and B of red, green, and blue are converted into tristimulus signals X, Since the signals x, y of the chromaticity coordinate points which are directly related to the spectral characteristics of the target reflected light are calculated from the tristimulus value signals X, Y, Z, the signals are converted into Y, Z. Accurate target detection without being caught can be performed.

【0118】更に、x、yの値は必ず、「1」以下の値
となるため、以降の処理での回路設計で必要となる処理
値のスケーリングが容易になる。また、刺激値変換部で
得られるY刺激値は色光の明るさに相当するため、目標
検出にY刺激値をそのまま使用して色度値、x、yとを
組み合わせた場合には、より的確な検出判定が可能とな
る。
Furthermore, since the values of x and y are always less than or equal to "1", the scaling of the processing values required for the circuit design in the subsequent processing is facilitated. Further, since the Y stimulus value obtained by the stimulus value conversion unit corresponds to the brightness of the color light, it is more accurate to combine the chromaticity values, x, and y with the Y stimulus value as it is for target detection. Detection judgment can be performed.

【0119】また、本発明は、色度座標演算部で、x、
yを得るための演算に、対数圧縮後、減算する方法を用
いることができるので、x、yを得るために取り扱える
刺激値のダイナミックレンジを極めて広くすることがで
き、かつ、除算回路を排除できる効果をもっている。
Further, according to the present invention, the chromaticity coordinate calculation unit calculates x,
Since a method of subtraction after logarithmic compression can be used for the operation for obtaining y, the dynamic range of the stimulus value that can be handled for obtaining x and y can be extremely widened, and the division circuit can be eliminated. Has an effect.

【0120】また、色度差算出部3では検出すべき目標
の色度値を基準としてその撮像画像について色度空間上
での座標の基準との位置ズレを、距離情報という1つの
信号値に変換しているため、この値が最小となる点を検
出するのみで目標点検出点とすることができ、処理回路
の規模を削減することができる。さらに、色度空間上で
の座標の基準との位置ズレを距離情報得る際に、色度差
を算出しているので、距離情報を、自乗演算及び平方根
を求めることなく簡単に求められると同時に、常にΔC
≧rの関係があるので、rの値より大きな色度の差の値
として求めることができる。
Further, the chromaticity difference calculating section 3 converts the positional deviation of the captured image from the coordinate reference in the chromaticity space into one signal value called distance information based on the target chromaticity value to be detected. Since the conversion is performed, the target point can be set as the target point detection point only by detecting the point at which this value is minimum, and the scale of the processing circuit can be reduced. Furthermore, when obtaining the distance information of the positional deviation from the coordinate reference on the chromaticity space, the chromaticity difference is calculated, so that the distance information can be easily obtained without calculating the square operation and the square root. , Always ΔC
Since there is a relationship of ≧ r, it can be obtained as a value of a chromaticity difference larger than the value of r.

【0121】また、本発明では、基準色度更新部4を有
しているので、時間と共に目標の距離が遠方に変化し、
大気の散乱光及び、透過率の分光特性の影響を受け、撮
像色度が変化した場合でも、基準色度のトラッキングが
可能であり、撮像距離の影響を抑える効果を持ってい
る。
Further, according to the present invention, since the reference chromaticity updating unit 4 is provided, the target distance changes with time over time,
Even when the imaging chromaticity changes due to the influence of atmospheric scattered light and the spectral characteristics of transmittance, tracking of the reference chromaticity is possible, and the effect of suppressing the influence of the imaging distance is provided.

【0122】また、最終の目標位置の算出は、2値化画
像重心点演算部11により、ラベリング処理した後、目
標の動き予測判定による2値化エリア選択の後に面重心
として出力しているので、同色物体交差判定も可能であ
り、且、検出位置がエリア内で平均化されて検出点位置
の揺らぎ又は、飛びの幅を緩和することができる。
The final target position is calculated by the binarized image center-of-gravity point calculation unit 11, which outputs the result as the surface centroid after selecting the binarized area by the target motion prediction determination. It is also possible to determine the intersection of objects of the same color, and the detection positions are averaged within the area, so that the fluctuation of the detection point position or the width of the jump can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】図1における色度座標変換部2の一例を示すブ
ロック図である。
FIG. 2 is a block diagram showing an example of a chromaticity coordinate conversion unit 2 in FIG.

【図3】図1における色度差算出部3の一例を示すブロ
ック図である。
FIG. 3 is a block diagram illustrating an example of a chromaticity difference calculator 3 in FIG.

【図4】図1における色度差信号2値化部7の一例を示
すブロック図である。
FIG. 4 is a block diagram illustrating an example of a chrominance difference signal binarization section 7 in FIG. 1;

【図5】図1における輝度信号2値化部8の一例を示す
ブロック図である。
FIG. 5 is a block diagram showing an example of a luminance signal binarizing section 8 in FIG. 1;

【図6】図1の使用接続例を示すブロック図である。FIG. 6 is a block diagram showing an example of the connection used in FIG. 1;

【図7】図1における各ブロックの動作を説明するため
の図である。
FIG. 7 is a diagram for explaining the operation of each block in FIG. 1;

【図8】本発明の動作を説明するための図である。FIG. 8 is a diagram for explaining the operation of the present invention.

【図9】本発明の動作を説明するための図である。FIG. 9 is a diagram for explaining the operation of the present invention.

【図10】本発明の動作を説明するための図である。FIG. 10 is a diagram for explaining the operation of the present invention.

【図11】本発明の動作を説明するための図である。FIG. 11 is a diagram for explaining the operation of the present invention.

【図12】本発明の動作を説明するための図である。FIG. 12 is a diagram for explaining the operation of the present invention.

【図13】本発明の動作を説明するための図である。FIG. 13 is a diagram for explaining the operation of the present invention.

【符号の説明】[Explanation of symbols]

1 刺激値変換部 2 色度座標演算部 3 色度差算出部 4 基準色度更新部 5 極小点検出部 6 極小点データ保持部 7 色度差信号2値化部 8 輝度信号2値化部 9 AND回路 10 基準輝度更新部 11 2値化画像重心点算出部 12 評価エリア発生部 13 指定点データ保持部 21 3入力加算回路 22,23,24 対数圧縮回路 25,26 減算回路 27,28 指数関数回路 31,32 減算回路 33,34 絶対値化回路 35 2入力加算回路 71 ΔCマップフレームメモリ 72 ΔCmax算出処理回路 73 2値化回路 81 輝度マップフレームメモリ 82 Ymax/Ymin算出処理回路 83 2値化回路 100 カラー画像目標検出装置 101 カラー画像センサ 102 初期捕捉指定入力装置 103 画像・指定位置表示装置 104 ジンバル装置 105 追尾信号出力装置 106 撮像対象 107 表示画面 108 追尾目標 201 カラー画像センサのRGB信号による色度の
値域 202 入力画像の色度座標 203 目標指定点色度座標(基準色度座標) 301 x+y=1となる直線 302 0点を基準としたΔC≦1.0を満たす限界
線 401 ΔCマップ 402 極小点 403 pm発生点 404 pm発生範囲指定エリアWG 501 撮像画面 502 信号出力順序
Reference Signs List 1 stimulus value conversion unit 2 chromaticity coordinate calculation unit 3 chromaticity difference calculation unit 4 reference chromaticity update unit 5 minimum point detection unit 6 minimum point data holding unit 7 chromaticity difference signal binarization unit 8 luminance signal binarization unit Reference Signs List 9 AND circuit 10 Reference luminance update unit 11 Binary image centroid calculation unit 12 Evaluation area generation unit 13 Designated point data holding unit 21 3-input addition circuit 22, 23, 24 Logarithmic compression circuit 25, 26 Subtraction circuit 27, 28 Exponent Function circuits 31, 32 Subtraction circuits 33, 34 Absolute value conversion circuit 35 2-input addition circuit 71 ΔC map frame memory 72 ΔCmax calculation processing circuit 73 Binarization circuit 81 Luminance map frame memory 82 Ymax / Ymin calculation processing circuit 83 Binarization Circuit 100 Color image target detection device 101 Color image sensor 102 Initial capture designation input device 103 Image / designation position display device 104 Gimbal device 105 Tracking signal output device 106 Imaging target 107 Display screen 108 Tracking target 201 Chromaticity range by RGB signal of color image sensor 202 Chromaticity coordinate of input image 203 Target specified point chromaticity coordinate (reference chromaticity coordinate) 301 x + y = 1 Straight line 302 = 1 Limit line satisfying ΔC ≦ 1.0 based on 0 point 401 ΔC map 402 Minimum point 403 pm generation point 404 pm Generation range designation area WG 501 Imaging screen 502 Signal output order

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C022 AB63 5C065 AA01 BB48 CC01 CC04 GG11 GG20 GG22 GG23 GG29 GG50 5L096 AA02 AA06 CA02 EA43 FA09 FA60 FA69 GA06 GA17 GA22 GA41 HA05 9A001 BB03 EE02 EE05 GG01 GG03 HH31 HH34 JJ71 KK60  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 目標カラー画像を撮影し、赤(R)、緑
(G)、青(B)の3つのカラー信号を出力するカラー
画像センサからの画像信号R,G,Bを、 【数1】 の演算をすることにより、センサから出力される画素毎
に実時間でカラー信号入力に対応してX、Y、Zの3刺
激値信号に変換する刺激値変換部と、 前記X、Y、Zの3刺激値信号を 【数2】 の演算をすることにより色度座標信号x、yに変換する
色度座標演算部と、 基準色度座標信号xo、yoと前記色度座標信号x、y
から、 【数3】 の演算をすることにより色度差ΔCを算出する色度差算
出部と、 評価エリア発生部からの検出エリア信号によって設定さ
れた検出エリア内で前記色度差ΔCが極小となる点を検
出して極小点検出タイミング信号pmを出力する極小点
検出部と、 前記極小点検出タイミング信号pmが発生する毎に極小
点の色度差ΔC及び該極小点の色度差ΔCに対応する色
度座標信号x、yを保持し、1フレームのカラー信号入
力完了時点で前記極小点の色度差ΔCの中の最小のもの
及び該最小のΔCに対応する色度座標信号x、yを最小
極小点色度差ΔCpm及び最小極小点色度値xpm、y
pmとして出力する極小点データ保持部と、 前記色度差ΔCと前記最小極小点色度差ΔCpmを入力
して、前記色度差ΔCを2値化色度差BΔCに変換する
色度差信号2値化部と、 前記2値化色度差BΔCと前記評価エリア発生部から出
力される2値化出力画像エリアを限定する2値化ウィン
ドウエリア信号wとの論理積信号Bを出力するAND回
路と、 前記論理積信号Bを入力して、2値化画像の重心点Gと
B=1となる画素数を値とする2値化面積Sを算出する
2値化画像重心点算出部と、 初期捕捉指定点と一致した画素の色度座標信号x、yを
選択・保持し、指定点色度信号xto、ytoとして出
力する指定点データ保持部と、 前記指定点色度信号xto、ytoと前記最小極小点色
度値xpm、ypmを入力し、前記基準色度信号xo、
yoを出力する基準色度更新部と、を備えていることを
特徴とするカラー画像目標位置検出装置。
1. An image signal R, G, B from a color image sensor that captures a target color image and outputs three color signals of red (R), green (G), and blue (B) is expressed by 1) And a stimulus value conversion unit that converts the stimulus value signals into X, Y, and Z stimulus value signals in real time for each pixel output from the sensor in response to a color signal input; The tristimulus value signal of A chromaticity coordinate computing unit that converts the chromaticity coordinate signals into x and y by calculating the following chromaticity coordinate signals x and y:
From, A chromaticity difference calculating section for calculating the chromaticity difference ΔC by performing the above calculation; and detecting a point at which the chromaticity difference ΔC is minimized in a detection area set by a detection area signal from the evaluation area generating section. A minimum point detection unit that outputs a minimum point detection timing signal pm, and a chromaticity difference ΔC of the minimum point and a chromaticity coordinate corresponding to the chromaticity difference ΔC of the minimum point each time the minimum point detection timing signal pm is generated. The signals x and y are held, and when the color signal input of one frame is completed, the smallest one of the chromaticity differences ΔC of the minimum points and the chromaticity coordinate signals x and y corresponding to the minimum ΔC are converted to the minimum minimum points. Chromaticity difference ΔCpm and minimum minimum point chromaticity value xpm, y
a chromaticity difference signal for inputting the chromaticity difference ΔC and the minimum minimal point chromaticity difference ΔCpm, and converting the chromaticity difference ΔC into a binary chromaticity difference BΔC AND for outputting a logical product signal B of a binarization unit and a binarization window area signal w for limiting the binarization output image area output from the evaluation area generation unit, A binary image center-of-gravity point calculation unit that receives the AND signal B and calculates a center-of-gravity point G of the binary image and a binarized area S whose value is the number of pixels where B = 1 A designated point data holding unit that selects and holds the chromaticity coordinate signals x and y of the pixel that coincides with the initial capture designated point and outputs the designated point chromaticity signals xto and yto; and the designated point chromaticity signals xto and yto And the minimum minimum point chromaticity values xpm and ypm, and the reference chromaticity signal o,
and a reference chromaticity updating unit for outputting yo.
【請求項2】 前記極小点データ保持部は、更に、前記
極小点検出タイミング信号pmが発生する毎に前記極小
点の色度差ΔCに対応する刺激値信号Yを保持し、1フ
レームのカラー信号入力完了時点で前記極小点の色度差
ΔCの中の最小のΔCに対応する刺激値信号Yを最小極
小点刺激値信号Ypmとして出力する手段を備え、前記
指示点データ保持部は、更に、前記初期捕捉指定点と一
致した画素の刺激値信号Yを選択・保持し、指定点刺激
値信号Ytoとして出力する手段を備えており、 更に、前記最小極小点刺激値信号Ypmと前記指定点刺
激値信号Ytoを入力して、基準輝度信号Yoを出力す
る基準輝度更新部と、 前記刺激値信号Yと前記基準輝度信号Yoを入力して、
前記刺激値信号Yを2値化輝度信号BYに変換して前記
AND回路へ出力する輝度信号2値化部とを備え、 前記AND回路から、前記2値化色度差BΔCと前記輝
度信号BYと前記2値化ウィンドウエリア信号wとの論
理積信号Bを出力することを特徴とする請求項1記載の
カラー画像目標位置検出装置。
2. The minimum point data holding unit further holds a stimulus value signal Y corresponding to the chromaticity difference ΔC of the minimum point each time the minimum point detection timing signal pm is generated, and stores a color of one frame. Means for outputting a stimulus value signal Y corresponding to the minimum ΔC among the chromaticity differences ΔC of the minimum points as a minimum minimum point stimulus value signal Ypm at the time of completion of the signal input, and the designated point data holding unit further comprises: Means for selecting and holding a stimulus value signal Y of a pixel which coincides with the initial capture designated point, and outputting the selected value as a designated point stimulus value signal Yto. Further, the minimum minimal point stimulus value signal Ypm and the designated point A stimulus value signal Yto, a reference brightness update unit that outputs a reference brightness signal Yo, and a stimulus value signal Y and the reference brightness signal Yo,
A luminance signal binarization unit that converts the stimulus value signal Y into a binarized luminance signal BY and outputs the binarized luminance signal BY to the AND circuit, wherein the AND circuit outputs the binarized chromaticity difference BΔC and the luminance signal BY 2. The color image target position detecting device according to claim 1, wherein a logical product signal B of the binary image signal and the binarized window area signal w is output.
【請求項3】 前記色座標変換部は、前記色度座標信号
x、yを、 【数4】 により求める演算手段を備えていることを特徴とする請
求項1または2記載のカラー画像目標位置検出装置。
3. The color coordinate conversion section converts the chromaticity coordinate signals x, y into 3. A color image target position detecting device according to claim 1, further comprising a calculating means for obtaining the target position.
JP14884399A 1999-05-27 1999-05-27 Color image target position detection device Expired - Fee Related JP3461143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14884399A JP3461143B2 (en) 1999-05-27 1999-05-27 Color image target position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14884399A JP3461143B2 (en) 1999-05-27 1999-05-27 Color image target position detection device

Publications (2)

Publication Number Publication Date
JP2000341704A true JP2000341704A (en) 2000-12-08
JP3461143B2 JP3461143B2 (en) 2003-10-27

Family

ID=15461991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14884399A Expired - Fee Related JP3461143B2 (en) 1999-05-27 1999-05-27 Color image target position detection device

Country Status (1)

Country Link
JP (1) JP3461143B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200309A (en) * 2005-12-28 2007-08-09 Utsunomiya Univ Position specification method and apparatus for plant target part, and working robot using the same apparatus
JP2008236437A (en) * 2007-03-20 2008-10-02 Toshiba Corp Image processing apparatus and method, and program for image processing
CN105334492A (en) * 2014-06-27 2016-02-17 日本电气株式会社 Sensor network-based target tracking method and device
JP2020154952A (en) * 2019-03-22 2020-09-24 株式会社Screenホールディングス Threshold determination method, image processing method, sample image evaluation method, computer program, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200309A (en) * 2005-12-28 2007-08-09 Utsunomiya Univ Position specification method and apparatus for plant target part, and working robot using the same apparatus
JP2008236437A (en) * 2007-03-20 2008-10-02 Toshiba Corp Image processing apparatus and method, and program for image processing
CN105334492A (en) * 2014-06-27 2016-02-17 日本电气株式会社 Sensor network-based target tracking method and device
JP2020154952A (en) * 2019-03-22 2020-09-24 株式会社Screenホールディングス Threshold determination method, image processing method, sample image evaluation method, computer program, and recording medium
JP7254283B2 (en) 2019-03-22 2023-04-10 株式会社Screenホールディングス Threshold determination method, image processing method, specimen image evaluation method, computer program and recording medium

Also Published As

Publication number Publication date
JP3461143B2 (en) 2003-10-27

Similar Documents

Publication Publication Date Title
JP3083918B2 (en) Image processing device
US8538075B2 (en) Classifying pixels for target tracking, apparatus and method
CN106815587A (en) Image processing method and device
JP3490482B2 (en) Edge and contour extraction device
JPH09282452A (en) Monitor
US6304672B1 (en) Edge detecting method and edge detecting device which detects edges for each individual primary color and employs individual color weighting coefficients
JP3461143B2 (en) Color image target position detection device
JP2005018565A (en) Image monitoring device
JPH09265538A (en) Automatic tracking device
JP2004240909A (en) Image processor and image processing method
JPH07209402A (en) Target detecting tracking device
KR100230446B1 (en) Determination method for color of light from color image
JPS6126189A (en) Extracting method of edge
JPH10247246A (en) Object detection method
JPH08159712A (en) Pattern recognition method
JP2002208013A (en) Device for extracting image area and method for the same
JPH11183584A (en) Target detecting apparatus
JP3143291B2 (en) Image target detection device
JPH0844852A (en) Image processor
JP3117395B2 (en) Image contrast detector
KR950000493B1 (en) Method of detecting semiconductor pellet
CN117611554A (en) Shadow detection method based on fusion of YUV color space and gradient characteristics
JPH05210737A (en) Method for recognizing pattern
JP2002216139A (en) Method for detecting horizon by image processing
JPH0559547U (en) Image target detection device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees