JP2857834B2 - Target position acquisition method and target position acquisition device - Google Patents

Target position acquisition method and target position acquisition device

Info

Publication number
JP2857834B2
JP2857834B2 JP6170997A JP17099794A JP2857834B2 JP 2857834 B2 JP2857834 B2 JP 2857834B2 JP 6170997 A JP6170997 A JP 6170997A JP 17099794 A JP17099794 A JP 17099794A JP 2857834 B2 JP2857834 B2 JP 2857834B2
Authority
JP
Japan
Prior art keywords
target
coordinates
weight
center
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP6170997A
Other languages
Japanese (ja)
Other versions
JPH0835814A (en
Inventor
芳史 羽生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON SEIKOSHO KK
Original Assignee
NIPPON SEIKOSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON SEIKOSHO KK filed Critical NIPPON SEIKOSHO KK
Priority to JP6170997A priority Critical patent/JP2857834B2/en
Publication of JPH0835814A publication Critical patent/JPH0835814A/en
Application granted granted Critical
Publication of JP2857834B2 publication Critical patent/JP2857834B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、目標位置取得方法お
よび目標位置取得装置に関し、さらに詳しくは、目標に
類似した亜目標が目標の近傍に存在しても、亜目標に邪
魔されずに、正しい目標の概略位置を取得することが出
来る目標位置取得方法および目標位置取得装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a target position obtaining method and a target position obtaining apparatus, and more particularly, to a target position obtaining method, even if a sub-target similar to the target exists near the target, without interfering with the sub-target. The present invention relates to a target position acquisition method and a target position acquisition device capable of acquiring a correct approximate position of a target.

【0002】[0002]

【従来の技術】図6に、従来の目標位置取得装置の一例
を示す。この目標位置取得装置600は、所定の視野を
撮像して映像信号Eを出力するカメラ10と、前記映像
信号Eから各画素の座標(H,V)と画素値Gとを生成
して出力すると共にフレーム同期信号Fを出力する画像
処理装置20と、対角点の座標(Hs,Vs),(H
e,Ve)で規定されるウインドウ領域R(図7参照)
内の画素の座標(H,V)および画素値Gによりウイン
ドウ領域Rの重心位置(Hg,Vg)を求める重心取得
装置630とを具備している。前記重心取得装置630
は、 Hg=Σ{G・H}/Σ{G} Vg=Σ{G・V}/Σ{G} により重心位置(Hg,Vg)を算出する重心算出回路
62を具備している。
2. Description of the Related Art FIG. 6 shows an example of a conventional target position acquisition device. The target position acquisition device 600 captures a predetermined visual field and outputs a video signal E, and generates and outputs coordinates (H, V) and pixel values G of each pixel from the video signal E. And the image processing apparatus 20 which outputs the frame synchronization signal F, and the coordinates (Hs, Vs), (H
e, Ve) (see FIG. 7)
And a center-of-gravity acquisition device 630 that obtains the center of gravity (Hg, Vg) of the window region R from the coordinates (H, V) of the pixels within the pixel and the pixel value G. The center of gravity acquisition device 630
Has a center-of-gravity calculating circuit 62 for calculating the center-of-gravity position (Hg, Vg) according to Hg = {G · H} / {G} Vg = {G · V} / {G}.

【0003】図7に、あるフレームにおける画像Iを例
示する。この画像I中には、目標Tが撮影されていると
共に、目標Tに類似した亜目標Jが撮影されている。ウ
インドウ領域Rは、目標Tを含むように設定されてい
る。亜目標Jは、ウインドウ領域Rの外に在る。なお、
目標Tの像が円形であるとし、その中心座標を(H1,
V1)とする。また、亜目標Jの像も円形であるとし、
その中心座標を(H2,V2)とする。また、ウインド
ウ領域Rの対角点の座標を(Hs,Vs)および(H
e,Ve)とする。
FIG. 7 illustrates an image I in a certain frame. In this image I, a target T is photographed, and a sub-target J similar to the target T is photographed. The window region R is set to include the target T. The sub-goal J is outside the window region R. In addition,
It is assumed that the image of the target T is circular and its center coordinates are (H1,
V1). Also, assume that the image of subgoal J is also circular,
The center coordinates are (H2, V2). The coordinates of the diagonal points of the window area R are (Hs, Vs) and (Hs).
e, Ve).

【0004】図8は、座標(H,V)の各軸H,Vを2
つの横軸とし,画素値Gを縦軸とした直交3次元座標に
よりウインドウ領域Rを表した概念図である。目標Tの
画素値立体が中心座標(H1,V1)に対して対称であ
り、目標T以外の部分の画素値が“0”であるとする
と、 ウインドウ領域Rの重心位置(Hg,Vg)=目標Tの
画素値立体の中心座標(H1,V1) となる。従って、ウインドウ領域Rの重心位置(Hg,
Vg)を算出することで、目標(T)の概略位置を取得
することが出来る。
FIG. 8 shows each axis H, V of coordinates (H, V) as 2
FIG. 3 is a conceptual diagram showing a window region R by orthogonal three-dimensional coordinates with two horizontal axes and a pixel value G as a vertical axis. Assuming that the pixel value solid of the target T is symmetrical with respect to the center coordinates (H1, V1) and the pixel values of the parts other than the target T are “0”, the barycenter position (Hg, Vg) of the window region R = The center coordinates (H1, V1) of the pixel value solid of the target T are obtained. Therefore, the position of the center of gravity (Hg,
By calculating Vg), the approximate position of the target (T) can be obtained.

【0005】[0005]

【発明が解決しようとする課題】図9に示すように、亜
目標Jが、目標Tに接近してきて、ウインドウ領域Rの
中に入ってしまう場合がある。図10は、この場合の図
8相当図であるが、亜目標Jの画素値立体が目標Tの画
素値立体に比較して無視できない大きさであると、ウイ
ンドウ領域Rの重心位置(Hg,Vg)は、計算上、両
画素値立体の中間位置になってしまう。すなわち、上記
従来の目標位置取得装置600では、目標Tに類似した
亜目標Jが目標Tの近傍に存在する場合には、亜目標J
に惑わされて、正しい目標Tの概略位置を取得すること
が出来なくなる問題点がある。そこで、この発明の目的
は、目標に類似した亜目標が目標の近傍に存在する場合
でも、亜目標Jに惑わされずに、正しい目標Tの概略位
置を取得することが出来る目標位置取得方法および目標
位置取得装置を提供することにある。
As shown in FIG. 9, there is a case where the sub-target J approaches the target T and enters the window region R. FIG. 10 is a diagram corresponding to FIG. 8 in this case. If the pixel value solid of the sub-target J is not negligible compared to the pixel value solid of the target T, the position of the center of gravity (Hg, Hg, Vg) is calculated at an intermediate position between the two pixel value solids. That is, in the above-described conventional target position acquisition device 600, when a sub-target J similar to the target T exists near the target T, the sub-target J
There is a problem that it is not possible to obtain a correct approximate position of the target T. Therefore, an object of the present invention is to provide a target position obtaining method and a target position obtaining method capable of obtaining a correct approximate position of a target T without being misled by a sub-target J, even when a sub-target similar to the target exists near the target. It is to provide a position acquisition device.

【0006】[0006]

【課題を解決するための手段】第1の観点では、この発
明は、目標(T)を含むウインドウ領域(R)を画像
(I)上に設け、前記ウインドウ領域(R)内の画素の
座標(H,V)と画素値(G)とにより当該ウインドウ
領域(R)の重心位置(Hg,Vg)を求め、その重心
位置(Hg,Vg)を目標(T)の概略位置として取得
する目標位置取得方法において、注視点座標(Hp,V
p)が設定されたときに、その注視点座標(Hp,V
p)の近くでは比較的大きな値となり,注視点座標(H
p,Vp)から離れると比較的小さな値となる重み
(W)を前記画素値(G)に乗算し、前記ウインドウ領
域(R)内の画素の座標(H,V)および重み・画素値
積(W・G)により当該ウインドウ領域(R)の重心位
置(Hg,Vg)を求め、その重心位置(Hg,Vg)
を前記目標(T)の概略位置として取得することを特徴
とする目標位置取得方法を提供する。
According to a first aspect of the present invention, a window region (R) including a target (T) is provided on an image (I), and coordinates of pixels in the window region (R) are provided. A target for obtaining the center of gravity (Hg, Vg) of the window area (R) based on (H, V) and the pixel value (G), and obtaining the center of gravity (Hg, Vg) as an approximate position of the target (T) In the position acquisition method, the gazing point coordinates (Hp, V
p) is set, the coordinates of the gazing point (Hp, V
In the vicinity of (p), the value becomes a relatively large value, and the gazing point coordinates (H
p, Vp), the pixel value (G) is multiplied by a weight (W) which becomes a relatively small value when the pixel value (G) is apart from the coordinates (H, V) of the pixel in the window area (R) and the weight / pixel value product. The center of gravity position (Hg, Vg) of the window area (R) is obtained from (WG), and the center of gravity position (Hg, Vg) is obtained.
Is obtained as the approximate position of the target (T).

【0007】第2の観点では、この発明は、目標(T)
を含むウインドウ領域(R)を画像(I)上に設け、前
記ウインドウ領域(R)内の画素の座標(H,V)と画
素値(G)とにより当該ウインドウ領域(R)の重心位
置(Hg,Vg)を求め、その重心位置(Hg,Vg)
を目標(T)の概略位置として取得する目標位置取得装
置において、注視点座標(Hp,Vp)を設定する注視
点座標設定手段(3)と、前記注視点座標(Hp,V
p)から画素の座標(H,V)までの距離(D)を算出
する距離算出手段(4)と、前記距離(D)および所定
の重み関数W(D)により前記距離(D)が小さいほど
大きな値となる重み(W)を発生する重み発生手段
(5)と、前記重み(W)を前記画素の画素値(G)に
乗算して重み・画素値積(W・G)を算出する乗算手段
(1)と、前記座標(H,V)および前記重み・画素値
積(W・G)により前記ウインドウ領域(R)の重心位
置(Hg,Vg)を算出する重心位置算出手段(2)と
を具備したことを特徴とする目標位置取得装置を提供す
る。
[0007] In a second aspect, the present invention provides a method comprising:
Is provided on the image (I), and the coordinates (H, V) of the pixels in the window area (R) and the pixel value (G) indicate the position of the center of gravity (R) of the window area (R). Hg, Vg), and the position of the center of gravity (Hg, Vg)
In the target position acquiring device for acquiring the approximate coordinates of the target (T), a gazing point coordinate setting means (3) for setting gazing point coordinates (Hp, Vp), and the gazing point coordinates (Hp, Vp).
The distance (D) is small by the distance calculating means (4) for calculating the distance (D) from p) to the coordinates (H, V) of the pixel, and the distance (D) and a predetermined weighting function W (D). Weight generating means (5) for generating a weight (W) having a larger value; and calculating a weight / pixel value product (WG) by multiplying the pixel value (G) of the pixel by the weight (W). Multiplication means (1) for calculating the center of gravity position (Hg, Vg) of the window area (R) based on the coordinates (H, V) and the weight / pixel value product (WG). 2) A target position acquisition device characterized by comprising:

【0008】第3の観点では、この発明は、上記構成の
目標位置取得装置において、画像(I)が所定時間ごと
に更新されるとき、前記注視点座標設定手段(3)が、
ある時刻の画像(I)について算出した重心位置(H
g,Vg)を次の時刻の画像(I)に対する注視点座標
(Hp,Vp)として設定することを特徴とする目標位
置取得装置を提供する。
According to a third aspect of the present invention, in the target position acquiring apparatus having the above-mentioned configuration, when the image (I) is updated at predetermined time intervals, the gazing point coordinate setting means (3) includes:
The center of gravity position (H calculated for the image (I) at a certain time
g, Vg) are set as gazing point coordinates (Hp, Vp) for the image (I) at the next time.

【0009】[0009]

【作用】上記第1の観点による目標位置取得方法および
上記第2の観点による目標位置取得装置では、設定され
た注視点座標(Hp,Vp)の近くでは比較的大きな値
となり,注視点座標(Hp,Vp)から離れると比較的
小さな値となる重み(W)を画素値(G)に乗算し、重
み・画素値積(W・G)を取得する。そして、ウインド
ウ領域(R)内の画素の座標(H,V)および重み・画
素値積(W・G)によりウインドウ領域(R)の重心位
置(Hg,Vg)を求め、その重心位置(Hg,Vg)
を目標(T)の概略位置として取得する。そこで、目標
(T)の近傍に注視点座標(Hp,Vp)を設定してお
けば、目標(T)の画素値立体が長大化され,亜目標
(J)の画素値立体が矮小化された上で、ウインドウ領
域(R)の重心位置(Hg,Vg)が求められることに
なる。このため、亜目標(J)の影響が抑制され、正し
い目標Tの概略位置を取得できるようになる。
In the target position acquiring method according to the first aspect and the target position acquiring apparatus according to the second aspect, the value becomes relatively large near the set gazing point coordinates (Hp, Vp). Hp, Vp), the pixel value (G) is multiplied by a weight (W) which becomes a relatively small value to obtain a weight / pixel value product (W · G). The barycentric position (Hg, Vg) of the window region (R) is obtained from the coordinates (H, V) of the pixels in the window region (R) and the weight / pixel value product (WG), and the barycentric position (Hg) is obtained. , Vg)
As the approximate position of the target (T). Therefore, if the gazing point coordinates (Hp, Vp) are set in the vicinity of the target (T), the pixel value solid of the target (T) is lengthened, and the pixel value solid of the sub-target (J) is reduced. Then, the barycentric position (Hg, Vg) of the window region (R) is obtained. Therefore, the influence of the sub-target (J) is suppressed, and a correct approximate position of the target T can be obtained.

【0010】上記第3の観点による目標位置取得装置で
は、画像(I)が所定時間毎に更新されるとき、ある時
刻の画像(I)について算出した重心位置(Hg,V
g)を次の時刻の画像(I)に対する注視点座標(H
p,Vp)として設定する。このことにより、最初に目
標(T)の近傍に注視点座標(Hp,Vp)を設定して
おけば、その後、目標(T)が移動しても、それに追従
して注視点座標(Hp,Vp)が動くことになり、常に
正しい目標Tの概略位置を取得できるようになる。
In the target position acquiring apparatus according to the third aspect, when the image (I) is updated at predetermined time intervals, the center of gravity (Hg, Vg) calculated for the image (I) at a certain time.
g) is changed to the gazing point coordinates (H) for the image (I) at the next time.
p, Vp). Thus, if the coordinates of the gazing point (Hp, Vp) are first set near the target (T), then, even if the target (T) moves, the coordinates of the gazing point (Hp, Vp) follow the target (T). Vp) moves, and the approximate position of the correct target T can always be obtained.

【0011】[0011]

【実施例】以下、図に示す実施例によりこの発明をさら
に詳細に説明する。なお、これによりこの発明が限定さ
れるものではない。図1は、この発明の目標位置取得装
置の一実施例の構成図である。この目標位置取得装置1
00は、所定の視野を撮像して映像信号Eを出力するカ
メラ10と、前記映像信号Eから各画素の座標(H,
V)と画素値Gとを生成して出力すると共にフレーム同
期信号Fを出力する画像処理装置20と、対角点の座標
(Hs,Vs),(He,Ve)で規定されるウインド
ウ領域R(図7参照)内の画素の座標(H,V)および
重み・画素値積W・Gによりウインドウ領域Rの重心位
置(Hg,Vg)を求める重心取得装置30とを具備し
て構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below in more detail with reference to the embodiments shown in the drawings. It should be noted that the present invention is not limited by this. FIG. 1 is a configuration diagram of an embodiment of a target position acquisition device according to the present invention. This target position acquisition device 1
00 denotes a camera 10 that captures a predetermined visual field and outputs a video signal E, and the coordinates (H,
V) and a pixel value G are generated and output, and the image processing apparatus 20 outputs a frame synchronization signal F, and a window area R defined by coordinates (Hs, Vs) and (He, Ve) of diagonal points. And a center-of-gravity acquisition device 30 for calculating the center of gravity (Hg, Vg) of the window region R based on the coordinates (H, V) of the pixels in (see FIG. 7) and the weight / pixel value product WG. I have.

【0012】前記重心取得装置30は、乗算回路1と、
重心算出回路2と、CPU3と、距離算出回路4と、重
み発生回路5とを具備している。前記乗算回路1は、重
みWを画素値Gに乗算して、重み・画素値積W・Gを算
出する。前記重心算出回路2は、 Hg=Σ{W・G・H}/Σ{W・G} Vg=Σ{W・G・V}/Σ{W・G} により重心位置(Hg,Vg)を算出する。
The center-of-gravity acquisition device 30 includes a multiplication circuit 1
It includes a center-of-gravity calculation circuit 2, a CPU 3, a distance calculation circuit 4, and a weight generation circuit 5. The multiplying circuit 1 multiplies the pixel value G by the weight W to calculate a weight / pixel value product WG. The center-of-gravity calculating circuit 2 calculates the center-of-gravity position (Hg, Vg) according to Hg = {W · G · H} / {W · G} Vg = {W · G · V} / {W · G}. calculate.

【0013】前記CPU3は、操作者が入力した注視点
座標(Hp,Vp)を受け付け、それを注視点座標(H
p,Vp)の初期値として前記距離算出回路4に渡す。
そして、1回でも重心位置(Hg,Vg)が算出される
と、最新の重心位置(Hg,Vg)を注視点座標(H
p,Vp)として前記距離算出回路4に渡す。また、C
PU3は、操作者が入力した対角点の座標(Hs,V
s),(He,Ve)を受け付け、それを対角点の座標
(Hs,Vs),(He,Ve)の初期値として前記重
心算出回路2に渡す。そして、重心位置(Hg,Vg)
の移動量ΔHg,ΔVgを算出し、その移動量ΔHg,
ΔVgを現在の対角点の座標(Hs,Vs),(He,
Ve)に加えた座標(Hs+ΔHg,Vs+ΔVg),
(He+ΔHg,Ve+ΔVg)を新たな対角点の座標
(Hs,Vs),(He,Ve)として前記重心算出回
路2に渡す。さらに、CPU3は、所定の重み関数W
(D)を実現するためのデータを前記重み発生回路5に
書き込む。これについては後で詳述する。
The CPU 3 receives the coordinates of the gazing point (Hp, Vp) input by the operator, and inputs the coordinates of the gazing point (Hp).
(p, Vp) is passed to the distance calculation circuit 4 as an initial value.
When the position of the center of gravity (Hg, Vg) is calculated even once, the latest position of the center of gravity (Hg, Vg) is set to the gazing point coordinate (H
p, Vp) to the distance calculation circuit 4. Also, C
PU3 calculates the coordinates (Hs, V) of the diagonal point input by the operator.
s) and (He, Ve) are received and passed to the center-of-gravity calculation circuit 2 as initial values of the coordinates (Hs, Vs) and (He, Ve) of the diagonal points. And the position of the center of gravity (Hg, Vg)
, The movement amounts ΔHg and ΔVg are calculated.
ΔVg is set to the coordinates (Hs, Vs), (He,
Ve) (Hs + ΔHg, Vs + ΔVg),
(He + ΔHg, Ve + ΔVg) is passed to the center-of-gravity calculating circuit 2 as coordinates (Hs, Vs) and (He, Ve) of new diagonal points. Further, the CPU 3 determines a predetermined weight function W
Data for realizing (D) is written in the weight generation circuit 5. This will be described later in detail.

【0014】前記距離算出回路4は、 D・D=(H−Hp)・(H−Hp)+(V−Vp)・
(V−Vp) により、距離の2乗D・Dを算出し、注視点から画素ま
での距離を求める。
The distance calculation circuit 4 calculates D ・ D = (H-Hp) ・ (H-Hp) + (V-Vp) ・
From (V−Vp), the square D · D of the distance is calculated, and the distance from the fixation point to the pixel is obtained.

【0015】前記重み発生回路5は、距離の2乗D・D
を入力とし,重みWを出力とするルックアップテーブル
であり、距離の2乗D・Dが小さいときは比較的大きな
値の重みWを発生し,距離の2乗D・Dが大きいときは
比較的小さな値の重みWを発生する。上述のように、C
PU3が、所定の重み関数W(D)を実現するようにル
ックアップテーブルのデータを書き込む。重み関数W
(D)の例としては、 W=255・exp{−a・D・D} が挙げられる。また、 W=255/(1+a・D・D) が挙げられる。図2に、重み関数W(D)のグラフを例
示する。
The weight generating circuit 5 calculates the square of the distance D · D
Is a look-up table in which a weight W is output and a weight W is output. A relatively large weight W is generated when the square of the distance D · D is small, and a comparison is performed when the square of the distance D · D is large. A weight W having an extremely small value is generated. As mentioned above, C
PU3 writes the data of the look-up table so as to realize the predetermined weight function W (D). Weight function W
As an example of (D), W = 255 · exp {−a · D · D}. In addition, W = 255 / (1 + a.D.D). FIG. 2 illustrates a graph of the weight function W (D).

【0016】図3は、座標(H,V)の各軸H,Vを2
つの横軸とし,画素値Gを縦軸とした直交3次元座標に
よりウインドウ領域Rを表した概念図である。亜目標J
が、目標Tに接近してきて、ウインドウ領域Rの中に入
っている。目標Tの像は円形とし、その中心座標は(H
1,V1)である。また、亜目標Jの像も円形とし、そ
の中心座標は(H2,V2)とする。図4は、座標
(H,V)の各軸H,Vを2つの横軸とし,重みWを縦
軸とした直交3次元座標によりウインドウ領域Rを表し
た概念図である。重みWは、注視点座標(Hp,Vp)
で最大値となり、注視点座標(Hp,Vp)から離れる
ほど小さな値となる。図5は、座標(H,V)の各軸
H,Vを2つの横軸とし,重み・画素値積W・Gを縦軸
とした直交3次元座標によってウインドウ領域Rを表し
た概念図である。目標Tの中心座標(H1,V1)の近
傍に注視点座標(Hp,Vp)を設定しているため、目
標Tの画素値立体が長大化され,亜目標Jの画素値立体
が矮小化されている。このため、亜目標Jの影響が抑制
され、重心位置(Hg,Vg)は、目標Tの中心座標
(H1,V1)の近傍になる。かくして、目標Tに類似
した亜目標Jが目標Tの近傍に存在する場合でも、亜目
標Jに惑わされずに、正しい目標Tの概略位置を取得す
ることが出来る。
FIG. 3 shows each axis H, V of coordinates (H, V) as 2
FIG. 3 is a conceptual diagram showing a window region R by orthogonal three-dimensional coordinates with two horizontal axes and a pixel value G as a vertical axis. Sub-goal J
Is approaching the target T and is in the window region R. The image of the target T is circular, and its center coordinate is (H
1, V1). The image of the sub-target J is also circular, and its center coordinates are (H2, V2). FIG. 4 is a conceptual diagram in which the window region R is represented by orthogonal three-dimensional coordinates in which the axes H and V of the coordinates (H, V) are two horizontal axes and the weight W is the vertical axis. The weight W is the gazing point coordinates (Hp, Vp)
, And becomes smaller as the distance from the gazing point coordinates (Hp, Vp) increases. FIG. 5 is a conceptual diagram showing a window region R by orthogonal three-dimensional coordinates in which each axis H, V of coordinates (H, V) is two horizontal axes, and the weight / pixel value product WG is a vertical axis. is there. Since the gazing point coordinates (Hp, Vp) are set near the center coordinates (H1, V1) of the target T, the pixel value solid of the target T is lengthened, and the pixel value solid of the sub-target J is dwarfed. ing. Therefore, the influence of the sub-target J is suppressed, and the position of the center of gravity (Hg, Vg) is near the center coordinates (H1, V1) of the target T. Thus, even when a sub-target J similar to the target T exists near the target T, a correct approximate position of the target T can be acquired without being misled by the sub-target J.

【0017】[0017]

【発明の効果】この発明の目標位置取得方法および目標
位置取得装置によれば、目標に類似した亜目標が目標の
近傍に存在する場合でも、亜目標に惑わされずに、正し
い目標の概略位置を取得することが出来るようになる。
そこで、特に、異物検査装置,侵入者監視装置,パレタ
イジングロボットの視覚センサなどに有用である。
According to the target position obtaining method and the target position obtaining apparatus of the present invention, even when a sub-target similar to the target exists near the target, the correct approximate position of the target can be determined without being misled by the sub-target. You can get it.
Therefore, it is particularly useful for a foreign substance inspection device, an intruder monitoring device, a visual sensor of a palletizing robot, and the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の目標位置取得装置の一実施例の構成
図である。
FIG. 1 is a configuration diagram of an embodiment of a target position acquisition device according to the present invention.

【図2】重み関数の例示図である。FIG. 2 is an exemplary diagram of a weight function.

【図3】座標軸H,Vを2つの横軸とし,画素値Gを縦
軸とした直交3次元座標によりウインドウ領域Rを表し
た概念図である。
FIG. 3 is a conceptual diagram showing a window region R by orthogonal three-dimensional coordinates in which coordinate axes H and V are two horizontal axes and a pixel value G is a vertical axis.

【図4】座標軸H,Vを2つの横軸とし,重みWを縦軸
とした直交3次元座標によりウインドウ領域Rを表した
概念図である。
FIG. 4 is a conceptual diagram showing a window region R by orthogonal three-dimensional coordinates in which coordinate axes H and V are two horizontal axes and a weight W is a vertical axis.

【図5】座標軸H,Vを2つの横軸とし,重み・画素値
積W・Gを縦軸とした直交3次元座標によりウインドウ
領域Rを表した概念図である。
FIG. 5 is a conceptual diagram showing a window region R by orthogonal three-dimensional coordinates in which coordinate axes H and V are two horizontal axes and a weight / pixel value product WG is a vertical axis.

【図6】従来の目標位置取得装置の一例の構成図であ
る。
FIG. 6 is a configuration diagram of an example of a conventional target position acquisition device.

【図7】あるフレームにおける画像の例示図である。FIG. 7 is an illustration of an image in a certain frame.

【図8】座標軸H,Vを2つの横軸とし,画素値Gを縦
軸とした直交3次元座標によりウインドウ領域Rを表し
た別の概念図である。
FIG. 8 is another conceptual diagram in which a window region R is represented by orthogonal three-dimensional coordinates in which coordinate axes H and V are two horizontal axes and a pixel value G is a vertical axis.

【図9】別のフレームにおける画像の例示図である。FIG. 9 is an illustration of an image in another frame.

【図10】座標軸H,Vを2つの横軸とし,画素値Gを
縦軸とした直交3次元座標によりウインドウ領域Rを表
したさらに別の概念図である。
FIG. 10 is still another conceptual diagram in which a window region R is represented by orthogonal three-dimensional coordinates in which coordinate axes H and V are two horizontal axes and a pixel value G is a vertical axis.

【符号の説明】[Explanation of symbols]

1 乗算回路 2,62 重心算出回路 3 CPU 4 距離算出回路 5 重み発生回路 10 カメラ 20 画像処理装置 30,630 重心取得装置 100,600 目標位置取得装置 G 画素値 H 座標(水平方向) V 座標(垂直方向) F フレーム同期信号 Hg 重心座標(水平方向) Vg 重心座標(垂直方向) W 重み D 距離 Hp 注視点座標(水平方向) Vp 注視点座標(垂直方向) T 目標 J 亜目標 R ウインドウ領域 DESCRIPTION OF SYMBOLS 1 Multiplier circuit 2, 62 Centroid calculation circuit 3 CPU 4 Distance calculation circuit 5 Weight generation circuit 10 Camera 20 Image processing device 30, 630 Centroid acquisition device 100, 600 Target position acquisition device G Pixel value H coordinate (horizontal direction) V coordinate ( (Vertical direction) F Frame synchronization signal Hg barycentric coordinates (horizontal direction) Vg barycentric coordinates (vertical direction) W weight D distance Hp gazing point coordinates (horizontal direction) Vp gazing point coordinates (vertical direction) T target J sub-target R window area

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 目標(T)を含むウインドウ領域(R)
を画像(I)上に設け、前記ウインドウ領域(R)内の
画素の座標(H,V)と画素値(G)とにより当該ウイ
ンドウ領域(R)の重心位置(Hg,Vg)を求め、そ
の重心位置(Hg,Vg)を目標(T)の概略位置とし
て取得する目標位置取得方法において、 注視点座標(Hp,Vp)が設定されたときに、その注
視点座標(Hp,Vp)の近くでは比較的大きな値とな
り,注視点座標(Hp,Vp)から離れると比較的小さ
な値となる重み(W)を前記画素値(G)に乗算し、前
記ウインドウ領域(R)内の画素の座標(H,V)およ
び重み・画素値積(W・G)により当該ウインドウ領域
(R)の重心位置(Hg,Vg)を求め、その重心位置
(Hg,Vg)を前記目標(T)の概略位置として取得
することを特徴とする目標位置取得方法。
1. A window region (R) containing a target (T).
Is provided on the image (I), and the barycentric position (Hg, Vg) of the window area (R) is obtained from the coordinates (H, V) of the pixels in the window area (R) and the pixel value (G), In a target position obtaining method for obtaining the center of gravity position (Hg, Vg) as an approximate position of the target (T), when the gazing point coordinates (Hp, Vp) are set, the gazing point coordinates (Hp, Vp) The pixel value (G) is multiplied by a weight (W), which becomes a relatively large value near and becomes a relatively small value away from the gazing point coordinates (Hp, Vp). The center of gravity position (Hg, Vg) of the window area (R) is obtained from the coordinates (H, V) and the weight / pixel value product (WG), and the center of gravity position (Hg, Vg) of the target (T) Target position acquisition characterized by being acquired as an approximate position How to get.
【請求項2】 目標(T)を含むウインドウ領域(R)
を画像(I)上に設け、前記ウインドウ領域(R)内の
画素の座標(H,V)と画素値(G)とにより当該ウイ
ンドウ領域(R)の重心位置(Hg,Vg)を求め、そ
の重心位置(Hg,Vg)を目標(T)の概略位置とし
て取得する目標位置取得装置において、 注視点座標(Hp,Vp)を設定する注視点座標設定手
段(3)と、前記注視点座標(Hp,Vp)から画素の
座標(H,V)までの距離(D)を算出する距離算出手
段(4)と、前記距離(D)および所定の重み関数W
(D)により前記距離(D)が小さいほど大きな値とな
る重み(W)を発生する重み発生手段(5)と、前記重
み(W)を前記画素の画素値(G)に乗算して重み・画
素値積(W・G)を算出する乗算手段(1)と、前記座
標(H,V)および前記重み・画素値積(W・G)によ
り前記ウインドウ領域(R)の重心位置(Hg,Vg)
を算出する重心位置算出手段(2)とを具備したことを
特徴とする目標位置取得装置。
2. A window region (R) including a target (T).
Is provided on the image (I), and the barycentric position (Hg, Vg) of the window area (R) is obtained from the coordinates (H, V) of the pixels in the window area (R) and the pixel value (G), A target position acquisition device for acquiring the position of the center of gravity (Hg, Vg) as an approximate position of the target (T); a gazing point coordinate setting means (3) for setting gazing point coordinates (Hp, Vp); A distance calculating means (4) for calculating a distance (D) from (Hp, Vp) to the coordinates (H, V) of the pixel, the distance (D) and a predetermined weighting function W
(D) a weight generating means (5) for generating a weight (W) having a larger value as the distance (D) is smaller, and a weight obtained by multiplying the pixel value (G) of the pixel by the weight (W). A multiplication means (1) for calculating a pixel value product (WG), and a barycentric position (Hg) of the window region (R) based on the coordinates (H, V) and the weight / pixel value product (WG) , Vg)
And a gravity center position calculating means (2) for calculating the target position.
【請求項3】 請求項2に記載の目標位置取得装置にお
いて、画像(I)が所定時間ごとに更新されるとき、前
記注視点座標設定手段(3)は、ある時刻の画像(I)
について算出した重心位置(Hg,Vg)を次の時刻の
画像(I)に対する注視点座標(Hp,Vp)として設
定することを特徴とする目標位置取得装置。
3. The target position acquisition device according to claim 2, wherein when the image (I) is updated every predetermined time, the gazing point coordinate setting means (3) sets the image (I) at a certain time.
A target position acquisition device characterized in that the center of gravity position (Hg, Vg) calculated for is set as the gazing point coordinates (Hp, Vp) for the image (I) at the next time.
JP6170997A 1994-07-22 1994-07-22 Target position acquisition method and target position acquisition device Expired - Lifetime JP2857834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6170997A JP2857834B2 (en) 1994-07-22 1994-07-22 Target position acquisition method and target position acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6170997A JP2857834B2 (en) 1994-07-22 1994-07-22 Target position acquisition method and target position acquisition device

Publications (2)

Publication Number Publication Date
JPH0835814A JPH0835814A (en) 1996-02-06
JP2857834B2 true JP2857834B2 (en) 1999-02-17

Family

ID=15915205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6170997A Expired - Lifetime JP2857834B2 (en) 1994-07-22 1994-07-22 Target position acquisition method and target position acquisition device

Country Status (1)

Country Link
JP (1) JP2857834B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890822B (en) * 2011-07-20 2015-05-20 华晶科技股份有限公司 Device with function of detecting object position, and detecting method of device

Also Published As

Publication number Publication date
JPH0835814A (en) 1996-02-06

Similar Documents

Publication Publication Date Title
US8953053B2 (en) Image processing apparatus, image pickup apparatus, and image processing method
WO2004090706A3 (en) Auto-aligning touch system and method
JP2003051016A (en) System, method and program for detecting approach
JPS6278979A (en) Picture processor
JPH06249615A (en) Position detecting method
JP2857834B2 (en) Target position acquisition method and target position acquisition device
KR20040097309A (en) Wireless acoustic based pointing device, e.g. computer mouse, for controlling a cursor on a display screen
JPWO2021020150A5 (en)
Park et al. A novel line of sight control system for a robot vision tracking system, using vision feedback and motion-disturbance feedforward compensation
JP6839116B2 (en) Learning device, estimation device, learning method, estimation method and computer program
CN108986147B (en) Optical flow sensor, method, remote controller device, rotatable electronic device
JP2007036742A (en) Method and apparatus for synthesizing multiple images
JP3512894B2 (en) Relative moving amount calculating apparatus and relative moving amount calculating method
JP7280860B2 (en) Information processing device, system, information processing method and information processing program
JP2021111902A (en) Information processing device, information processing method, and program
JP2001268431A (en) Correction image generator, correction image generation method, correction image generation program recording medium and correction image generation program
JPH06131463A (en) Picture processing method and picture processor
WO2018173183A1 (en) Optical device control apparatus, optical device control method, and optical device control program
Lesmana et al. Active gaze stabilization
JP3263794B2 (en) Image processing device
JPH0432376A (en) Picture tracking system
JP2023064275A (en) Information processing device, information processing method, and program
Staretu et al. Microsoft Kinect Sensor Used to Capture Data for Robotics Applications
JPH05108827A (en) Picture correlation arithmetic unit
JP2698492B2 (en) Motion vector detection device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081204

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081204

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091204

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101204

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111204

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 15

EXPY Cancellation because of completion of term