JPH10336506A - Image-processing system, system and method for tracking and storage medium - Google Patents

Image-processing system, system and method for tracking and storage medium

Info

Publication number
JPH10336506A
JPH10336506A JP9140055A JP14005597A JPH10336506A JP H10336506 A JPH10336506 A JP H10336506A JP 9140055 A JP9140055 A JP 9140055A JP 14005597 A JP14005597 A JP 14005597A JP H10336506 A JPH10336506 A JP H10336506A
Authority
JP
Japan
Prior art keywords
tracking
search area
unit
area
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9140055A
Other languages
Japanese (ja)
Inventor
Masaki Haranishi
正樹 原西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP9140055A priority Critical patent/JPH10336506A/en
Publication of JPH10336506A publication Critical patent/JPH10336506A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To track a target object only, without making wrong recognitions even when objects other than an object to be tracked enter an image-pickup screen by extracting luminance and a chrominance signal from a video signal, detecting a motion vector from a luminance signal, calculating the amount of control for a universal head part from the chrominance signal and the motion vector, based on the chrominance signal processing results and controlling the universal head part. SOLUTION: A color difference signal processing part 8 prepares a histogram, based on the two colors difference data UV for a tracking area of tracking objects from a memory 5 and stores it as a template. Then, a position of a tracking object is estimated from the direction and the size of a motion vector from a motion detector, a search area is prepared nearby the estimated position and position information of the search area which has the biggest correlation value of a color difference histogram by the search area, and the template is sent to a system control part 9. The system control part 9 controls a universal head part 2, based on the position information and directs the tracking object towards a photographing part 1. Thus, the tracking object can be searched and tracked correctly.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理システ
ム、追尾システム,追尾方法,記憶媒体に関し、特に対
象物の追尾に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing system, a tracking system, a tracking method, and a storage medium, and more particularly to tracking of an object.

【0002】[0002]

【従来の技術】従来、対象物を追尾する画像処理システ
ムは、図5に示すように、撮像装置(撮像部,雲台部)
および画像処理装置(A/D変換部,動き検出部,シス
テム制御部)からなる。その動作を簡単に説明すると、
はじめに撮像装置の撮像部21により撮像された画像の
アナログ信号が、デコード部28によりY(輝度),U
V(色差信号)に分離され、A/D変換部23に入力さ
れる。入力されたアナログ信号はA/D変換部23によ
りディジタル信号に変換され、メモリ部24に蓄積され
る。動き検出部26は前記メモリ部の任意の位置のY信
号データにアクセス可能で、このデータを利用して動き
検出を行なう。検出された動きデータは、システム制御
部27に転送され、この動きデータに基づき、雲台部2
2の制御量を計算する。計算された制御量はシステム制
御部27から雲台部22に転送され、雲台部22が制御
される。
2. Description of the Related Art Conventionally, an image processing system for tracking an object, as shown in FIG.
And an image processing device (A / D converter, motion detector, system controller). To briefly explain the operation,
First, an analog signal of an image captured by the image capturing unit 21 of the image capturing apparatus is converted into Y (luminance), U
V (color difference signal) is input to the A / D converter 23. The input analog signal is converted into a digital signal by the A / D converter 23 and stored in the memory 24. The motion detection unit 26 can access Y signal data at an arbitrary position in the memory unit, and performs motion detection using this data. The detected motion data is transferred to the system control unit 27, and based on the motion data, the pan head 2
The control amount of 2 is calculated. The calculated control amount is transferred from the system control unit 27 to the camera platform 22, and the camera platform 22 is controlled.

【0003】[0003]

【発明が解決しようとする課題】前述の従来例では、動
いている対象物を追尾することが可能であるが、例えば
撮像を行なっている画面に、追尾したい対象物とは別の
対象物が入ってきた場合、誤って別の対象物の追尾を行
なってしまうという問題があった。
In the above-mentioned conventional example, it is possible to track a moving object. However, for example, an object different from the object to be tracked is displayed on a screen where an image is being captured. When it enters, there is a problem that another object is erroneously tracked.

【0004】本発明は、このような状況のもとでなされ
たもので、追尾したり対象物以外の対象物が撮像画面に
入っても、誤認せずに目的の対象物だけを追尾できる画
像処理システム、追尾システム,追尾方法,記憶媒体を
提供することを目的とする。
[0004] The present invention has been made under such circumstances, and even when tracking or an object other than the object enters the image pickup screen, an image can be tracked without erroneously recognizing only the target object. It is an object to provide a processing system, a tracking system, a tracking method, and a storage medium.

【0005】[0005]

【課題を解決するための手段】前記目的を達成するた
め、本発明では、追尾対象物をその明るさと色で判別し
追尾するものであり、詳しくは、画像処理システムを次
の(1),(2)のとおりに、追尾システムを次の
(3)のとおりに、追尾方法を次の(4)のとおりに、
そして記憶媒体を次の(5)のとおりに構成するもので
ある。
In order to achieve the above object, according to the present invention, an object to be tracked is discriminated by its brightness and color, and the object is tracked. As described in (2), the tracking system is changed according to the following (3), and the tracking method is changed according to the following (4).
Then, the storage medium is configured as in the following (5).

【0006】(1)撮像部と、この撮像部を任意の方向
に回動させる雲台部と、前記撮像部からの映像信号より
輝度及び色信号を抽出するデコード部と、このデコード
部でデコードされた輝度及び色信号をディジタル信号に
変換するA/D変換部と、このA/D変換部でA/D変
換されたディジタル信号を記憶するメモリ部、このメモ
リ部に記憶されたディジタルの輝度信号から動きベクト
ルを検出する動き検出部と、前記メモリ部に記憶された
ディジタルの色信号と前記動き検出部から出力される動
きベクトルデータから色信号の処理を行なう色信号処理
部と、この色信号処理部の処理結果に基づき前記雲台部
の制御量を計算し計算結果により前記雲台部を制御する
制御部と、前記撮像部からの映像信号を表示する画像表
示部と、この画像表示部から追尾対象物の存在する領域
を指定する領域指定手段と、を備えた画像処理システ
ム。
(1) An image pickup unit, a pan head unit for rotating the image pickup unit in an arbitrary direction, a decoding unit for extracting luminance and color signals from a video signal from the image pickup unit, and a decoding unit for decoding An A / D converter for converting the converted luminance and color signals into digital signals, a memory for storing the digital signals A / D converted by the A / D converter, and a digital luminance stored in the memory. A motion detection unit for detecting a motion vector from the signal; a color signal processing unit for processing a color signal from a digital color signal stored in the memory unit and motion vector data output from the motion detection unit; A control unit that calculates a control amount of the camera platform based on a processing result of the signal processing unit and controls the camera platform based on the calculation result; an image display unit that displays a video signal from the imaging unit; The image processing system and an area specifying means for specifying the existence region of the object to be tracked from the radical 113.

【0007】(2)色信号処理部において、次のa〜f
の処理を行う前記(1)記載の画像処理システム。
(2) In the color signal processing section, the following a to f
The image processing system according to the above (1), which performs the above processing.

【0008】a.前記領域指定手段により指定された領
域の色差ヒストグラムを作り、これをテンプレートメモ
リにとして記憶する。
A. A color difference histogram of the area specified by the area specifying means is created and stored in the template memory.

【0009】b.前記動き検出部から出力される動きベ
クトルデータに基づき追尾対象物の位置を推定する。
B. The position of the tracking target is estimated based on the motion vector data output from the motion detector.

【0010】c.推定位置を中心として近傍領域に探索
領域をつくり、その探索領域で色差ヒストグラムを作
る。
C. A search area is created in a nearby area around the estimated position, and a color difference histogram is created in the search area.

【0011】d.前記c.で作った色差ヒストグラムと
前記a.で作ったテンプレートの色差ヒストグラムとの
相互相関を計算し、メモリに記憶する。
D. Said c. The color difference histogram created in a. Calculate the cross-correlation with the color difference histogram of the template created in the above, and store it in the memory.

【0012】e.検出された動きベクトルデータが複数
あれば、以上のb,c,dの処理を繰り返し行う。
E. If there are a plurality of detected motion vector data, the above processes b, c and d are repeated.

【0013】f.前記メモリのデータに基づき一番大き
な相関値を示した探索領域を追尾対象物の存在する領域
として検出する。
F. The search area showing the largest correlation value is detected as the area where the tracking target exists based on the data in the memory.

【0014】(3)追尾対象物の明るさに基づい撮像画
面における追尾対象物の存在する位置を推定する位置推
定手段と、この位置推定手段で推定した位置の近傍に探
索領域を生成する探索領域生成手段と、前記追尾対象物
の色に基づいて前記探索領域における前記追尾対象物の
位置を判定する位置判定手段とを備えた追尾システム。
(3) Position estimating means for estimating the position where the tracking object exists on the imaging screen based on the brightness of the tracking object, and a search area for generating a search area near the position estimated by the position estimating means A tracking system comprising: a generation unit; and a position determination unit that determines a position of the tracking target in the search area based on a color of the tracking target.

【0015】(4)追尾対象物の明るさに基づいて撮像
画面における前記追尾対象物の位置を推定するステップ
と、このステップデ推定した位置の近傍に探索領域を形
成するステップと、このステップで形成した探索領域に
おける前記追尾対象物の位置を、前記追尾対象物の色に
基づいて判定するステップとを備えた追尾方法。
(4) A step of estimating the position of the tracking object on the image screen based on the brightness of the tracking object, and a step of forming a search area near the estimated position in this step. Determining the position of the tracking object in the formed search area based on the color of the tracking object.

【0016】(5)前記(4)記載の追尾方法を実現す
るためのプログラムを格納した記憶媒体。
(5) A storage medium storing a program for realizing the tracking method described in (4).

【0017】[0017]

【発明の実施の形態】以下本発明の実施の形態を画像処
理システムの実施例により詳しく説明する。なお、実施
例はスタンドアロンの形であるが、本発明はこれに限ら
ず、撮像部,雲台部と画像処理部が、回線或は適宜のネ
ットワークで結ばれた形で実施することができる。また
システムに限らず、追尾方法の形で、更にこの追尾方法
を実現するためのプログラムを格納した、コンピュータ
で読取り可能な、例えばCD−ROMといった記憶媒体
の形で実施することができる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below in detail with reference to examples of an image processing system. Note that the embodiment is a stand-alone form, but the present invention is not limited to this. The present invention can be implemented in a form in which the imaging section, the pan head section, and the image processing section are connected by a line or an appropriate network. The present invention is not limited to the system, and can be implemented in the form of a tracking method, and further in the form of a computer-readable storage medium such as a CD-ROM that stores a program for realizing the tracking method.

【0018】[0018]

【実施例】図1は実施例である“画像処理システム”の
構成を示すブロック図である。図1において、1は画像
の撮像を行なう撮像部、2は撮像部1を任意の方向に回
動させる雲台部である。3は撮像部1からのアナログ信
号(コンポジットビデオ信号あるいはYC信号)をY
(輝度),UV(2色差)信号に変換するデコード部で
ある。4はデコード部3でデコードされたアナログ画像
信号(輝度信号,2色差信号)をディジタル信号に変え
るA/D変換部である。5はA/D変換されたデータを
蓄積するメモリ部である。6はメモリコントローラで、
A/D変換のクロックと同期してA/D変換器4のディ
ジタルデータを、メモリ部5に書き込む制御信号を送
る。7は動き検出部でメモリ部5に記憶された輝度信号
(Y)から、動きベクトルの検出を行なう。8はメモリ
部5に記憶された2色差信号(UV)と動き検出部7か
ら出力される動きベクトルデータから色差信号処理を行
なう色差信号処理部である。9は画像処理システム全体
の制御を行なうシステム制御部である。10は領域指定
手段であり、これにより追尾対象物の存在する領域を指
定する。11は画像表示部である。
FIG. 1 is a block diagram showing the configuration of an "image processing system" according to an embodiment. In FIG. 1, reference numeral 1 denotes an imaging unit that captures an image, and 2 denotes a camera platform that rotates the imaging unit 1 in an arbitrary direction. Reference numeral 3 denotes an analog signal (composite video signal or YC signal) from the imaging unit 1
(Brightness) and a decoding unit for converting into UV (two color difference) signals. Reference numeral 4 denotes an A / D converter for converting an analog image signal (luminance signal, two-color difference signal) decoded by the decoder 3 into a digital signal. Reference numeral 5 denotes a memory unit for storing A / D converted data. 6 is a memory controller,
A control signal for writing the digital data of the A / D converter 4 to the memory unit 5 is transmitted in synchronization with the A / D conversion clock. Reference numeral 7 denotes a motion detection unit that detects a motion vector from the luminance signal (Y) stored in the memory unit 5. Reference numeral 8 denotes a color difference signal processing unit that performs color difference signal processing based on the two color difference signals (UV) stored in the memory unit 5 and the motion vector data output from the motion detection unit 7. Reference numeral 9 denotes a system control unit that controls the entire image processing system. Reference numeral 10 denotes an area designating unit, which designates an area where the tracking target exists. Reference numeral 11 denotes an image display unit.

【0019】次に本画像処理システムの処理内容を順を
追って説明する。この処理内容を流れ図で示したもの
が、図2である。
Next, the processing contents of the image processing system will be described step by step. FIG. 2 is a flowchart showing the contents of this processing.

【0020】まずはじめに領域選択手段10により追尾
したい対象物を枠で囲む(s1)。追尾したい対象物が
決まると、追尾したい対象物の画像表示部11上での位
置(追尾領域)情報が、領域指定手段10からシステム
制御部9に送られ、システム制御部9ではメモリコント
ローラ6を制御することで、追尾対象物の追尾領域の2
色差(UV)データをメモリ部5から色差信号処理部8
へ転送する。色差信号処理部8ではメモリ部5から送ら
れてきた2色差(UV)データに基づきヒストグラムを
作成する(s2)。色差ヒストグラムとは、図3(b)
に示した様に追尾領域の各画素でのUVデータとその頻
度を3次元的に表現したものである。(a)は(b)の
ヒストグラムを真上から見た図であり、P点の座標
(u,v)は同じ図3(c)の追尾領域にあるP点のU
Vデータを示している。以上のようにしてできた追尾対
象物の色差ヒストグラムをテンプレートとして色差信号
処理部8に記憶する(s3)。
First, an object to be tracked is surrounded by a frame by the area selecting means 10 (s1). When an object to be tracked is determined, information on the position of the object to be tracked (tracking area) on the image display unit 11 is sent from the area designating unit 10 to the system control unit 9. By controlling, the tracking area of the tracking target
The color difference (UV) data is transferred from the memory unit 5 to the color difference signal processing unit 8
Transfer to The color difference signal processing unit 8 creates a histogram based on the two color difference (UV) data sent from the memory unit 5 (s2). The color difference histogram is shown in FIG.
The three-dimensional representation of the UV data and its frequency at each pixel in the tracking area as shown in FIG. (A) is a diagram of the histogram of (b) viewed from directly above, and the coordinates (u, v) of point P are the same as those of point P in the tracking area of FIG. 3 (c).
V data is shown. The color difference histogram of the tracking target created as described above is stored in the color difference signal processing unit 8 as a template (s3).

【0021】つづいて、追尾処理プロセスについて説明
する。はじめに動き検出部7から出力される動きベクト
ルデータが色差信号処理部8へ転送される(s4)。も
し動きベクトルが検出されなければ、追尾対象物は動い
ていないと判断し、色差信号処理部8から、システム制
御部9へは追尾対象物の位置情報が送られず、従ってシ
ステム制御部9から、雲台部2へは制御信号が送られな
い。一方動きベクトルが検出されたときは、動きベクト
ルの向きと大きさにより追尾対象物の位置を推定し、そ
の推定された位置の近傍のみで探索領域を作る。例えば
図4で表したように第一フレームで、追尾対象物tの指
定を行ない、第二フレームでは検出された動きベクトル
(図4(3)参照)をもとに追尾対象物tの位置の推定
を行い、推定された追尾対象物tの近傍に探索領域をつ
くる(s5)(図4(2)の1,2,3,……,9)。
これらの探索領域一つ一つの色差ヒストグラムと前述し
た追尾対象物tの色差ヒストグラムのテンプレートとの
相互相関関数を作り(s6)、その相関値をメモリに記
憶する。このとき探索領域の位置情報も合わせて記憶す
る(s7)。
Next, the tracking process will be described. First, the motion vector data output from the motion detection unit 7 is transferred to the color difference signal processing unit 8 (s4). If no motion vector is detected, it is determined that the tracking target is not moving, and the position information of the tracking target is not sent from the color difference signal processing unit 8 to the system control unit 9; , The control signal is not sent to the camera platform 2. On the other hand, when a motion vector is detected, the position of the tracking target is estimated based on the direction and magnitude of the motion vector, and a search area is created only in the vicinity of the estimated position. For example, as shown in FIG. 4, the tracking target t is specified in the first frame, and in the second frame, the position of the tracking target t is determined based on the detected motion vector (see FIG. 4C). The estimation is performed, and a search area is created near the estimated tracking target t (s5) (1, 2, 3,..., 9 in FIG. 4 (2)).
A cross-correlation function is created between each color difference histogram of each of these search areas and the above-described color difference histogram template of the tracking target t (s6), and the correlation value is stored in the memory. At this time, the position information of the search area is also stored (s7).

【0022】ここで述べた、相互相関関数とは次の式で
与えられる。
The cross-correlation function described here is given by the following equation.

【0023】 R(u,v)=h1 (u,v)horg (u,v) …… (式1) 一方その相関値はR (u, v) = h 1 (u, v) h org (u, v) (Equation 1) On the other hand, the correlation value is

【0024】[0024]

【数1】 (Equation 1)

【0025】で表される。## EQU2 ##

【0026】次に動きベクトルが複数検出されているか
否か確認を行ない(s8)、もし動きベクトルが複数検
出されるときは、前記ステップs5,s6,s7を繰り
返す。
Next, it is confirmed whether or not a plurality of motion vectors are detected (s8). If a plurality of motion vectors are detected, steps s5, s6 and s7 are repeated.

【0027】最後に、前記メモリに記憶された相関値の
中から相関値が一番大きな探索領域を検出し(s9)、
検出された探索領域の位置情報がシステム制御部9に送
られ、システム制御部9ではこの位置情報から雲台部2
の制御量を計算し(s10)、雲台部2に制御信号を送
り追尾対象物に撮像部1を向ける(s11)。
Finally, a search area having the largest correlation value is detected from the correlation values stored in the memory (s9).
The position information of the detected search area is sent to the system control unit 9, and the system control unit 9 calculates the position of the camera platform 2 from this position information.
Is calculated (s10), a control signal is sent to the camera platform 2, and the imaging unit 1 is pointed at the tracking target (s11).

【0028】もし追尾対象物を変えたいときは(s1
2)、前記領域指定手段10により再度追尾対象物の指
定を行ない(s1)、これまでと同様なプロセスを繰り
返して追尾対象物を探索する。
If it is desired to change the tracking object (s1
2) The tracking target is specified again by the area specifying means 10 (s1), and the same process as above is repeated to search for the tracking target.

【0029】以上説明したように、本実施例の画像処理
システムでは、従来技術の動き検出部に加え色差信号処
理部を設け、この色差信号処理部で追尾対象物の色差ヒ
ストグラムを作成しこれをテンプレートとし、撮像画面
内の探索領域で作られる色差ヒストグラムと相互相関を
とることで、追尾対象物を正確に探索し、追尾したい対
象物以外の対象物が撮像画面(フレーム)内に入って
も、誤認せずに目的の対象物だけを追尾できる。
As described above, in the image processing system of this embodiment, a color difference signal processing unit is provided in addition to the motion detection unit of the prior art, and the color difference signal processing unit creates a color difference histogram of the object to be tracked. By using the template as a template and cross-correlating with the color difference histogram created in the search area in the imaging screen, the tracking target can be accurately searched, and even if an object other than the tracking target enters the imaging screen (frame). Therefore, only the target object can be tracked without being mistaken.

【0030】[0030]

【発明の効果】以上説明したように、本発明によれば、
追尾したい対象物以外の対象物が撮像画面内に入っても
誤認せずに目的の対象物だけを追尾することができる。
As described above, according to the present invention,
Even if an object other than the object to be tracked enters the imaging screen, only the target object can be tracked without being erroneously recognized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例の構成を示すブロック図FIG. 1 is a block diagram showing a configuration of an embodiment.

【図2】 実施例の動作を示すフローチャートFIG. 2 is a flowchart showing the operation of the embodiment.

【図3】 色差ヒストグラムの説明図FIG. 3 is an explanatory diagram of a color difference histogram.

【図4】 追尾の説明図FIG. 4 is an explanatory diagram of tracking.

【図5】 従来例の構成を示すブロック図FIG. 5 is a block diagram showing a configuration of a conventional example.

【符号の説明】[Explanation of symbols]

1 撮像部 2 雲台 7 動き検出部 8 色差信号処理部 9 システム制御部 Reference Signs List 1 imaging unit 2 pan head 7 motion detection unit 8 color difference signal processing unit 9 system control unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像部と、この撮像部を任意の方向に回
動させる雲台部と、前記撮像部からの映像信号より輝度
及び色信号を抽出するデコード部と、このデコード部で
デコードされた輝度及び色信号をディジタル信号に変換
するA/D変換部と、このA/D変換部でA/D変換さ
れたディジタル信号を記憶するメモリ部、このメモリ部
に記憶されたディジタルの輝度信号から動きベクトルを
検出する動き検出部と、前記メモリ部に記憶されたディ
ジタルの色信号と前記動き検出部から出力される動きベ
クトルデータから色信号の処理を行なう色信号処理部
と、この色信号処理部の処理結果に基づき前記雲台部の
制御量を計算し計算結果により前記雲台部を制御する制
御部と、前記撮像部からの映像信号を表示する画像表示
部と、この画像表示部から追尾対象物の存在する領域を
指定する領域指定手段と、を備えたことを特徴とする画
像処理システム。
1. An imaging section, a camera platform section for rotating the imaging section in an arbitrary direction, a decoding section for extracting a luminance and color signal from a video signal from the imaging section, and a decoding section for decoding by the decoding section. A / D converter for converting the luminance and chrominance signals into digital signals, a memory for storing the digital signals A / D converted by the A / D converter, and a digital luminance signal stored in the memory A motion detection unit that detects a motion vector from the image signal; a color signal processing unit that processes a color signal from a digital color signal stored in the memory unit and motion vector data output from the motion detection unit; A control unit that calculates a control amount of the camera platform based on a processing result of the processing unit and controls the camera platform based on the calculation result; an image display unit that displays a video signal from the imaging unit; and an image display unit. And an area designating means for designating an area in which the tracking target exists.
【請求項2】 色信号処理部において、次のa〜fの処
理を行うことを特徴とする請求項1記載の画像処理シス
テム。 a.前記領域指定手段により指定された領域の色差ヒス
トグラムを作り、これをテンプレートとしてメモリに記
憶する。 b.前記動き検出部から出力される動きベクトルデータ
に基づき追尾対象物の位置を推定する。 c.推定位置を中心として近傍領域に探索領域をつく
り、その探索領域で色差ヒストグラムを作る。 d.前記c.で作った色差ヒストグラムと前記a.で作
ったテンプレートの色差ヒストグラムとの相互相関を計
算し、メモリに記憶する。 e.検出された動きベクトルデータが複数あれば、以上
のb,c,dの処理を繰り返し行う。 f.前記メモリのデータに基づき一番大きな相関値を示
した探索領域を追尾対象物の存在する領域として検出す
る。
2. The image processing system according to claim 1, wherein the following processings a to f are performed in the color signal processing unit. a. A color difference histogram of the area specified by the area specifying means is created and stored in the memory as a template. b. The position of the tracking target is estimated based on the motion vector data output from the motion detector. c. A search area is created in a nearby area around the estimated position, and a color difference histogram is created in the search area. d. Said c. The color difference histogram created in a. Calculate the cross-correlation with the color difference histogram of the template created in the above, and store it in the memory. e. If there are a plurality of detected motion vector data, the above processes b, c and d are repeated. f. The search area showing the largest correlation value is detected as the area where the tracking target exists based on the data in the memory.
【請求項3】 追尾対象物の明るさに基づい撮像画面に
おける追尾対象物の存在する位置を推定する位置推定手
段と、この位置推定手段で推定した位置の近傍に探索領
域を生成する探索領域生成手段と、前記追尾対象物の色
に基づいて前記探索領域における前記追尾対象物の位置
を判定する位置判定手段とを備えたことを特徴とする追
尾システム。
3. A position estimating means for estimating a position of a tracking target on an imaging screen based on the brightness of the tracking target, and a search area generating for generating a search area near the position estimated by the position estimating means. And a position determining unit for determining a position of the tracking target in the search area based on a color of the tracking target.
【請求項4】 追尾対象物の明るさに基づいて撮像画面
における前記追尾対象物の位置を推定するステップと、
このステップで推定した位置の近傍に探索領域を形成す
るステップと、このステップで形成した探索領域におけ
る前記追尾対象物の位置を、前記追尾対象物の色に基づ
いて判定するステップとを備えたことを特徴とする追尾
方法。
4. estimating a position of the tracking target on an imaging screen based on brightness of the tracking target;
Forming a search area near the position estimated in this step; and determining the position of the tracking object in the search area formed in this step based on the color of the tracking object. A tracking method characterized by the following.
【請求項5】 請求項4記載の追尾方法を実現するため
のプログラムを格納した記憶媒体。
5. A storage medium storing a program for realizing the tracking method according to claim 4.
JP9140055A 1997-05-29 1997-05-29 Image-processing system, system and method for tracking and storage medium Withdrawn JPH10336506A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9140055A JPH10336506A (en) 1997-05-29 1997-05-29 Image-processing system, system and method for tracking and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9140055A JPH10336506A (en) 1997-05-29 1997-05-29 Image-processing system, system and method for tracking and storage medium

Publications (1)

Publication Number Publication Date
JPH10336506A true JPH10336506A (en) 1998-12-18

Family

ID=15259947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9140055A Withdrawn JPH10336506A (en) 1997-05-29 1997-05-29 Image-processing system, system and method for tracking and storage medium

Country Status (1)

Country Link
JP (1) JPH10336506A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100312427B1 (en) * 1999-12-23 2001-11-03 오길록 Method and device for tracking robust object from video images using template and kalman filter
KR100421221B1 (en) * 2001-11-05 2004-03-02 삼성전자주식회사 Illumination invariant object tracking method and image editing system adopting the method
KR100436049B1 (en) * 2001-12-31 2004-06-12 주식회사 하이닉스반도체 Movement prediction system
KR100966876B1 (en) 2008-07-08 2010-06-29 삼성전자주식회사 Object detection method and apparatus
JP2012073997A (en) * 2010-09-01 2012-04-12 Ricoh Co Ltd Object tracking device, object tracking method, and program thereof
US8734701B2 (en) 2009-06-16 2014-05-27 Canon Kabushiki Kaisha Imprint apparatus and method of manufacturing article
WO2018086360A1 (en) * 2016-11-08 2018-05-17 Zhejiang Dahua Technology Co., Ltd. Methods and systems for data visualization

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100312427B1 (en) * 1999-12-23 2001-11-03 오길록 Method and device for tracking robust object from video images using template and kalman filter
KR100421221B1 (en) * 2001-11-05 2004-03-02 삼성전자주식회사 Illumination invariant object tracking method and image editing system adopting the method
KR100436049B1 (en) * 2001-12-31 2004-06-12 주식회사 하이닉스반도체 Movement prediction system
KR100966876B1 (en) 2008-07-08 2010-06-29 삼성전자주식회사 Object detection method and apparatus
US8734701B2 (en) 2009-06-16 2014-05-27 Canon Kabushiki Kaisha Imprint apparatus and method of manufacturing article
JP2012073997A (en) * 2010-09-01 2012-04-12 Ricoh Co Ltd Object tracking device, object tracking method, and program thereof
WO2018086360A1 (en) * 2016-11-08 2018-05-17 Zhejiang Dahua Technology Co., Ltd. Methods and systems for data visualization
US11049262B2 (en) 2016-11-08 2021-06-29 Zhejiang Dahua Technology Co., Ltd. Methods and systems for data visualization
US11568548B2 (en) 2016-11-08 2023-01-31 Zhejiang Dahua Technology Co., Ltd. Methods and systems for data visualization

Similar Documents

Publication Publication Date Title
US7672538B2 (en) Generation of still image from a plurality of frame images
US6005609A (en) Method and apparatus for digital correlation object tracker using a shape extraction focalization technique
EP1890481A1 (en) Panorama photography method and apparatus capable of informing optimum photographing position
JP4597391B2 (en) Facial region detection apparatus and method, and computer-readable recording medium
JPH11112956A (en) Image composite and communication equipment
EP3629570A2 (en) Image capturing apparatus and image recording method
JPH10126721A (en) Dynamic image retrieving information generating device
JPH11150676A (en) Image processor and tracking device
JPH10336506A (en) Image-processing system, system and method for tracking and storage medium
JP3774495B2 (en) Image information extracting apparatus and method
JPH08237536A (en) Device and method for tracking object
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP3197633B2 (en) Automatic tracking device for moving objects
JPH1098644A (en) Movement detection device
JPH09181953A (en) Automatic tracking device
JP2667885B2 (en) Automatic tracking device for moving objects
JP5247419B2 (en) Imaging apparatus and subject tracking method
JP2000175101A (en) Automatic tracking device
JP2000078564A (en) System for tracing person on television camera monitor
JPH1083442A (en) Picture synthesis method
JP2003179930A (en) Method and apparatus for extracting dynamic object
JPH09179880A (en) Device and method for extracting important image of moving picture
US11921816B2 (en) Information processing apparatus that specifies a subject and method, image capturing apparatus, and image capturing system
JP2002208013A (en) Device for extracting image area and method for the same
EP1686531B1 (en) A method, a software product and an electronic device for generating an image composition

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040803