JPH08116487A - Device and method for tracking object of video camera - Google Patents

Device and method for tracking object of video camera

Info

Publication number
JPH08116487A
JPH08116487A JP6275938A JP27593894A JPH08116487A JP H08116487 A JPH08116487 A JP H08116487A JP 6275938 A JP6275938 A JP 6275938A JP 27593894 A JP27593894 A JP 27593894A JP H08116487 A JPH08116487 A JP H08116487A
Authority
JP
Japan
Prior art keywords
subject
screen
tracking
zooming
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6275938A
Other languages
Japanese (ja)
Other versions
JP3610604B2 (en
Inventor
Naoyasu Hosonuma
直泰 細沼
Jun Nagai
潤 永井
Tadafusa Tomitaka
忠房 富高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP27593894A priority Critical patent/JP3610604B2/en
Publication of JPH08116487A publication Critical patent/JPH08116487A/en
Application granted granted Critical
Publication of JP3610604B2 publication Critical patent/JP3610604B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To quicken the tracking to an object by setting a smaller servo coefficient when zooming is set to the telescopic position and setting a larger servo coefficient when zooming is set to the wide position. CONSTITUTION: An output of a tracking controller 14 is fed to a zoom motor 8 via a driver 17. When the zoom motor 8 is used to vary zooming position, a gain of a tracking control loop is changed accordingly. That is, when zooming is closer to the telescopic position, a smaller servo coefficient is set and when zooming is closer to the wide position, a larger servo coefficient is set. Thus, when zooming is set closer to the telescopic position, the control is sensitive with respect to the motion of the object and unstable control is prevented, and when zooming is set closer to the wide position, the tracking to the object is quickened so as to allow the object to set in the middle of the screen quickly and so as to prevent the object from being disappeared from the screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、被写体位置を例えば
画面の中央に位置させるようなビデオカメラの被写体追
尾装置及び追尾方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object tracking device and a tracking method for a video camera which positions the object position, for example, in the center of the screen.

【0002】[0002]

【従来の技術】パン、チルト機構を用いてビデオカメラ
を被写体の動きに追尾して動かし、被写体を常時表示画
面の中央に位置させるように制御するビデオカメラの追
尾システムが提案されている。従来のこのようなビデオ
カメラの追尾システムでは、被写体の特徴を抽出して被
写体の位置を検出し、画面の中央に対する被写体の位置
のずれ量を求め、このずれ量をなくすように、パニング
及びチルティングモータを制御している。
2. Description of the Related Art A tracking system for a video camera has been proposed in which a pan / tilt mechanism is used to move the video camera so as to follow the movement of a subject so that the subject is always positioned at the center of a display screen. In the conventional tracking system of such a video camera, the feature of the subject is extracted to detect the position of the subject, the shift amount of the position of the subject with respect to the center of the screen is obtained, and panning and tilt are performed so as to eliminate this shift amount. It controls the starting motor.

【0003】つまり、図8は、従来の追尾システムにお
ける画面中心に対する被写体の位置ずれ量と、モータ制
御量との関係を示すものである。図8において、横軸が
画面中心に対する被写体との位置ずれ量を示し、縦軸が
パニング及びチルティングモータの制御量を示してい
る。図8に示すように、パニング及びチルティングモー
タは、被写体の画面中心からの位置ずれに対して、反対
の方向に制御される。これにより、被写体が常に画面の
中心に制御される。
That is, FIG. 8 shows the relationship between the amount of displacement of the object with respect to the center of the screen and the motor control amount in the conventional tracking system. In FIG. 8, the horizontal axis represents the amount of positional deviation from the subject with respect to the screen center, and the vertical axis represents the control amount of the panning and tilting motors. As shown in FIG. 8, the panning and tilting motors are controlled in the opposite directions with respect to the displacement of the subject from the screen center. As a result, the subject is always controlled to the center of the screen.

【0004】[0004]

【発明が解決しようとする課題】従来では、画面中心に
対する被写体のずれとモータ制御量との関係が、ズーム
位置に関係なく、一定とされている。ところが、画面中
心に対する被写体のずれとモータ制御量との関係をズー
ム位置に関係なく一定にすると、ズーム倍率が高い場合
に、被写体の動きに対する反応が過敏になり、制御が不
安定になる。反対に、ズーム倍率が低い場合に、動作が
緩慢になり、被写体が画面の中央部に寄りずらく、被写
体を画面外に逃しやすい。
Conventionally, the relationship between the displacement of the subject with respect to the center of the screen and the motor control amount is constant regardless of the zoom position. However, if the relationship between the displacement of the subject with respect to the center of the screen and the motor control amount is constant regardless of the zoom position, the response to the movement of the subject becomes too sensitive and the control becomes unstable when the zoom magnification is high. On the other hand, when the zoom magnification is low, the operation becomes sluggish, the subject is less likely to shift to the center of the screen, and the subject is easily missed outside the screen.

【0005】したがって、この発明の目的は、ズーム倍
率に応じた適切なサーボゲインで追尾制御を行なえるよ
うにしたビデオカメラの被写体追尾装置及び追尾方法を
提供することにある。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a subject tracking device and a tracking method for a video camera capable of performing tracking control with an appropriate servo gain according to the zoom magnification.

【0006】[0006]

【課題を解決するための手段】この発明は、画面上での
被写体の位置と所定の位置とのずれ量を検出する手段
と、画面上での被写体の位置と所定の位置とのずれ量に
応じてパン及びチルトさせる手段と、画角を変化させる
手段とを有し、画面上での被写体の位置と所定の位置と
のずれ量に応じてパン及びチルトさせて追尾制御を行
い、追尾制御のサーボ係数を、画角に応じて変化させる
ようにしたビデオカメラの被写体追尾装置である。
SUMMARY OF THE INVENTION The present invention provides means for detecting the amount of deviation between the position of a subject on a screen and a predetermined position, and the amount of deviation between the position of the subject on the screen and a predetermined position. In accordance with the amount of deviation between the position of the subject on the screen and the predetermined position, tracking control is performed by means of panning and tilting in accordance with the means for changing the angle of view. Is a subject tracking device of a video camera, in which the servo coefficient of is changed according to the angle of view.

【0007】この発明は、画面上での被写体の位置と所
定の位置とのずれ量を検出し、画面上での被写体の位置
と所定の位置とのずれ量に応じてパン及びチルトさせて
追尾制御を行なうと共に、被写体が画面上から外れるよ
うな場合に画角を変化させ、追尾制御のサーボ係数を、
画角に応じて変化させるようにしたビデオカメラの被写
体追尾方法である。
The present invention detects the amount of deviation between the position of a subject on the screen and a predetermined position, and pans and tilts according to the amount of deviation between the position of the subject on the screen and the predetermined position for tracking. In addition to controlling, if the subject goes off the screen, change the angle of view and change the servo coefficient of tracking control to
This is a method of tracking a subject of a video camera, which is changed according to the angle of view.

【0008】[0008]

【作用】ズーム倍率に応じて、追尾制御のサーボ係数が
設定される。すなわち、ズームがテレ側になっている場
合には、サーボ係数が小さく設定される。これにより、
被写体の動きに対して過敏になり、制御が不安定になる
ことが防止される。ズームがワイド側になっている場合
には、サーボ係数が大きく設定される。これにより、被
写体への追従が速くなり、被写体を画面の中央部に素早
く位置させることができると共に、被写体を画面外に逃
さないようにすることができる。
The servo coefficient for tracking control is set according to the zoom magnification. That is, when the zoom is on the tele side, the servo coefficient is set small. This allows
It is possible to prevent the control from becoming unstable due to the sensitivity to the movement of the subject. When the zoom is on the wide side, the servo coefficient is set large. As a result, tracking of the subject becomes faster, the subject can be quickly positioned in the center of the screen, and the subject can be prevented from being missed outside the screen.

【0009】[0009]

【実施例】以下、この発明の一実施例について図面を参
照して説明する。図1は、この発明の一実施例を示すも
のである。図1において、1はレンズブロックである。
レンズブロック1は、レンズ2と、ズームレンズ3と、
アイリス4と、CCD撮像素子5とから構成されてい
る。レンズブロック1に対して、パニングモータ6及び
チルティングモータ7が設けられている。レンズブロッ
ク1は、パニングモータ6及びチルティングモータ7に
より、パン及びチルト可能とされる。パン、チルとのメ
カ端点は、端点検出器18で検出される。端点検出器1
8の出力が追従コントローラ14に供給される。また、
ズームレンズ3は、ズームモータ8により移動可能とさ
れる。ズーム位置は、ズーム位置検出器9で検出され
る。ズーム位置検出器9の出力が追従コントローラ14
に供給される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of the present invention. In FIG. 1, 1 is a lens block.
The lens block 1 includes a lens 2, a zoom lens 3,
It is composed of an iris 4 and a CCD image pickup device 5. A panning motor 6 and a tilting motor 7 are provided for the lens block 1. The lens block 1 can be panned and tilted by a panning motor 6 and a tilting motor 7. The mechanical end points of pan and chill are detected by the end point detector 18. End point detector 1
8 outputs are supplied to the tracking controller 14. Also,
The zoom lens 3 can be moved by a zoom motor 8. The zoom position is detected by the zoom position detector 9. The output of the zoom position detector 9 is the follow-up controller 14
Is supplied to.

【0010】被写体からの撮像光は、レンズ2、ズーム
レンズ3、アイリス4を介して、CCD撮像素子5上に
結像される。CCD撮像素子5で撮像光に基づく撮像信
号が形成される。CCD撮像素子5の出力がAGC及び
サンプルホールド回路10に供給される。AGC及びサ
ンプルホールド回路10により、撮像信号がサンプルホ
ールドされると共に、利得が制御される。AGC及びサ
ンプルホールド回路10の出力がA/Dコンバータ11
に供給される。A/Dコンバータ11で、撮像信号がデ
ィジタル化される。A/Dコンバータ11の出力がカメ
ラ信号処理回路12に供給される。
Imaging light from a subject is imaged on a CCD imaging device 5 via a lens 2, a zoom lens 3 and an iris 4. An image pickup signal based on the image pickup light is formed by the CCD image pickup device 5. The output of the CCD image pickup device 5 is supplied to the AGC and sample hold circuit 10. The AGC and sample-hold circuit 10 samples and holds the image pickup signal and controls the gain. The output of the AGC and sample hold circuit 10 is the A / D converter 11
Is supplied to. The image pickup signal is digitized by the A / D converter 11. The output of the A / D converter 11 is supplied to the camera signal processing circuit 12.

【0011】カメラ信号処理回路12は、撮像信号から
輝度信号及びクロマ信号を形成し、ガンマ補正、アパー
チャ補正等のカメラ信号処理を行う。また、カメラ信号
処理回路12の出力が被写体認識回路13に供給され
る。被写体認識回路13は、カメラ信号処理回路12か
らの輝度信号Y及び色差信号R−Y、B−Yを用いて、
被写体の特徴値を抽出する。
The camera signal processing circuit 12 forms a luminance signal and a chroma signal from the image pickup signal and performs camera signal processing such as gamma correction and aperture correction. Further, the output of the camera signal processing circuit 12 is supplied to the subject recognition circuit 13. The subject recognition circuit 13 uses the luminance signal Y and the color difference signals RY and BY from the camera signal processing circuit 12,
The feature value of the subject is extracted.

【0012】被写体認識回路13は、例えば、図2に示
すように構成される。図2において、カメラ信号処理回
路12からの輝度信号Yは、画像メモリ21に記憶され
る。色差信号R−Y及びB−Yは、飽和度/色相検出回
路22に供給される。飽和度/色相検出回路22で、色
相信号HUE及び飽和度信号SATが形成される。この
色相信号HUE及び飽和度信号SATは、輝度信号Yと
共に、画像メモリ21に記憶される。
The subject recognition circuit 13 is constructed, for example, as shown in FIG. In FIG. 2, the luminance signal Y from the camera signal processing circuit 12 is stored in the image memory 21. The color difference signals R-Y and B-Y are supplied to the saturation / hue detection circuit 22. The saturation / hue detection circuit 22 forms the hue signal HUE and the saturation signal SAT. The hue signal HUE and the saturation signal SAT are stored in the image memory 21 together with the luminance signal Y.

【0013】画像メモリ21には、アドレス発生回路2
3からアドレスが与えられる。アドレス発生回路23に
は、追尾コントローラ14からブロック指定信号SBが
与えられる。図3に示すように、画像メモリ21内に形
成されている表示画面PICは、所定の大きさの小領域
ARに分割されて処理される。画像メモリ21の表示画
面PICを構成する全画素データは、小領域AR毎に読
み出され、各小領域AR毎に1つのブロック画像情報と
して処理される。
The image memory 21 includes an address generation circuit 2
The address is given from 3. A block designating signal SB is applied from the tracking controller 14 to the address generating circuit 23. As shown in FIG. 3, the display screen PIC formed in the image memory 21 is divided into small areas AR of a predetermined size and processed. All pixel data forming the display screen PIC of the image memory 21 is read out for each small area AR and processed as one block image information for each small area AR.

【0014】この実施例の場合、表示画面PICは、x
方向及びy方向の夫々16個の処理領域に分割され。し
たがって、表示画面PICは、16×16=256個の
小領域ARからなる。座標x=i、y=jを指定するこ
とにより、指定された小領域AR内に含まれる画素から
得られた画像情報i(x=i,y=j)が読み出され
る。
In the case of this embodiment, the display screen PIC is x
It is divided into 16 processing regions in each of the direction and the y direction. Therefore, the display screen PIC is composed of 16 × 16 = 256 small areas AR. By specifying the coordinates x = i and y = j, the image information i (x = i, y = j) obtained from the pixels included in the specified small area AR is read.

【0015】このようにして画像メモリ21から小領域
AR毎に読み出される。この画像情報I(x=i,y=
j)のうち、色相信号HUE成分がゲート回路24を通
って色相ヒストグラム発生回路25に供給され、輝度信
号Y成分が直接輝度信号ヒストグラム発生回路26に供
給される。
In this way, each small area AR is read from the image memory 21. This image information I (x = i, y =
In j), the hue signal HUE component is supplied to the hue histogram generation circuit 25 through the gate circuit 24, and the luminance signal Y component is directly supplied to the luminance signal histogram generation circuit 26.

【0016】色相ヒストグラム発生回路25は、図4に
示すように、色相角0度〜359度について各色相角を
持つ画素の画素数の分布(即ち頻度分布)を表す色相頻
度特性を求めることにより、色相特徴パターンを成形す
る。この色相ヒストグラム発生回路25の出力が追従コ
ントローラ14に供給される。
As shown in FIG. 4, the hue histogram generating circuit 25 obtains a hue frequency characteristic representing the distribution of the number of pixels having each hue angle (that is, the frequency distribution) for the hue angle of 0 to 359 degrees. , Form a hue feature pattern. The output of the hue histogram generating circuit 25 is supplied to the tracking controller 14.

【0017】輝度ヒストグラム発生回路26は、図5に
示すように、輝度レベル0〜255について各輝度レベ
ルを持つ画素の画素数の分布(即ち頻度分布)を表す輝
度頻度特性を求めることにより、輝度特徴パターンを成
形する。この輝度ヒストグラム発生回路の出力が追従コ
ントローラ14に供給される。
As shown in FIG. 5, the luminance histogram generation circuit 26 obtains the luminance frequency characteristic representing the distribution of the number of pixels having the respective luminance levels (that is, the frequency distribution) for the luminance levels 0 to 255, thereby obtaining the luminance. Shape the feature pattern. The output of the luminance histogram generation circuit is supplied to the tracking controller 14.

【0018】なお、コンパレータ27が設けられ、画像
メモリ21から各画素毎に読み出される飽和度信号SA
Tと追従コントローラ12から送出されるノイズ判定信
号refとが比較される。このコンパレータ27の出力
により、飽和度信号SATが所定レベル以下のとき、ゲ
ート回路24を閉じられる。
A comparator 27 is provided to read out the saturation signal SA from the image memory 21 for each pixel.
T is compared with the noise determination signal ref sent from the tracking controller 12. The output of the comparator 27 closes the gate circuit 24 when the saturation signal SAT is below a predetermined level.

【0019】このように、被写体認識回路13は、色相
特徴パターンと輝度特徴パターンとを求めている。色相
特徴パターンと、輝度特徴パターンとを用いれば、人間
の視覚に合致した特徴抽出が行なえることになる。
As described above, the subject recognition circuit 13 obtains the hue characteristic pattern and the luminance characteristic pattern. By using the hue feature pattern and the luminance feature pattern, feature extraction matching human vision can be performed.

【0020】つまり、人間が知覚できる視覚刺激は、図
6に示すように、L軸とこれに直交するSH平面有する
所謂HLS系と呼ばれる色座標系によって表現される。
Lは明るさを表し、輝度信号Yに相当する。SH平面
は、L軸に直交する極座標で表現される。SH平面にお
いて、Sは飽和度を表し、L軸からの距離によって表現
される。また、Hは色相を表し、色差信号R−Yの方向
の0度としたときの角度によって表現される。
That is, the visual stimulus that can be perceived by humans is represented by a color coordinate system called an HLS system having an L axis and an SH plane orthogonal to the L axis, as shown in FIG.
L represents the brightness and corresponds to the luminance signal Y. The SH plane is represented by polar coordinates orthogonal to the L axis. On the SH plane, S represents the degree of saturation and is represented by the distance from the L axis. Further, H represents a hue and is represented by an angle when the direction of the color difference signal R-Y is 0 degree.

【0021】このHLS系の立体は、光源が明るくなる
と、色座標即ちSH平面がL軸に沿って上方向に行くと
共に全ての色が白になり、光源が暗くなると、色座標即
ちSH平面がL軸に沿って下方向に行くと共に全ての色
が黒になる。このとき、同時に飽和度も減少していく。
したがって、飽和度S及び輝度Yは、光源の明るさの影
響を受け易い。
In this HLS system solid, when the light source becomes bright, the color coordinates, that is, the SH plane goes upward along the L axis, and all the colors become white. When the light source becomes dark, the color coordinates, that is, the SH plane becomes All colors become black as it goes down along the L axis. At this time, the degree of saturation also decreases at the same time.
Therefore, the saturation S and the brightness Y are easily affected by the brightness of the light source.

【0022】これに対して、色相Hは、被写体固有の特
徴量を表現するもので、光源の影響を受け難い。しか
し、被写体の色がL軸上の近傍にあるような場合、すな
わち、白、黒、又は灰色の場合は、色相Hの信号が情報
として意味を持たなくなる。このことから、色相特徴パ
ターンと、輝度特徴パターンとを用いれば、人間の視覚
に合致した特徴抽出が行なえることになる。
On the other hand, the hue H expresses the characteristic amount peculiar to the subject and is not easily influenced by the light source. However, when the color of the subject is near the L axis, that is, when the color is white, black, or gray, the signal of the hue H has no meaning as information. Therefore, if the hue feature pattern and the luminance feature pattern are used, feature extraction matching human vision can be performed.

【0023】図1において、この被写体認識回路13で
求められた特徴値が追尾コントローラ14に供給され
る。追尾コントローラ14は、被写体の特徴値の変化に
追従するように、パニングモータ6及びチルティングモ
ータ7を制御する。すなわち、被写体の特徴値から、被
写体の画面中心からの位置ずれ量が検出される。この被
写体の画面の中心からの位置ずれ量に対して反対の方向
に、ドライバ15及び16を介して、パニングモータ6
及びチルティングモータ7に制御信号が与えられる。こ
のように、特徴の変化に追従するようにパニング及びチ
ルティングを行うことで、被写体の動きに適応してカメ
ラの位置が動かされ、被写体が常時画面の中央位置に映
出される。
In FIG. 1, the characteristic value obtained by the subject recognition circuit 13 is supplied to the tracking controller 14. The tracking controller 14 controls the panning motor 6 and the tilting motor 7 so as to follow the change in the feature value of the subject. That is, the amount of displacement of the subject from the screen center is detected from the feature value of the subject. The panning motor 6 is passed through the drivers 15 and 16 in the direction opposite to the displacement of the subject from the center of the screen.
And a control signal is given to the tilting motor 7. In this way, by performing panning and tilting so as to follow changes in characteristics, the position of the camera is moved in accordance with the movement of the subject, and the subject is always displayed at the center position of the screen.

【0024】また、追尾コントローラ14の出力は、ド
ライバ17を介して、ズームモータ8に供給される。ズ
ームモータ8により、ズーム位置を可変させると、これ
に応じて、追尾制御ループのゲインが変化される。すな
わち、図7に示すように、ズームがテレ側になっている
程、サーボ係数が小さく設定され、ズームがワイド側に
なっている程サーボ係数が大きく設定される。これによ
り、ズームがテレ側になっている場合には被写体の動き
に対して過敏になり、制御が不安定になることが防止さ
れ、ズームがワイド側になっている場合には、被写体へ
の追従が速くなり、被写体を画面の中央部に素早く位置
させることができると共に、被写体を画面外に逃さない
ようにすることができる。
The output of the tracking controller 14 is supplied to the zoom motor 8 via the driver 17. When the zoom position is changed by the zoom motor 8, the gain of the tracking control loop is changed accordingly. That is, as shown in FIG. 7, the servo coefficient is set smaller as the zoom is on the tele side, and the servo coefficient is set larger as the zoom is on the wide side. As a result, when the zoom is set to the tele side, it becomes possible to prevent the control from becoming unstable due to excessive sensitivity to the movement of the subject, and when the zoom is set to the wide side, it is possible to prevent the subject from moving. The follow-up becomes faster, the subject can be quickly positioned in the center of the screen, and the subject can be prevented from being missed outside the screen.

【0025】つまり、図8でフローチャートで示すよう
に、被写体認識部より入力された座標と画面中央座標と
の差分が求められ、被写体の位置とカメラ位置とのずれ
量(制御偏差)が算出される(ステップST1)。ズー
ム検出器9からのズーム量情報に基づいて、サーボ係数
が算出される(ステップST2)。サーボ係数は、前述
したように、ズームがテレ側になっている程小さく設定
される。ステップST1で算出された制御偏差と、ステ
ップST2で算出されたサーボ係数とから、パン及びチ
ルトモータ6、7に供給するモータ制御量が算出される
(ステップST3)。ここで、制御系としては、例えば
比例・積分・微分(PID)制御等が用いられる。求め
られた制御量に基づいて、パン、チルトモータが駆動さ
れ(ステップST4)、ステップST1に戻される。
That is, as shown in the flow chart of FIG. 8, the difference between the coordinates input from the subject recognition unit and the center coordinates of the screen is obtained, and the shift amount (control deviation) between the subject position and the camera position is calculated. (Step ST1). The servo coefficient is calculated based on the zoom amount information from the zoom detector 9 (step ST2). As described above, the servo coefficient is set smaller as the zoom becomes closer to the telephoto side. The motor control amount supplied to the pan and tilt motors 6 and 7 is calculated from the control deviation calculated in step ST1 and the servo coefficient calculated in step ST2 (step ST3). Here, as the control system, for example, proportional / integral / derivative (PID) control is used. The pan / tilt motor is driven based on the obtained control amount (step ST4), and the process returns to step ST1.

【0026】[0026]

【発明の効果】この発明によれば、ズーム倍率に応じて
追尾制御のサーボ係数が設定される。すなわち、ズーム
がテレ側になっている場合には、サーボ係数が小さく設
定される。これにより、被写体の動きに対して過敏にな
り、制御が不安定になることが防止される。ズームがワ
イド側になっている場合には、サーボ係数が大きく設定
される。これにより、被写体への追従が速くなり、被写
体を画面の中央部に素早く位置させることができると共
に、被写体を画面外に逃さないようにすることができ
る。
According to the present invention, the servo coefficient for tracking control is set according to the zoom magnification. That is, when the zoom is on the tele side, the servo coefficient is set small. As a result, it is possible to prevent the control from becoming unstable due to being hypersensitive to the movement of the subject. When the zoom is on the wide side, the servo coefficient is set large. As a result, tracking of the subject becomes faster, the subject can be quickly positioned in the center of the screen, and the subject can be prevented from being missed outside the screen.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】この発明の一実施例における被写体認識回路の
一例のブロック図である。
FIG. 2 is a block diagram of an example of a subject recognition circuit according to an embodiment of the present invention.

【図3】この発明の一実施例の説明に用いる略線図であ
る。
FIG. 3 is a schematic diagram used to describe an embodiment of the present invention.

【図4】この発明の一実施例の説明に用いるグラフであ
る。
FIG. 4 is a graph used to explain one embodiment of the present invention.

【図5】この発明の一実施例の説明に用いるグラフであ
る。
FIG. 5 is a graph used to explain one embodiment of the present invention.

【図6】この発明の一実施例の説明に用いる略線図であ
る。
FIG. 6 is a schematic diagram used to describe an embodiment of the present invention.

【図7】この発明の一実施例の説明に用いるグラフであ
る。
FIG. 7 is a graph used to explain one embodiment of the present invention.

【図8】この発明の一実施例の説明に用いるフローチャ
ートである。
FIG. 8 is a flow chart used for explaining one embodiment of the present invention.

【図9】従来の追尾装置の説明に用いるグラフである。FIG. 9 is a graph used to describe a conventional tracking device.

【符号の説明】[Explanation of symbols]

1 レンズブロック 3 ズームレンズ 5 CCD撮像素子 13 被写体認識回路 14 追尾コントローラ 1 Lens Block 3 Zoom Lens 5 CCD Image Sensor 13 Subject Recognition Circuit 14 Tracking Controller

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 画面上での被写体の位置と所定の位置と
のずれ量を検出する手段と、 上記画面上での被写体の位置と所定の位置とのずれ量に
応じてパン及びチルトさせる手段と、 画角を変化させる手段とを有し、 上記画面上での被写体の位置と所定の位置とのずれ量に
応じてパン及びチルトさせて追尾制御を行い、 上記追尾制御のサーボ係数を、上記画角に応じて変化さ
せるようにしたビデオカメラの被写体追尾装置。
1. A means for detecting a deviation amount between a position of a subject on a screen and a predetermined position, and a means for panning and tilting according to a deviation amount between the position of the subject on the screen and a predetermined position. And a means for changing the angle of view, and perform tracking control by panning and tilting according to the amount of deviation between the position of the subject on the screen and a predetermined position, and the servo coefficient of the tracking control is A subject tracking device for a video camera adapted to be changed according to the angle of view.
【請求項2】 画面上での被写体の位置と所定の位置と
のずれ量を検出し、 上記画面上での被写体の位置と所定の位置とのずれ量に
応じてパン及びチルトさせて追尾制御を行なうと共に、
上記被写体が画面上から外れるような場合に画角を変化
させ、 上記追尾制御のサーボ係数を、上記画角に応じて変化さ
せるようにしたビデオカメラの被写体追尾方法。
2. A tracking control is performed by detecting a deviation amount between a position of a subject on the screen and a predetermined position, and panning and tilting according to the deviation amount between the position of the subject and the predetermined position on the screen. As well as
A subject tracking method for a video camera, wherein the angle of view is changed when the subject is off the screen, and the servo coefficient of the tracking control is changed according to the angle of view.
JP27593894A 1994-10-14 1994-10-14 Subject tracking device and tracking method for video camera Expired - Fee Related JP3610604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27593894A JP3610604B2 (en) 1994-10-14 1994-10-14 Subject tracking device and tracking method for video camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27593894A JP3610604B2 (en) 1994-10-14 1994-10-14 Subject tracking device and tracking method for video camera

Publications (2)

Publication Number Publication Date
JPH08116487A true JPH08116487A (en) 1996-05-07
JP3610604B2 JP3610604B2 (en) 2005-01-19

Family

ID=17562527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27593894A Expired - Fee Related JP3610604B2 (en) 1994-10-14 1994-10-14 Subject tracking device and tracking method for video camera

Country Status (1)

Country Link
JP (1) JP3610604B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286679A (en) * 2009-06-11 2010-12-24 Canon Inc Imaging apparatus
US7907175B2 (en) 2005-08-30 2011-03-15 Canon Kabushiki Kaisha Tracking image pickup device having a rough rotation and a fine rotation part
JP2016208252A (en) * 2015-04-22 2016-12-08 キヤノン株式会社 Control apparatus, optical instrument, imaging apparatus, and control method
WO2017026193A1 (en) * 2015-08-12 2017-02-16 ソニー株式会社 Image processing device, image processing method, program, and image processing system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907175B2 (en) 2005-08-30 2011-03-15 Canon Kabushiki Kaisha Tracking image pickup device having a rough rotation and a fine rotation part
JP2010286679A (en) * 2009-06-11 2010-12-24 Canon Inc Imaging apparatus
JP2016208252A (en) * 2015-04-22 2016-12-08 キヤノン株式会社 Control apparatus, optical instrument, imaging apparatus, and control method
US10594939B2 (en) 2015-04-22 2020-03-17 Canon Kabushiki Kaisha Control device, apparatus, and control method for tracking correction based on multiple calculated control gains
WO2017026193A1 (en) * 2015-08-12 2017-02-16 ソニー株式会社 Image processing device, image processing method, program, and image processing system
JPWO2017026193A1 (en) * 2015-08-12 2018-05-31 ソニー株式会社 Image processing apparatus, image processing method, program, and image processing system
US10867365B2 (en) 2015-08-12 2020-12-15 Sony Corporation Image processing apparatus, image processing method, and image processing system for synthesizing an image

Also Published As

Publication number Publication date
JP3610604B2 (en) 2005-01-19

Similar Documents

Publication Publication Date Title
JP3487436B2 (en) Video camera system
JP4079463B2 (en) Subject detection apparatus and subject detection method
US8593533B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
US5650819A (en) Image pickup apparatus
US5282044A (en) Camera shake correction system
US5745175A (en) Method and system for providing automatic focus control for a still digital camera
JP3298072B2 (en) Video camera system
JPH0730796A (en) Video signal tracking processing system
US5467127A (en) Automatic objects tracing device of camcorder
JPH09243904A (en) Method for detecting compositional change of image
JP3693130B2 (en) Control device
US7831091B2 (en) Pattern matching system
JP2006058431A (en) Autofocusing system
JP3544215B2 (en) Video camera system
JPH08116485A (en) Device and method for tracking object of video camera
JP3610604B2 (en) Subject tracking device and tracking method for video camera
JP3399995B2 (en) Video signal tracking method and video camera system
US7990417B2 (en) Targeted object pursuit system
US6980251B1 (en) Image sensing apparatus which carries out optimum exposure control of subject
JP7442989B2 (en) Imaging device, control method for the imaging device, and program
JPH0898078A (en) Object tracking device and tracking method for video camera
JP2603212B2 (en) Automatic tracking device in camera
JPH11266391A (en) Image pickup device
JP2011221337A (en) Electronic camera
JP3757403B2 (en) Subject detection apparatus and subject detection method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041011

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081029

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091029

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091029

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101029

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101029

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111029

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111029

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121029

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees