JPH0898079A - Image signal processing unit - Google Patents

Image signal processing unit

Info

Publication number
JPH0898079A
JPH0898079A JP6339803A JP33980394A JPH0898079A JP H0898079 A JPH0898079 A JP H0898079A JP 6339803 A JP6339803 A JP 6339803A JP 33980394 A JP33980394 A JP 33980394A JP H0898079 A JPH0898079 A JP H0898079A
Authority
JP
Japan
Prior art keywords
image
image data
detecting
luminance
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6339803A
Other languages
Japanese (ja)
Inventor
Taro Mizufuji
太郎 水藤
Takayuki Sakamoto
隆之 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP6339803A priority Critical patent/JPH0898079A/en
Publication of JPH0898079A publication Critical patent/JPH0898079A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE: To avoid mis-recognition of an object by detecting a moving object in image data based on number of picture elements in which a change in luminance of Y, R, B of image data and delayed image data is a threshold level or over in the automatic tracking of a video camera. CONSTITUTION: While the field angle of a television camera 1 is not changed, an input image signal S2 is A/D-converted, and a processing circuit 7 processes image data Y, R, B periodically and stores them to a memory 10. A characteristic picture element extract means of a tracking processing circuit 11 extracts picture elements in which a change in the luminance is a prescribed threshold level or over with respect to picture elements of optional characteristic luminance and chrominance information between the image data and image data delayed by a prescribed time. A moving body detection means of the tracking circuit 11 counts the number of extracted picture elements to detect a moving amount from the number of changed picture elements thereby detecting the moving body in the image data. Thus, the moving body is detected based on luminance and chrominance information to avoid mis-recognition of the object in the case of automatic tracing.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【目次】以下の順序で本発明を説明する。 産業上の利用分野 従来の技術 発明が解決しようとする課題 課題を解決するための手段(図1、図6及び図10) 作用(図1、図6及び図10) 実施例 (1)第1実施例のビデオカメラシステム(図1〜図
5) (2)第2実施例のビデオカメラシステム(図6〜図
9) (3)第3実施例のビデオカメラシステム(図10〜図
13) (4)他の実施例 発明の効果
[Table of Contents] The present invention will be described in the following order. Field of Industrial Application Conventional Technology Problem to be Solved by the Invention Means for Solving the Problem (FIGS. 1, 6 and 10) Action (FIGS. 1, 6 and 10) Embodiment (1) First Video camera system of the embodiment (FIGS. 1 to 5) (2) Video camera system of the second embodiment (FIGS. 6 to 9) (3) Video camera system of the third embodiment (FIGS. 10 to 13) ( 4) Other Examples Effect of the invention

【0002】[0002]

【産業上の利用分野】本発明は画像信号処理装置に関
し、例えばテレビジヨンカメラを目標物体の動きに合わ
せて動かして目標を追尾するビデオカメラシステムに適
用し得る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image signal processing apparatus, and can be applied to, for example, a video camera system for tracking a target by moving a television camera in accordance with the movement of a target object.

【0003】[0003]

【従来の技術】従来、ビデオカメラシステムとして、輝
度に関する画像のフレーム間差分より自動追尾を行うも
のがある。このビデオカメラシステムでは、2枚の連続
したフレームの画像データの全ての画素に対して輝度に
関する差分をとり、差分値がある閾値を超えた画素を前
の画像から変化した画素としてカウントし、それらの画
素集合の重心を求めることにより動体検出を行つてい
る。そして被写体追尾を行うために検出された動体の画
面内の位置の中心からの距離の差に応じて、ビデオカメ
ラのパンモータやチルトモータの制御を行う。
2. Description of the Related Art Conventionally, as a video camera system, there is a video camera system which performs automatic tracking from a difference between frames of an image relating to luminance. In this video camera system, a difference regarding luminance is calculated for all pixels of image data of two consecutive frames, and a pixel whose difference value exceeds a certain threshold is counted as a pixel changed from the previous image. The moving object is detected by obtaining the center of gravity of the pixel set of. Then, the pan motor and tilt motor of the video camera are controlled according to the difference in the distance from the center of the position of the moving object on the screen detected for tracking the subject.

【0004】[0004]

【発明が解決しようとする課題】ところがかかる構成の
ビデオカメラシステムのように、従来の動体検出による
自動追尾方法では、2枚の画像データの全ての画素に対
して輝度に関する差分をとり、その差分値に注目してい
るため、被写体と全く違う色や輝度の物体であつても、
その画素に輝度変化があると、その画素を動きのあつた
点、つまり被写体としてカウントしてしまうという問題
があつた。また被写体追尾のためにカメラブロツクやビ
デオカメラ本体を動かしているときに動体検出を行う
と、画面内のランダムな画素に対して動き検出をしてし
まうという欠点があつた。
However, in the conventional automatic tracking method based on the detection of a moving object such as the video camera system having such a configuration, the difference regarding the brightness is calculated for all the pixels of the two image data, and the difference is calculated. Since we are paying attention to the value, even if the object has a completely different color and brightness from the subject,
If there is a brightness change in the pixel, there is a problem that the pixel is counted as a moving point, that is, a subject. In addition, when moving objects are detected while the camera block or video camera body is being moved to track an object, there is a drawback in that motion detection is performed on random pixels in the screen.

【0005】また従来、ビデオカメラシステムの一機能
として、画像の焦点を自動であわせるオートフオーカス
がある。これは画面中央に設定された領域内の輝度に関
する空間周波数の高周波成分を大きくするように、フオ
ーカスレンズの制御を行なつている。フオーカスレンズ
を動かすことによつて、画面中央の検波枠内の評価値が
高くなるようにレンズを動かす方向を決める「山登り
法」「ウオブリング法」が一般的に用いられている。
Further, conventionally, as one of the functions of the video camera system, there is an autofocus for automatically focusing an image. This controls the focus lens so as to increase the high frequency component of the spatial frequency related to the luminance within the area set in the center of the screen. The "mountain climbing method" and "wow ring method" are generally used that determine the direction in which the lens is moved so that the evaluation value in the detection frame in the center of the screen becomes high by moving the focus lens.

【0006】ところがかかる構成のビデオカメラシステ
ムのように、従来の画面中央に固定されている領域にの
み注目したオートフオーカス機能は、目標物体が画面中
央から外れた場合、中央にある背景に合焦してしまい、
被写体に焦点をあわせるという本来の目的が果たせない
という欠点があつた。
However, like the video camera system having such a configuration, the conventional autofocus function, which focuses only on the area fixed at the center of the screen, matches the background in the center when the target object deviates from the center of the screen. I got impatient,
There was a drawback that the original purpose of focusing on the subject could not be achieved.

【0007】本発明は以上の点を考慮してなされたもの
で、画像内の動体を検出する際に誤認識を有効に除去し
て有用性を向上し得る画像信号処理装置を提案しようと
するものである。
The present invention has been made in consideration of the above points, and an object of the present invention is to propose an image signal processing apparatus capable of effectively eliminating erroneous recognition when detecting a moving object in an image and improving its usefulness. It is a thing.

【0008】[0008]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、入力される画像信号(S2)をデ
イジタル化して、周期的に画像データ(Y、R、B)と
して画像メモリ(10)に記憶する画像記憶制御手段
(9)と、画像メモリ(10)に記憶された画像データ
(Y、R、B)とその画像データ(Y、R、B)から所
定時間遅延された遅延画像データ(Y、R、B)との間
で、任意の特徴的な輝度及び色の画素に関して、輝度の
変化分が所定の閾値以上の画素を抽出する特徴画素抽出
手段(11)と、その特徴画素抽出手段(11)で抽出
された画素の数をカウントして、画像データ(Y、R、
B)内の動体を検出をする動体検出手段(11)とを設
けるようにした。
In order to solve such a problem, in the present invention, the input image signal (S2) is converted into a digital signal, and the image memory (10) is periodically used as image data (Y, R, B). ) Image storage control means (9), image data (Y, R, B) stored in the image memory (10) and a delayed image delayed by a predetermined time from the image data (Y, R, B). Characteristic pixel extraction means (11) for extracting pixels having a luminance change amount of a predetermined threshold value or more between pixels of arbitrary characteristic luminance and color between the data (Y, R, B), and the characteristic thereof. The number of pixels extracted by the pixel extracting means (11) is counted to obtain image data (Y, R,
The moving body detecting means (11) for detecting the moving body in B) is provided.

【0009】また本発明においては、画像信号(S2)
はテレビジヨンカメラ(1、2、3、4)より入力さ
れ、特徴画素抽出手段(11)はテレビジヨンカメラ
(1、2、3、4)の画角が変わつていないとき、任意
の特徴的な輝度及び色の画素に関して、輝度の変化分が
所定の閾値以上の画素を抽出するようにした。
In the present invention, the image signal (S2)
Is input from the television camera (1, 2, 3, 4), and the feature pixel extraction means (11) selects an arbitrary feature when the angle of view of the television camera (1, 2, 3, 4) is unchanged. With respect to the pixels of specific luminance and color, the pixels whose change in luminance is equal to or larger than a predetermined threshold value are extracted.

【0010】また本発明においては、画像データ(Y、
R、B)を周期的に画像メモリ(10)に記憶する画像
記憶制御手段(9)を用いて、画像データ(Y、R、
B)内の目標物体の輝度及び色情報に関する特徴量を設
定する特徴量設定手段(11)と、設定された特徴量か
ら目標物体の特徴を示す特徴モデルを決定する特徴モデ
ル決定手段(11)と、決定された特徴モデルを用い
て、画像データ(Y、R、B)内から目標物体の候補と
なる画素を検出する画素判定手段(11)と、検出され
た画素集合の水平、垂直方向の重心を求め、画像データ
(Y、R、B)内の目標物体の位置を検出する座標仮決
定手段(11)と、画像データ(Y、R、B)内の動体
を検出する動体検出手段(11)を用いて、検出された
目標物体の位置の確からしさを検定する位置検定手段
(11)と、その位置検定手段(11)で検定された目
標物体の位置に応じて、テレビジヨンカメラ(1、2、
3、4)を制御するカメラ制御手段(12、13)とを
設け、画像データ(Y、R、B)内の目標物体を追尾す
るようにした。
Further, in the present invention, image data (Y,
Image data (Y, R, B) is stored using the image storage control means (9) that periodically stores R, B) in the image memory (10).
The feature amount setting means (11) for setting the feature amount relating to the brightness and color information of the target object in B), and the feature model determining means (11) for determining the feature model indicating the feature of the target object from the set feature amount. And a pixel determination means (11) for detecting a pixel that is a candidate for a target object from the image data (Y, R, B) using the determined feature model, and horizontal and vertical directions of the detected pixel set. Coordinate provisional determining means (11) for determining the center of gravity of the target object and detecting the position of the target object in the image data (Y, R, B), and moving body detecting means for detecting the moving body in the image data (Y, R, B). The position verification means (11) for verifying the certainty of the position of the detected target object using (11), and the television camera according to the position of the target object verified by the position verification means (11). (1, 2,
The camera control means (12, 13) for controlling (3, 4) is provided to track the target object in the image data (Y, R, B).

【0011】また本発明においては、画像データ(Y、
R、B)を周期的に画像メモリ(10)に記憶する画像
記憶制御手段(9)を用いて、輝度及び色情報に関して
起動時の初期画像全体を画像メモリ(10)に記憶する
初期画像記憶手段(9)と、画像データ(Y、R、B)
内の動体を検出する動体検出手段(11)を用いて、画
像メモリ(10)に記憶された初期画像から、輝度変化
が所定の閾値以上あつた画素を検出する動点検出手段
(11)と、検出された画素から初期画像から変化のあ
つた領域を検出する変化領域検出手段(11)と、その
変化領域検出手段(11)により、初期画像からの変化
領域が検出されていないときに、初期画像を一定時間毎
に設定し直す初期画像再設定手段(11)とを設けるよ
うにした。
In the present invention, the image data (Y,
An image storage control means (9) for periodically storing R, B) in the image memory (10) is used to store the entire initial image at startup in the image memory (10) with respect to luminance and color information. Means (9) and image data (Y, R, B)
A moving point detecting means (11) for detecting a moving body in the inside of the initial image stored in the image memory (10), and a moving point detecting means (11) for detecting a pixel whose luminance change is equal to or more than a predetermined threshold value. , A change area detecting means (11) for detecting a changed area from the detected pixel from the initial image, and when the change area detecting means (11) detects no change area from the initial image, An initial image resetting means (11) for resetting the initial image at regular intervals is provided.

【0012】また本発明においては、初期画像からの変
化領域を検出する変化領域検出手段(11)を用いて、
初期画像から変化のあつた領域が検出されたときのみに
画像録画状態に入る録画制御手段(15)と、変化のあ
つた領域を囲む枠表示を、映像信号に重畳する枠表示手
段(14)とを設けるようにした。
Further, in the present invention, the changing area detecting means (11) for detecting the changing area from the initial image is used,
Recording control means (15) that enters an image recording state only when a changed area is detected from the initial image and frame display means (14) that superimposes a frame display surrounding the changed area on the video signal. I decided to set and.

【0013】また本発明においては、画像データ(Y、
R、B)内の動体を検出する動体検出手段(11)を用
いて、連続した2枚の画像データ(Y、R、B)の間で
の相関を検出する相関検出手段(11)と、相関検出手
段(11)によつて入力される画像信号(S2)内のシ
ーンチエンジを検出するシーンチエンジ検出手段(1
1)とを設けるようにした。
Further, in the present invention, image data (Y,
Correlation detecting means (11) for detecting the correlation between two consecutive image data (Y, R, B) by using the moving body detecting means (11) for detecting the moving body in R, B), Scene change detecting means (1) for detecting scene change in the image signal (S2) input by the correlation detecting means (11).
1) and are provided.

【0014】また本発明においては、画像データ(Y、
R、B)内から抽出された目標物体を含む領域を設定す
る目標物体領域設定手段(11)と、目標物体領域設定
手段(11)により設定された目標物体領域中で、画像
データ(Y、R、B)の空間高周波成分を大きくするよ
うに、テレビジヨンカメラ(1)のフオーカスレンズ
(2)を制御するレンズ制御手段(14、15、16)
を設けるようにした。
In the present invention, the image data (Y,
In the target object area setting means (11) for setting an area including the target object extracted from R, B) and the target object area set by the target object area setting means (11), image data (Y, Lens control means (14, 15, 16) for controlling the focus lens (2) of the television camera (1) so as to increase the spatial high frequency component of R, B).
Was set up.

【0015】[0015]

【作用】画像内の動体検出による位置決めの検定を行う
ことにより、自動追尾を行う場合を誤認識することを避
けることがある程度できる。また比較する画像データを
動体検出したときのみ更新することにより、毎フレーム
更新する時には出にくかつた動き量が大きく出るように
なる。
By verifying the positioning by detecting the moving object in the image, it is possible to avoid erroneously recognizing the case where the automatic tracking is performed. In addition, by updating the image data to be compared only when a moving object is detected, a large amount of difficult movement occurs when updating each frame.

【0016】また初期設定された初期画像から比較をす
ることにより、変化のあつた場合のみ録画を行い、変化
の位置を検出することにより、対象物に対するオートパ
ンニングやチルテイングを行うことができる。また画像
処理により動体検出をするため、システムも従来のもの
からそれほど大きくならずにすむ。またシーンチエンジ
検出情報源は画像情報からのみ行うのでシーンチエンジ
を確実に検出し得る。
Further, by comparing from the initially set initial image, recording is performed only when there is a change, and by detecting the position of the change, it is possible to perform auto panning or tilting on the object. Also, since the moving object is detected by image processing, the system does not need to be so large as compared with the conventional system. Further, since the scene change detection information source performs only from the image information, the scene change can be surely detected.

【0017】目標物体に追尾した領域に関する画像デー
タの空間高周波成分が大きくなるように、フオーカスレ
ンズを制御することにより、目標物体が画面のどこにい
ても、目標物体に対して焦点のあつた画像が得られる。
By controlling the focus lens so that the spatial high-frequency component of the image data relating to the region tracked to the target object becomes large, an image focused on the target object can be obtained no matter where the target object is on the screen. Is obtained.

【0018】[0018]

【実施例】以下図面について、本発明の一実施例を詳述
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described in detail below with reference to the drawings.

【0019】(1)第1実施例のビデオカメラシステム 図1においては全体として、本発明による動体検出を用
いた被写体追尾機能を有するビデオカメラシステムの一
実施例を示す。以下輝度をY、色差R−Y信号をR、色
差B−Y信号をBとし、後述するメモリ内の画像で垂直
方向にi番目、水平方向にj番目の画素の値を、Yにつ
いてはYij、RについてはRij、BについてはBijとす
る。このシステムにおいては、被写体から到来する撮像
光がレンズブロツク1のレンズ2、アイリス3を通つ
て、例えばCCDでなる撮像素子4で受けられ、この結
果被写体像を表す撮像出力信号S1が信号分離/自動利
得調整回路部(AGC)5に与えられる。
(1) Video Camera System of First Embodiment FIG. 1 shows, as a whole, an embodiment of a video camera system having a subject tracking function using motion detection according to the present invention. In the following, the luminance is Y, the color difference RY signal is R, and the color difference BY signal is B, and the value of the i-th pixel in the vertical direction and the j-th pixel in the horizontal direction in the image in the memory described later is Y, and Y is Y. ij and R are R ij , and B is B ij . In this system, the image pickup light coming from the subject passes through the lens 2 and the iris 3 of the lens block 1 and is received by the image pickup device 4, which is, for example, a CCD, and as a result, the image pickup output signal S1 representing the subject image is separated / demultiplexed. It is given to the automatic gain adjustment circuit section (AGC) 5.

【0020】信号分離/自動利得調整回路部5は撮像出
力信号S1をサンプルホールドすると共に、オートアイ
リス(AE)システム(図示せず)からの制御信号によ
つて所定のゲインを持つように利得制御され、かくして
得られる撮像出力信号S2をアナログ/デイジタル変換
回路部6を介してデイジタルカメラ処理回路7に供給す
る。デイジタルカメラ処理回路7はデイジタル化された
撮像出力信号に基づいて輝度信号Y、クロマ信号C、色
差信号R及びBを形成し、輝度信号Y及びクロマ信号C
をデイジタル/アナログ変換回路部8を介してビデオ信
号S3として送出する。
The signal separation / automatic gain adjustment circuit section 5 samples and holds the image pickup output signal S1 and controls the gain so as to have a predetermined gain by a control signal from an auto iris (AE) system (not shown). The image pickup output signal S2 thus obtained is supplied to the digital camera processing circuit 7 via the analog / digital conversion circuit unit 6. The digital camera processing circuit 7 forms a luminance signal Y, a chroma signal C, and color difference signals R and B based on the digitized image pickup output signal, and the luminance signal Y and the chroma signal C.
Is transmitted as a video signal S3 via the digital / analog conversion circuit section 8.

【0021】これに加えて、デイジタルカメラ処理回路
7は被写体追尾検出画像信号S4として輝度Y、色差信
号R及びBを追尾制御回路部9に供給し、追尾制御回路
部9はこの被写体追尾検出信号画像S4に基づいてレン
ズブロツク1について設けられたパンニング駆動モータ
12及びチルテイング駆動モータ13に対する追尾制御
信号S9を発生する。追尾制御回路部9は色差信号R及
びBを輝度信号Yと共に、例えばフレームメモリで構成
された画像メモリ10に、マイクロプロセツサ構成の追
尾信号処理回路11から送出される書き込み許可信号S
5が来た後、Y、R、B独立に各画素単位で記憶する。
In addition to this, the digital camera processing circuit 7 supplies the luminance Y and the color difference signals R and B as the subject tracking detection image signal S4 to the tracking control circuit unit 9, and the tracking control circuit unit 9 outputs the subject tracking detection signal. A tracking control signal S9 for the panning drive motor 12 and the tilting drive motor 13 provided for the lens block 1 is generated based on the image S4. The tracking control circuit unit 9 sends the color-difference signals R and B together with the luminance signal Y to the image memory 10 formed of, for example, a frame memory, and the write permission signal S sent from the tracking signal processing circuit 11 of the microprocessor configuration.
After the arrival of 5, Y, R, and B are stored independently for each pixel.

【0022】画像メモリ10に被写体追尾検出画像信号
S4の格納が終了すると、追尾信号処理回路11に対し
読みだし許可信号S6を送出する。追尾信号処理回路1
1は読みだし許可信号S6を確認した後、任意のメモリ
アドレス信号S7を画像メモリ10に与えることによ
り、画像メモリ10内は所定の位置のデータをデータ信
号S8として追尾信号処理回路11に供給する。追尾信
号処理回路11内で動体検出を含む被写体位置の算出処
理が終了後、書き込み許可信号S5が再び発生し、これ
を画像メモリ10が確認した後、画像メモリ10はメモ
リの書き換えを行う。
When the subject tracking detection image signal S4 has been stored in the image memory 10, a read permission signal S6 is sent to the tracking signal processing circuit 11. Tracking signal processing circuit 1
1 confirms the read permission signal S6 and then supplies an arbitrary memory address signal S7 to the image memory 10 to supply data at a predetermined position in the image memory 10 to the tracking signal processing circuit 11 as a data signal S8. . After the subject position calculation processing including the moving body detection is completed in the tracking signal processing circuit 11, the write permission signal S5 is generated again, and the image memory 10 confirms this, and then the image memory 10 rewrites the memory.

【0023】次に、追尾信号処理回路11の内部で行わ
れる一連の処理を述べる。図2は被写体認識処理手順を
示し、このステツプSP0は最初に被写体が画面の中央
にあるという条件より、画面中央を中心とする領域D0
(例えば5×5ピクセルのブロツク)から被写体情報を
取得する処理である。また次のステツプSP1はステツ
プSP0で得られた被写体情報を元にYとR、YとBに
関する2次近似曲線に許容誤差を含めた特徴モデルを決
定する処理である。
Next, a series of processing performed inside the tracking signal processing circuit 11 will be described. FIG. 2 shows a subject recognition processing procedure. In this step SP0, the region D0 centered on the center of the screen is set because the subject is initially in the center of the screen.
This is processing for obtaining subject information from (for example, a block of 5 × 5 pixels). Further, the next step SP1 is a process of determining a feature model including allowable errors in the quadratic approximation curves for Y and R, and Y and B based on the subject information obtained in step SP0.

【0024】さらに続くステツプSP2はステツプSP
1で求められた特徴モデルを用いて、画面内の各画素に
対して被写体の候補点かどうかを決定する各画素の判定
処理である。またステツプSP3はステツプSP2で被
写体の一部と決定された画素から、被写体の座標を仮に
決定する処理である。さらにまた次のステツプSP4は
画像内の動き検出を行つて、ステツプSP3で仮決定さ
れた被写体座標の信憑性を検定する動き検定の処理であ
る。
Further continuing step SP2 is step SP
It is a determination process of each pixel that determines whether or not each pixel in the screen is a candidate point of the subject using the feature model obtained in 1. Further, step SP3 is a process for temporarily determining the coordinates of the subject from the pixels determined as part of the subject in step SP2. Furthermore, the next step SP4 is a motion verification process for detecting the motion in the image and verifying the authenticity of the object coordinates provisionally determined in step SP3.

【0025】以下に各ステツプの一例を示す。ステツプ
SP0の被写体情報取得処理で、領域D0内の(Yij
ij、Bij)の組はノイズを持つているということと、
被写体の代表点に過ぎないということから被写体情報に
有る程度幅を持たせるために(Yij、HRij、H
ij)、(Yij、LRij、LBij)を被写体情報として
持つ。ここで被写体情報HRij、HBij、LRij、LB
ijは許容誤差を10〔%〕として、それぞれ次式
An example of each step is shown below. In the subject information acquisition process of step SP0, (Y ij ,
R ij and B ij ) have noise, and
Since it is only a representative point of the subject, in order to have a certain degree of width in the subject information (Y ij , HR ij , H
B ij ), (Y ij , LR ij , LB ij ) as subject information. Here, the subject information HR ij , HB ij , LR ij , LB
ij has the allowable error of 10%,

【数1】 [Equation 1]

【数2】 [Equation 2]

【数3】 [Equation 3]

【数4】 で与えられる。[Equation 4] Given in.

【0026】ステツプSP1の特徴モデル決定処理は、
ステツプSP0の被写体情報取得処理で得られた被写体
情報(Yij、HRij、HBij)、(Yij、LRij、LB
ij)の組より、Yに関するRとBの2次近似関数による
特徴モデルを決定する。このとき、任意の被写体に対し
て2次近似した特徴モデルがある程度一定の形を持つよ
うに、Y軸上の切片Rlow 、Rhigh、Blow 、Bhigh
定数として持つておき、最小自乗法により以下の係数A
0 〜A4 を決定し、Yに関するRとBの特徴モデルHF
r (Y)、HFb (Y)、LFr (Y)、LFb (Y)
を次式
The characteristic model determination process of step SP1 is as follows.
Subject information (Y ij , HR ij , HB ij ), (Y ij , LR ij , LB) obtained by the subject information acquisition processing of step SP0
ij ), a feature model based on a quadratic approximation function of R and B for Y is determined. At this time, the intercepts R low , R high , B low , and B high on the Y axis are set as constants so that the feature model that is quadratic-approximated with respect to an arbitrary subject has a certain degree of constant shape. The following coefficient A by multiplication
0 to A 4 is determined, and R and B feature models HF related to Y
r (Y), HF b (Y), LF r (Y), LF b (Y)
Is

【数5】 [Equation 5]

【数6】 [Equation 6]

【数7】 [Equation 7]

【数8】 のように決定する。[Equation 8] To decide.

【0027】ステツプSP2の各画素判定処理は、各画
素に関してステツプSP1の特徴モデル決定処理で求め
られた特徴モデルにあてはまるかどうか、つまり画素
R、Bが共に、Yに関するRとBの特徴モデルHF
r (Y)、HFb (Y)、LFr (Y)、LFb (Y)
として、図3に示すハツチング部に入るかどうかを決定
する。つまり、次式
Whether each pixel determination process of step SP2 applies to the feature model obtained by the feature model determination process of step SP1 for each pixel, that is, whether both pixels R and B have the feature model HF of R and B with respect to Y
r (Y), HF b (Y), LF r (Y), LF b (Y)
As a result, it is determined whether to enter the hatching portion shown in FIG. That is,

【数9】 かつ、次式[Equation 9] And the following formula

【数10】 ならばその画素は被写体の一部と判断する。[Equation 10] If so, the pixel is determined to be a part of the subject.

【0028】ステツプSP3の座標仮決定処理は、ステ
ツプSP2の各画素判定処理で被写体の一部と判断され
た複数の画素の水平、垂直方向の重心を求めることによ
り、被写体の座標として決定する。ここで、ステツプS
P2の各画素判定処理において被写体と判断される画素
が一つもない場合、画面内に被写体はいないと判断され
る。
In the coordinate provisional determination process of step SP3, the coordinates of the subject are determined by obtaining the horizontal and vertical center of gravity of a plurality of pixels determined to be a part of the subject in each pixel determination process of step SP2. Where step S
If there is no pixel that is determined to be a subject in each pixel determination process of P2, it is determined that there is no subject in the screen.

【0029】次にステツプSP4では、カメラのレンズ
ブロツク1を動かしているパンニング駆動モータ12、
チルテイング駆動モータ13が動いているかどうかを検
出する。これによりパンニング駆動モータ12、チルテ
イング駆動モータ13が動いているとき、つまり画角が
変わつているときは、これ以降の動体検出を用いた動き
検定は行わず、ステツプSP3の座標仮決定処理で算出
された座標を被写体座標として決定する。続くステツプ
SP5では、ステツプSP3の座標仮決定処理で算出さ
れた座標が、1フレーム前の座標から例えば5ピクセル
以上動いているかどうかを検出している。これにより、
座標が過去の座標に比べて大きく動いた場合のみ、これ
以降の動き検定を行い、座標が変化していない場合はパ
ンニング駆動モータ12、チルテイング駆動モータ13
が動いていないときと同様に動き検定を行わずに、ステ
ツプSP3の座標仮決定処理で算出された座標を被写体
座標として決定する。
Next, in step SP4, a panning drive motor 12 for moving the lens block 1 of the camera,
It is detected whether the tilting drive motor 13 is moving. As a result, when the panning drive motor 12 and the tilting drive motor 13 are moving, that is, when the angle of view is changing, the subsequent motion verification using the moving body detection is not performed, and the coordinates are temporarily calculated in step SP3. The determined coordinates are determined as the subject coordinates. In the subsequent step SP5, it is detected whether or not the coordinates calculated in the coordinate provisional determination processing of step SP3 have moved by, for example, 5 pixels or more from the coordinates one frame before. This allows
Only when the coordinates have moved significantly compared to the past coordinates, the subsequent motion verification is performed, and when the coordinates have not changed, the panning drive motor 12 and the tilting drive motor 13 are performed.
As in the case where is not moving, the coordinates calculated in the temporary coordinate determining process of step SP3 are determined as the subject coordinates without performing the motion test.

【0030】さらに次のステツプSP6では、現フレー
ムでの被写体座標が前フレームでの位置より大きく動い
ていると判断されているのだから、当然前フレームから
被写体の動き量が座標近傍で検出されるはずであるとし
て、前フレームでの座標と新しく算出された座標との近
傍での動き抽出を行う。動き量が検出されなかつた場
合、被写体座標の移動は被写体の移動によるものでな
く、ステツプSP2及びSP3の各画素判定処理及び座
標仮決定処理の被写体認識処理での誤認識と判断し、新
しく算出された座標は無効とし、前フレームでの座標を
保持する。動き量が検出された場合は新しく算出された
座標へ被写体が移動したことを動き検定により確認した
ことになるため、現フレームで算出された座標を被写体
位置として採用する。
Further, in the next step SP6, since it is judged that the subject coordinates in the current frame have moved more than the position in the previous frame, the amount of movement of the subject from the previous frame is naturally detected near the coordinates. If it should be, the motion extraction is performed in the vicinity of the coordinates in the previous frame and the newly calculated coordinates. When the amount of movement is not detected, the movement of the subject coordinates is not due to the movement of the subject, but is determined as an erroneous recognition in the subject recognition processing of each pixel determination processing and the temporary coordinate determination processing of steps SP2 and SP3, and is newly calculated The coordinate set is invalid and the coordinate in the previous frame is retained. If the amount of movement is detected, it means that the subject has moved to the newly calculated coordinate by the motion test, and thus the coordinate calculated in the current frame is adopted as the subject position.

【0031】ステツプSP6における動き量の抽出方法
の第1の方法としては、例えば図4に示すように、算出
された座標と前フレームで算出された座標を囲む近傍領
域D1内で、ステツプSP0の被写体情報取得処理で最
初に被写体が設定されるときに覚えた被写体のR、Bで
あるRorg とBorg の近傍、つまり次式
As a first method of extracting the motion amount in step SP6, as shown in FIG. 4, for example, in step SP0 in the neighborhood area D1 surrounding the calculated coordinates and the coordinates calculated in the previous frame, The neighborhood of R org and B org which are R and B of the subject learned when the subject is first set in the subject information acquisition process, that is,

【数11】 かつ次式[Equation 11] And the following formula

【数12】 を満たす画素に対して、輝度に関する差分をとる。この
差分値が有る閾値をこえた場合、その画素については動
き量が検出されたと判断する。こうして領域D1内で動
きの有つたと判断された画素数Nmove1 がD1内の総画
素数ND1のある割合P1 を越えたとき、D1内で被写体
の動きがあつたと判断する。
[Equation 12] The difference regarding the luminance is calculated for the pixels that satisfy the condition. When the difference value exceeds a certain threshold value, it is determined that the motion amount is detected for the pixel. In this way, when the number of pixels N move1 determined to have moved in the area D1 exceeds a certain ratio P 1 of the total number of pixels N D1 in D1, it is determined that the subject has moved in D1.

【0032】また動き量抽出方法の第2の方法として、
例えば図5に示すように、領域D1内の画素について、
ステツプSP2の各画素判定処理の条件を満たす画素を
値「1」、そうでない画素を値「0」としたような評価
データ画像を前フレーム、現フレームに関して持つてお
き、その2つの間に共通しない画素を動いた点として判
断する。その後は上述と同様に動いたと判断された画素
数Nmove2 がD1内の総画素数ND1のある割合P2 を越
えたとき、D1内で被写体の動きがあつたと判断する。
As a second method of extracting the motion amount,
For example, as shown in FIG. 5, for pixels in the region D1,
An evaluation data image in which a pixel satisfying the condition of each pixel determination process in step SP2 is set to a value "1" and a pixel not satisfying the condition is set to a value "0" is provided for the previous frame and the current frame, and is common between the two. It is determined that the pixels that do not move have moved. After that, when the number of pixels N move2 determined to have moved in the same manner as described above exceeds a certain ratio P2 of the total number of pixels N D1 in D1, it is determined that the subject has moved in D1.

【0033】ステツプSP7の処理は、前フレームの評
価データ、つまり上述した第1の例ならば、図4に示さ
れるような、(11)、(12)式を満たす画素に対する輝
度データ、第2の例ならば、図5に示されるような、ス
テツプSP2における各画素判定処理の条件を満たす点
を値「1」、そうでない画素を値「0」としたような前
フレームの評価データ画像を更新する。
The processing of step SP7 is the evaluation data of the previous frame, that is, in the case of the first example described above, the luminance data for the pixels satisfying the expressions (11) and (12) as shown in FIG. In the case of the above example, the evaluation data image of the previous frame in which the point satisfying the condition of each pixel determination process in step SP2 is set to the value "1" and the other pixel is set to the value "0" as shown in FIG. Update.

【0034】以上の構成によれば、画像内の動体検出に
よる位置決めの検定を行うことにより、自動被写体追尾
を行う場合に被写体の誤認識をある程度避けることがで
き、また比較する画像データを動体検出したときのみ更
新することにより、毎フレーム更新する時には出にくか
つた動き量が大きく出るようになるテレビカメラシステ
ムを実現できる。
According to the above configuration, by performing the positioning verification by detecting the moving object in the image, it is possible to avoid the erroneous recognition of the object to some extent when the automatic object tracking is performed, and to detect the moving image of the image data to be compared. It is possible to realize a television camera system in which a large amount of difficult movement occurs when updating each frame by updating only every time.

【0035】(2)第2実施例のビデオカメラシステム 上述した第1実施例の動体検出を用いたビデオカメラシ
ステムを応用した、監視用のビデオカメラシステムとし
て、初期画像から動体検出して画面に変化があつたとき
のみ録画する一実施例について説明する。このビデオカ
メラシステムの構成を図1との対応部分に同一符号を付
した図6に示す。また図7は、初期画像からの動体検出
処理手順を示し、ステツプSP10は初期画像の輝度デ
ータを格納する処理で、次のフレームからはこの初期画
像輝度データDorg1と比較して輝度の変化による動体検
出を行う。
(2) Video camera system of the second embodiment As a video camera system for monitoring to which the video camera system using the moving object detection of the first embodiment described above is applied, the moving object is detected from the initial image and displayed on the screen. An example of recording only when there is a change will be described. The configuration of this video camera system is shown in FIG. 6 in which the same parts as in FIG. FIG. 7 shows a procedure for detecting a moving object from the initial image. Step SP10 is a process for storing the luminance data of the initial image. From the next frame, the luminance changes as compared with the initial image luminance data D org1. Performs motion detection.

【0036】次のステツプSP11は動点抽出を行う処
理である。初期画像輝度データDorg1(図8(A))と
現フレーム画像輝度データDnow1との間で、各画素につ
いて差分をとり、この差分がある閾値α1 を超えたと
き、この画素に初期状態からの変化があつたと判断す
る。こうして全画素について動点抽出を行い、ステツプ
SP12のように変化があつたと判断された画素数Nc
がある閾値α2 を超えたとき、画面内に侵入者が入つて
きた等、初期状態からの画面の変化があつたと判断し
(図8(B))、ステツプSP13の録画状態に入る。
この後ステツプSP14の枠表示処理を行い、図8
(C)に示すように動点として判断された画素の上端、
下端、右端、左端の画素を囲むような枠出し信号S10
(図6)を発生させ、映像信号に枠を乗せる。
The next step SP11 is a process for extracting a moving point. A difference is taken for each pixel between the initial image luminance data D org1 (FIG. 8A) and the current frame image luminance data D now1, and when this difference exceeds a certain threshold value α 1 , the initial state is set for this pixel. It is judged that there has been a change from. In this way, the moving point extraction is performed for all the pixels, and the number N c of pixels determined to have changed as in step SP12
When a certain threshold value α 2 is exceeded, it is determined that the screen has changed from the initial state, such as an intruder entering the screen (FIG. 8B), and the recording state of step SP13 is entered.
After that, the frame display processing of step SP14 is performed, and
As shown in (C), the upper end of the pixel determined as the moving point,
A framed signal S10 that surrounds the bottom, right, and left pixels
(FIG. 6) is generated and a frame is placed on the video signal.

【0037】またステツプSP12において、変化があ
つたと判断される画素数Nc が閾値α2 を超えなかつた
場合、画面に初期状態からの変化はなかつたと判断し、
ステツプSP15で録画待機状態に入り、侵入者や変化
点を示す枠を消去する。次にステツプSP16で、変化
があつたと判断される画素数Nc <閾値α2 の状態が一
定時間連続して続いたかどうかを判断し、続いた場合に
はステツプSP17に移つて初期画像輝度データDorg1
の更新を行う。
Further, in step SP12, when the number of pixels N c judged to have changed does not exceed the threshold value α 2 , it is judged that the screen has not changed from the initial state,
At step SP15, the recording standby state is entered, and the frame indicating the intruder or the change point is erased. Next, in step SP16, it is determined whether or not the state of the number of pixels N c <threshold value α 2 determined to have changed continues for a certain period of time, and if so, the process proceeds to step SP17 to set the initial image brightness data. D org1
Update.

【0038】この図6のビデオカメラシステムの応用例
として、画像信号内のシーンチエンジを検出する処理手
順を図9に示す。このシーンチエンジ検出処理手順でス
テツプSP20は、前フレームの画像の輝度データD
org2を格納する処理である。次のステツプSP21で
は、現フレームの画像の輝度データDnow2と前フレーム
の画像の輝度データDorg2との間で各画素について差分
をとり、この差分がある閾値α3 を超えたとき、この画
素に前フレームからの変化があつたと判断する。
As an application example of the video camera system of FIG. 6, FIG. 9 shows a processing procedure for detecting scene change in an image signal. In this scene change detection processing procedure, the step SP20 determines the brightness data D of the image of the previous frame.
This is the process of storing org2 . At the following step SP21, it obtains a difference for each pixel between the luminance data D org2 image of the previous frame and the luminance data D Now2 the image of the current frame, when the threshold is exceeded alpha 3 there is the difference, the pixel It is judged that there is a change from the previous frame.

【0039】こうして全画素について動点抽出を行い、
ステツプSP22において輝度の変化の有つた(すなわ
ち動いた)と判断された画素数Nd がある閾値α4 を超
えたとき、両画面の間の相関が著しく下がつたと判断
し、ステツプSP23でシーンチエンジの検出信号を出
す。この後、シーンチエンジ検出の有無にかかわらず、
ステツプSP24で現フレームの画像の輝度データD
now2を前フレームの画像の輝度データDorg2に置き換え
た後ステツプSP21に戻る。
In this way, moving point extraction is performed for all pixels,
When the number N d of pixels determined to have a change in luminance (that is, moved) in step SP22 exceeds a certain threshold value α 4 , it is determined that the correlation between both screens has significantly decreased, and in step SP23. Generates a scene change detection signal. After this, regardless of the presence or absence of scene change detection,
In step SP24, the luminance data D of the image of the current frame
The now2 returns to step SP21 after replacing the brightness data D org2 of the previous frame image.

【0040】以上の構成によれば、セキユリテイシステ
ムへの応用として、初期設定画像からの比較をすること
により、侵入者のあつた場合のみ録画を行い、侵入者の
位置を検出することにより、対象物に対するオートパン
ニングやチルテイングを行うことができる。また画像処
理により動体検出をするため、システムも従来のものか
らそれほど大きくならずにすむ。またシーンチエンジ検
出情報源は画像情報からのみ行うので、記録されたテー
プに依存せずにシーンチエンジが検出できる。
According to the above configuration, as an application to the security system, by comparing from the initial setting image, recording is performed only when an intruder encounters, and the position of the intruder is detected. It is possible to perform auto panning and tilting on an object. Also, since the moving object is detected by image processing, the system does not need to be so large as compared with the conventional system. Further, since the scene change detection information source is generated only from the image information, the scene change can be detected without depending on the recorded tape.

【0041】さらに上述の構成によれば、従来のセキユ
リテイシステムに応用されている監視カメラのように、
一定のアングルや一定のパンニングでのみ、しかも連続
的に撮影を行わなければならないという問題を改善で
き、また赤外線センサを用いた動体検出に比較して、格
段的に小型な監視カメラを実現できる。
Further, according to the above configuration, like a surveillance camera applied to a conventional security system,
It is possible to solve the problem that shooting must be performed continuously only at a fixed angle and a fixed panning, and a significantly smaller surveillance camera can be realized as compared with moving object detection using an infrared sensor.

【0042】さらに上述の構成によれば、従来考えられ
てきたシステムでのシーンチエンジ検出のように、ビデ
オテープに記録されているタイムコードを読み取り、そ
の連続性が途切れたところを見つける場合に比較して、
ビデオテープにタイムコードが打たれていないものやタ
イムコードの規格が異なるものに対しても、有効にシー
ンチエンジを検出することができ、有用性を格段的に向
上し得る。
Further, according to the above-mentioned configuration, as in the case of scene change detection in the conventionally conceived system, the time code recorded on the video tape is read, and a comparison is made in the case where the continuity is found. do it,
Even when the video tape is not time-coded or has a different time code standard, the scene change can be effectively detected, and the usefulness can be significantly improved.

【0043】(3)第3実施例のビデオカメラシステム 上述した第1実施例の被写体抽出を用いたビデオカメラ
システムを応用した、目標物体の入る領域内の輝度信号
に注目したオートフオーカス機能の一実施例について説
明する。このビデオカメラシステムの構成を図1との対
応部分に同一符号を付した図10に示す。
(3) Video camera system of the third embodiment of the autofocus function focusing on the luminance signal in the area where the target object enters, which is an application of the video camera system using the subject extraction of the first embodiment described above. An example will be described. The structure of this video camera system is shown in FIG. 10 in which the same parts as in FIG.

【0044】図10において、追尾信号処理回路11か
ら送出される目標物体領域座標信号S9より、ビデオ信
号検波器16が検波領域を設定し、この検波領域に関し
てデイジタルカメラ処理回路7から送出されたデイジタ
ルY信号を基に合焦のための検波を行なう。ビデオ信号
処理回路17は受けた検波出力を元に、フオーカスモー
タ18をどのように動かすか判定し、フオーカスモータ
18を制御する。以下にこの一連の処理についてそれぞ
れ説明する。
In FIG. 10, the video signal detector 16 sets the detection area from the target object area coordinate signal S9 sent from the tracking signal processing circuit 11, and the digital signal sent from the digital camera processing circuit 7 with respect to this detection area. Detection for focusing is performed based on the Y signal. The video signal processing circuit 17 determines how to move the focus motor 18 based on the received detection output, and controls the focus motor 18. The series of processes will be described below.

【0045】図2に上述した被写体認識処理手順のステ
ツプSP2で、候補点かどうかの判定をした各画素のよ
うすを図11に示す。図において候補点と判断された画
素は斜線部で、そうでない点は白抜きで表している。ま
たステツプSP8で決定された被写体座標を(Xt、Y
t)とし、被写体領域の初期枠座標として、枠の左上の
座標を(X1、Y1)、右下の座標を(X2、Y2)と
する。また被写体領域の中に有る画素のうち、被写体の
候補点と判定されている画素、つまり図11における斜
線部に含まれる画素の数をNt とする。
FIG. 11 shows the state of each pixel which is judged as a candidate point in step SP2 of the above-mentioned subject recognition processing procedure. Pixels that are determined to be candidate points in the figure are shaded, and points that are not are shown in white. In addition, the subject coordinates determined in step SP8 are (Xt, Y
t), the upper left coordinate of the frame is (X1, Y1), and the lower right coordinate is (X2, Y2) as the initial frame coordinates of the subject area. Further, among the pixels in the subject area, the number of pixels determined to be the candidate points of the subject, that is, the number of pixels included in the shaded area in FIG. 11 is N t .

【0046】この状態で、まずX1を画面左方向に1画
素分ずらし、その時Nt がX1 をずらしたことにより大
きくなつたならば、X1はずらした位置に変更する。逆
にN t が増えていないのならばX1は元の位置に戻す。
In this state, first move X1 one screen to the left of the screen.
Shift by minutes, then NtIs X1Large due to shifting
If it is tight, change to the X1 offset position. Reverse
N tIf is not increased, X1 is returned to the original position.

【0047】次にY1を同様に1画素分上にずらし、そ
の時のNt が増えたならば、Y1はずらした位置に変更
し、逆に増えていないのならば元の位置に戻す。同様な
処理を続けてX2を右にずらし、次にY2をした方向に
ずらす。この一連のルーチンをNt が増えなくなるまで
続ける。最終的な(X1、Y1)、(X2、Y2)の座
標を被写体領域の座標として、追尾信号処理回路11は
ビデオ信号検波器16に送出する。
Next, Y1 is similarly shifted upward by one pixel, and if N t at that time is increased, it is changed to the shifted position of Y1, and if not increased, it is returned to the original position. Similar processing is continued to shift X2 to the right and then to Y2. This series of routines is continued until N t does not increase. The tracking signal processing circuit 11 sends the final (X1, Y1) and (X2, Y2) coordinates to the video signal detector 16 as the coordinates of the subject area.

【0048】ビデオ信号検波器16では、受け取つた被
写体領域に関して、Y信号の検波を行なう。デイジタル
カメラ処理回路7から送られるY信号について、1ライ
ン分だけ横方向にハイパスフイルタをかけ、更にその絶
対値をとつて整流する(図12)。このデータの最大値
をこのラインの評価値とする。同様に全てのラインにつ
いて評価値を求め、その中の最大値を検波出力としてビ
デオ信号処理回路17に通信する。
The video signal detector 16 detects the Y signal for the received subject area. With respect to the Y signal sent from the digital camera processing circuit 7, a high-pass filter is applied in the horizontal direction for one line, and the absolute value thereof is taken for rectification (FIG. 12). The maximum value of this data is the evaluation value of this line. Similarly, evaluation values are obtained for all lines, and the maximum value among them is communicated to the video signal processing circuit 17 as a detection output.

【0049】ビデオ信号処理回路17ではビデオ信号検
波器16からの検波出力を元にフオーカスモータ18の
制御を行なう。このアルゴリズムには様々な手法がある
が、今回はその中で「ウオブリング法」について説明す
る。すなわち合焦したかどうかの判定は検波出力値が最
大になるようにフオーカスレンズ2を動かす。つまり、
図13に示すように、横軸をレンズの位置、縦軸を検波
出力にとつた評価カーブの頂点部分が合焦位置となる。
The video signal processing circuit 17 controls the focus motor 18 based on the detection output from the video signal detector 16. There are various methods in this algorithm, but this time, the "Woobling method" will be explained. That is, the focus lens 2 is moved so that the detection output value is maximized to determine whether or not the focus is achieved. That is,
As shown in FIG. 13, the apex of the evaluation curve with the horizontal axis representing the lens position and the vertical axis representing the detection output is the in-focus position.

【0050】まずフオーカスレンズ2を微小に15〔Hz〕
程度で動かすことにより、レンズの微小位置変動の最大
と最小の時の検波出力を元に現在レンズが評価カーブの
どの位置にいるかを判断し、レンズ2を動かす方向を決
める。つまり図13においてはレンズを正の方向に動か
せば合焦に向かうことがわかる。評価値が最大値に収束
した、つまり評価カーブの頂点付近に来たと判断された
とき、合焦したと判定する。
First, the focus lens 2 is made minute by 15 [Hz].
By moving the lens 2 by a certain degree, it is determined which position on the evaluation curve the lens is currently on the basis of the detection output at the time of the maximum and the minimum of the minute position variation of the lens, and the direction in which the lens 2 is moved is determined. That is, in FIG. 13, it can be seen that if the lens is moved in the positive direction, the focus is achieved. When it is determined that the evaluation value has converged to the maximum value, that is, it has come near the apex of the evaluation curve, it is determined that the focus is achieved.

【0051】以上の一連の操作によつて、フオーカスモ
ータ18の制御を行なうことにより、被写体に追尾した
オートフオーカスを行なう。またステツプSP8で被写
体がいない、もしくはわからない、と判断された場合は
検波枠を中心に固定した通常のオートフオーカスに戻
る。
Through the series of operations described above, the focus motor 18 is controlled to perform the auto focus tracking the subject. If it is determined in step SP8 that there is no subject or the subject is unknown, the process returns to normal autofocus with the detection frame fixed.

【0052】(4)他の実施例 なお上述の実施例においては、本発明を目標を自動的に
追尾するビデオカメラシステム、セキユリテイシステム
に適用した場合について述べたが、本発明はこれに限ら
ず、テレビジヨン会議システムやマルチメデイアシステ
ム等のように、テレビジヨンカメラで被写体を目標追尾
するものや、画像内の被写体の位置より被写体にロツク
したオートフオーカス、オートアイリス、オートズー
ム、手ぶれ補正するテレビジヨンカメラに広く適用して
好適なものである。
(4) Other Embodiments In the above embodiments, the present invention is applied to a video camera system and a security system for automatically tracking a target, but the present invention is not limited to this. Instead, such as a TV conference conference system or multimedia system that targets a subject with a television camera, or auto focus, auto iris, auto zoom, and image stabilization that lock the subject from its position in the image. It is suitable for wide application to television cameras.

【0053】[0053]

【発明の効果】上述のように本発明によれば、画像内の
動体検出による位置決めの検定を行うことにより、自動
追尾を行う場合に目標物体の誤認識を避けることがある
程度でき、また比較画像データを動体検出したときのみ
更新することにより、毎フレーム更新する時には出にく
かつた動き量が大きく出るようになり、かくして画像内
の動体を検出する際に誤認識を有効に除去して有用性を
向上し得る画像信号処理装置を実現できる。
As described above, according to the present invention, erroneous recognition of the target object can be avoided to some extent when the automatic tracking is performed by performing the positioning verification by detecting the moving object in the image. By updating the data only when a moving object is detected, the amount of motion that is difficult to come out becomes large when updating each frame, thus effectively eliminating false recognition when detecting a moving object in an image and useful. It is possible to realize an image signal processing device capable of improving the property.

【0054】また初期設定画像からの変化を検出したと
きのみ録画状態に入ることにより、従来セキユリテイシ
ステムの監視カメラなどでは連続して録画していなけれ
ばならなかつたのを、侵入者があつたときや状況に変化
があつたときのみを録画するようにできる。さらに初期
設定画像を固定でなく、動体検出していない間、一定時
間毎に更新することにより、屋外にカメラを設置した場
合など、昼間から夕方にゆつくり変化した場合には画面
に変化があつたと誤判断しなくなる。さらに動体検出を
用いたことにより、簡単なシステムでシーンチエンジ検
出を行うことができる。
By entering the recording state only when a change from the initial setting image is detected, an intruder finds that the surveillance camera of the conventional security system must continuously record images. It is possible to record only when the time or the situation changes. In addition, the initial setting image is not fixed and is updated at regular intervals while motion is not detected, so that the screen may change when the camera is installed outdoors, such as when it changes from daytime to evening, and changes slowly. It will not be misjudged that Furthermore, by using the moving body detection, scene change detection can be performed with a simple system.

【0055】また被写体に追尾し、被写体の大きさにあ
わせた検波枠を用いたオートフオーカスをすることによ
り、被写体が画面のどこにいても画像の焦点が被写体に
あつた映像を撮影者が得ることが出来る。
By tracking the subject and performing autofocus using a detection frame according to the size of the subject, the photographer can obtain a video image in which the subject is focused regardless of where the subject is on the screen. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例として動体検出を用いた被写
体追尾機能を有するビデオカメラシステムの構成を示す
ブロツク図である。
FIG. 1 is a block diagram showing a configuration of a video camera system having a subject tracking function using moving body detection as an embodiment of the present invention.

【図2】動体検出による検定を行う被写体認識処理手順
を示すフローチヤートである。
FIG. 2 is a flowchart showing a subject recognition processing procedure for performing verification by detecting a moving object.

【図3】被写体認識処理手順中で被写体特徴モデル設定
処理の説明に供する略線図である。
FIG. 3 is a schematic diagram for explaining a subject feature model setting process in the subject recognition processing procedure.

【図4】動き検定としてフレーム間差分による動き量の
抽出方法の説明に供する略線図である。
FIG. 4 is a schematic diagram for explaining a method of extracting a motion amount based on a difference between frames as a motion test.

【図5】動き検定としてフレーム間差分による動き量の
抽出方法の説明に供する略線図である。
FIG. 5 is a schematic diagram for explaining a method of extracting a motion amount based on a difference between frames as a motion test.

【図6】図1のビデオカメラシステムの応用として初期
画像からの動体検出を有するビデオカメラシステムの構
成を示すブロツク図である。
FIG. 6 is a block diagram showing a configuration of a video camera system having a moving body detection from an initial image as an application of the video camera system of FIG.

【図7】初期画像からの動体検出処理手順を示すフロー
チヤートである。
FIG. 7 is a flow chart showing a moving body detection processing procedure from an initial image.

【図8】初期画像からの変化点抽出と枠表示の説明に供
する略線図である。
FIG. 8 is a schematic diagram for explaining change point extraction from an initial image and frame display.

【図9】シーンチエンジ検出処理手順を示すフローチヤ
ートである。
FIG. 9 is a flow chart showing a scene change detection processing procedure.

【図10】図1のビデオカメラシステムの応用として目
標物体に追尾した領域に注目してオートフオーカスする
ビデオカメラシステムの構成を示すブロツク図である。
10 is a block diagram showing a configuration of a video camera system that autofocuses focusing on a region tracked by a target object as an application of the video camera system of FIG.

【図11】各画素について被写体の候補点かどうかの判
定の説明に供する略線図である。
FIG. 11 is a schematic diagram used for explaining whether each pixel is a candidate point of a subject.

【図12】被写体領域内のY信号から検波出力を算出す
るための処理過程の説明に供する略線図である。
FIG. 12 is a schematic diagram used for explaining a processing process for calculating a detection output from a Y signal in a subject region.

【図13】レンズ位置と評価値の関係を表す評価カーブ
を示す特性曲線図である。
FIG. 13 is a characteristic curve diagram showing an evaluation curve showing the relationship between the lens position and the evaluation value.

【符号の説明】[Explanation of symbols]

1……レンズブロツク、2……レンズ、3……アイリ
ス、4……撮像素子、5……信号分離/自動利得調整回
路部(AGC)、6……アナログ/デイジタル変換回路
部、7……デイジタルカメラ処理回路、8……デイジタ
ル/アナログ変換回路部、9……追尾制御回路部、10
……画像メモリ、11……追尾信号処理回路、12……
パンニング駆動モータ、13……チルテイング駆動モー
タ、14……枠付け回路、15……録画コントロール回
路、16……ビデオ信号検波器、17……ビデオ信号処
理回路、18……フオーカスモータ。
1 ... Lens block, 2 ... Lens, 3 ... Iris, 4 ... Imaging element, 5 ... Signal separation / automatic gain adjustment circuit (AGC), 6 ... Analog / digital conversion circuit, 7 ... Digital camera processing circuit, 8 ... Digital / analog conversion circuit section, 9 ... Tracking control circuit section, 10
…… Image memory, 11 …… Tracking signal processing circuit, 12 ……
Panning drive motor, 13 ... Chilling drive motor, 14 ... Frame setting circuit, 15 ... Recording control circuit, 16 ... Video signal detector, 17 ... Video signal processing circuit, 18 ... Focus motor.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】入力される画像信号をデイジタル化して、
周期的に画像データとして画像メモリに記憶する画像記
憶制御手段と、 上記画像メモリに記憶された上記画像データと当該画像
データから所定時間遅延された遅延画像データとの間
で、任意の特徴的な輝度及び色の画素に関して、輝度の
変化分が所定の閾値以上の画素を抽出する特徴画素抽出
手段と、 当該特徴画素抽出手段で抽出された上記画素の数をカウ
ントして、上記画像データ内の動体を検出をする動体検
出手段とを具えることを特徴とする画像信号処理装置。
1. An input image signal is converted into a digital signal,
The image storage control means for periodically storing the image data in the image memory, the image data stored in the image memory, and the delayed image data delayed by a predetermined time from the image data Regarding the luminance and color pixels, a characteristic pixel extraction unit that extracts pixels whose change in luminance is equal to or greater than a predetermined threshold value, and the number of the pixels extracted by the characteristic pixel extraction unit is counted, and An image signal processing apparatus, comprising: a moving body detecting means for detecting a moving body.
【請求項2】上記画像信号はテレビジヨンカメラより入
力され、上記特徴画素抽出手段は上記テレビジヨンカメ
ラの画角が変わつていないとき、上記任意の特徴的な輝
度及び色の画素に関して、上記輝度の変化分が所定の閾
値以上の上記画素を抽出するようにしたことを特徴とす
る請求項1に記載の画像信号処理装置。
2. The image signal is input from a television camera, and the characteristic pixel extracting means relates to the pixels of the arbitrary characteristic luminance and color when the angle of view of the television camera is unchanged. The image signal processing apparatus according to claim 1, wherein the pixels having a change amount of luminance equal to or larger than a predetermined threshold value are extracted.
【請求項3】上記画像データを周期的に上記画像メモリ
に記憶する上記画像記憶制御手段を用いて、上記画像デ
ータ内の目標物体の輝度及び色情報に関する特徴量を設
定する特徴量設定手段と、 上記設定された上記特徴量から上記目標物体の特徴を示
す特徴モデルを決定する特徴モデル決定手段と、 決定された上記特徴モデルを用いて、上記画像データ内
から上記目標物体の候補となる画素を検出する画素判定
手段と、 上記検出された画素集合の水平、垂直方向の重心を求
め、上記画像データ内の上記目標物体の位置を検出する
座標仮決定手段と、 上記画像データ内の動体を検出する上記動体検出手段を
用いて、上記検出された上記目標物体の位置の確からし
さを検定する位置検定手段と、 当該位置検定手段で検定された上記目標物体の位置に応
じて、上記テレビジヨンカメラを制御するカメラ制御手
段とを具え、上記画像データ内の上記目標物体を追尾す
ることを特徴とする請求項2に記載の画像信号処理装
置。
3. A feature quantity setting means for setting a feature quantity relating to luminance and color information of a target object in the image data by using the image storage control means for periodically storing the image data in the image memory. A feature model determining unit that determines a feature model indicating the feature of the target object from the set feature amount, and a pixel that is a candidate for the target object from the image data using the determined feature model. A pixel determination unit that detects the horizontal and vertical center of gravity of the detected pixel set, coordinate temporary determination unit that detects the position of the target object in the image data, and a moving object in the image data. Using the moving body detecting means for detecting, the position verification means for verifying the certainty of the position of the detected target object, and the target object verified by the position verification means Depending on the location, comprising a camera control means for controlling the television camera, the image signal processing apparatus according to claim 2, characterized in that tracking the target object in the image data.
【請求項4】上記画像データを周期的に上記画像メモリ
に記憶する上記画像記憶制御手段を用いて、輝度及び色
情報に関して起動時の初期画像全体を上記画像メモリに
記憶する初期画像記憶手段と、 上記画像データ内の動体を検出する上記動体検出手段を
用いて、上記画像メモリに記憶された上記初期画像か
ら、輝度変化が所定の閾値以上あつた画素を検出する動
点検出手段と、 上記検出された画素から、上記初期画像から変化のあつ
た領域を検出する変化領域検出手段と、 当該変化領域検出手段により、上記初期画像からの変化
領域が検出されていないときに、上記初期画像を一定時
間毎に設定し直す初期画像再設定手段とを具えることを
特徴とする請求項1に記載の画像信号処理装置。
4. An initial image storage means for storing the entire initial image at the time of activation with respect to luminance and color information in the image memory by using the image storage control means for periodically storing the image data in the image memory. A moving point detecting means for detecting a pixel whose luminance change is equal to or more than a predetermined threshold value from the initial image stored in the image memory by using the moving body detecting means for detecting a moving body in the image data; From the detected pixels, a change area detecting unit that detects a changed area from the initial image, and when the change area from the initial image is not detected by the change area detecting unit, the initial image is displayed. The image signal processing apparatus according to claim 1, further comprising an initial image resetting unit that resets the image every fixed time.
【請求項5】上記初期画像からの変化領域を検出する上
記変化領域検出手段を用いて、上記初期画像から変化の
あつた領域が検出されたときのみに画像録画状態に入る
録画制御手段と、 上記変化のあつた領域を囲む枠表示を、映像信号に重畳
する枠表示手段とを具えることを特徴とする請求項4に
記載の画像信号処理装置。
5. A recording control means for entering an image recording state only when a changed area is detected from the initial image by using the changed area detecting means for detecting a changed area from the initial image, The image signal processing apparatus according to claim 4, further comprising a frame display unit that superimposes a frame display surrounding the changed area on a video signal.
【請求項6】上記画像データ内の動体を検出する動体検
出手段を用いて、連続した2枚の画像データの間での相
関を検出する相関検出手段と、 上記相関検出手段によつて上記入力される画像信号内の
シーンチエンジを検出するシーンチエンジ検出手段とを
具えることを特徴とする請求項1に記載の画像信号処理
装置。
6. A correlation detecting means for detecting a correlation between two continuous image data by using a moving body detecting means for detecting a moving body in the image data, and the input by the correlation detecting means. 2. The image signal processing apparatus according to claim 1, further comprising a scene change detecting unit that detects a change in the image signal.
【請求項7】上記画像データ内から抽出された上記目標
物体を含む領域を設定する目標物体領域設定手段と、 上記目標物体領域設定手段により設定された目標物体領
域中で、上記画像データの空間高周波成分を大きくする
ように、上記テレビジヨンカメラのフオーカスレンズを
制御するレンズ制御手段とを具えることを特徴とする請
求項2に記載の画像信号処理装置。
7. A target object area setting means for setting an area including the target object extracted from the image data, and a space of the image data in the target object area set by the target object area setting means. The image signal processing apparatus according to claim 2, further comprising a lens control unit that controls a focus lens of the television camera so as to increase a high frequency component.
JP6339803A 1994-07-29 1994-12-28 Image signal processing unit Pending JPH0898079A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6339803A JPH0898079A (en) 1994-07-29 1994-12-28 Image signal processing unit

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-197216 1994-07-29
JP19721694 1994-07-29
JP6339803A JPH0898079A (en) 1994-07-29 1994-12-28 Image signal processing unit

Publications (1)

Publication Number Publication Date
JPH0898079A true JPH0898079A (en) 1996-04-12

Family

ID=26510239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6339803A Pending JPH0898079A (en) 1994-07-29 1994-12-28 Image signal processing unit

Country Status (1)

Country Link
JP (1) JPH0898079A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001055100A (en) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd Multi-function on-board camera system and image display method of multi-function on-board camera system
JP2007019621A (en) * 2005-07-05 2007-01-25 Fujinon Corp Lens system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001055100A (en) * 1999-08-18 2001-02-27 Matsushita Electric Ind Co Ltd Multi-function on-board camera system and image display method of multi-function on-board camera system
JP2007019621A (en) * 2005-07-05 2007-01-25 Fujinon Corp Lens system

Similar Documents

Publication Publication Date Title
KR100276681B1 (en) Video camera system
US9591364B2 (en) Image processing apparatus, image processing method, and program
CN107438173B (en) Video processing apparatus, video processing method, and storage medium
US5355163A (en) Video camera that automatically maintains size and location of an image within a frame
US20130322695A1 (en) Image processing apparatus, image processing method, and image capturing apparatus
KR100834465B1 (en) System and method for security using motion detection
JP2015104016A (en) Subject detection apparatus, imaging apparatus, subject detection apparatus control method, subject detection apparatus control program, and storage medium
JPWO2005107240A1 (en) Automatic photographing method and apparatus
JP4378636B2 (en) Information processing system, information processing apparatus, information processing method, program, and recording medium
JP2006304266A (en) Frame rate conversion apparatus, pan/tilt judging apparatus, and video image apparatus
JPH0730796A (en) Video signal tracking processing system
CN112907617B (en) Video processing method and device
KR100623835B1 (en) Object detecting method and apparatus
JPH089227A (en) Image pickup device with automatic tracking function
US20040090551A1 (en) Auto focus system
KR102128319B1 (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
JPH0730795A (en) Video camera system
JPH06268894A (en) Automatic image pickup device
JPH04213973A (en) Image shake corrector
JP4716266B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JPH0898079A (en) Image signal processing unit
JP2003078808A (en) Device and method for detecting motion vector, device and method for correcting camera shake and imaging apparatus
JPH10188145A (en) Automatic zoom monitoring device
JPH1079881A (en) Image pickup device
JP2889410B2 (en) Image recognition device