JP2011003144A - Device and program for detecting moving object area - Google Patents

Device and program for detecting moving object area Download PDF

Info

Publication number
JP2011003144A
JP2011003144A JP2009147817A JP2009147817A JP2011003144A JP 2011003144 A JP2011003144 A JP 2011003144A JP 2009147817 A JP2009147817 A JP 2009147817A JP 2009147817 A JP2009147817 A JP 2009147817A JP 2011003144 A JP2011003144 A JP 2011003144A
Authority
JP
Japan
Prior art keywords
moving object
frame image
motion vector
detecting
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009147817A
Other languages
Japanese (ja)
Other versions
JP5268796B2 (en
Inventor
Yasutaka Matsuo
康孝 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2009147817A priority Critical patent/JP5268796B2/en
Publication of JP2011003144A publication Critical patent/JP2011003144A/en
Application granted granted Critical
Publication of JP5268796B2 publication Critical patent/JP5268796B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a moving object area detecting device and moving object detection program for detecting a moving object corresponding to complicated motion of a camera with high accuracy.SOLUTION: The moving object area detecting device is constituted so that a motion vector detecting part 11 expands an image by a spatial wavelet reconfiguration and detects a motion vector with high accuracy, a background area detecting part 13 detects a background area by movement vector clustering, a time base direction fluctuation area detecting part 14 detects a fluctuation area in a time base direction by temporal wavelet resolution, and a moving object detecting part 15 detects a moving object from the detected background area and the fluctuation area in the time base direction.

Description

本発明は、動画像から移動物体領域を検出する移動物体領域検出装置及び移動物体領域検出プログラムに関するものである。より詳細には、時空間解像度解析とオプティカルフローを併用することにより、動画像から移動物体領域を検出する移動物体領域検出装置及び移動物体領域検出プログラムに関するものである。   The present invention relates to a moving object region detection apparatus and a moving object region detection program for detecting a moving object region from a moving image. More specifically, the present invention relates to a moving object area detecting apparatus and a moving object area detecting program for detecting a moving object area from a moving image by using both a spatio-temporal resolution analysis and an optical flow.

動画像から移動物体領域を抽出する技術は、動画像認識技術や、人物や背景の動画及び音声をそれぞれ別々のオブジェクトとして符号化するオブジェクト符号化など、様々な分野で研究開発され、応用されている。例えば、動画像認識技術では、道路上での自動車の抽出や監視カメラによる不審者の監視に利用されており、オブジェクト符号化では、移動物体領域と背景とを区別することにより、映像信号の高効率符号化を実現している。   The technology for extracting moving object regions from moving images has been researched and applied in various fields, such as moving image recognition technology and object coding that encodes moving images and sounds of people and backgrounds as separate objects. Yes. For example, moving image recognition technology is used to extract cars on the road and monitor suspicious persons with a surveillance camera. In object coding, the moving object region is distinguished from the background, thereby increasing the video signal level. Efficient encoding is realized.

動画像から移動物体領域を抽出する方法は、(1)背景差分などの差分処理を使用する方法(例えば、特許文献1及び2参照)、及び(2)物体の移動をベクトルで表現するオプティカルフローを使用する方法(例えば、非特許文献1参照)の大きく2つに分けることができる。   A method for extracting a moving object region from a moving image includes (1) a method using difference processing such as background difference (see, for example, Patent Documents 1 and 2), and (2) an optical flow that represents the movement of an object as a vector. Can be roughly divided into two methods (for example, see Non-Patent Document 1).

従来の背景差分による移動物体領域抽出法においては、カメラを固定する必要があるため、放送用の撮影等においては実用的ではないという問題が存在したが、特許文献1及び2の技法は、複数のカメラを使用して映像信号から移動物体領域を抽出することにより、上記のカメラ固定問題を解決する方法を開示している。一般に、差分処理を使用する方法では、背景画像が比較的容易に得られる場合には背景差分法を使用し、それ以外の場合にはフレーム間差分法を使用する。   In the conventional moving object region extraction method based on background difference, since it is necessary to fix the camera, there has been a problem that it is not practical in shooting for broadcasting and the like. A method for solving the above-described camera fixing problem by extracting a moving object region from a video signal using the above camera is disclosed. In general, in a method using difference processing, a background difference method is used when a background image can be obtained relatively easily, and an inter-frame difference method is used in other cases.

一方、従来のオプティカルフローを使用する方法においては、座標系において定義されるオプティカルフロー拘束方程式が観測系(カメラ)が運動しない場合に対するものであるため、カメラが運動する場合には不適であるが、非特許文献1の技法は、カメラの運動を考慮したオプティカルフロー拘束方程式を使用した方法を開示している。   On the other hand, in the conventional method using optical flow, since the optical flow constraint equation defined in the coordinate system is for the case where the observation system (camera) does not move, it is not suitable when the camera moves. The technique of Non-Patent Document 1 discloses a method using an optical flow constraint equation considering camera motion.

特開2003−179930号公報JP 2003-179930 A 特開2002−252849号公報JP 2002-252849 A

海老根 巧、他1名、「観測系の運動を考慮したオプティカルフロー推定に基づく運動物体検出」、電子情報通信学会論文誌D−II、2000年、vol.83,no.6,p.1498−1506Taku Ebine and one other, "Detection of moving objects based on optical flow estimation considering the motion of the observation system", IEICE Transactions D-II, 2000, vol. 83, no. 6, p. 1498-1506

しかし、背景差分法を使用する特許文献1及び2の方法においては、移動物体領域の検出に複数のカメラが必要となるため、3次元映像撮影などの複数のカメラの使用が可能な場合以外には実用的ではない。また、フレーム間差分法においては、物体が一時的に停止しているような場合に対して十分に対応できない。   However, in the methods of Patent Documents 1 and 2 using the background subtraction method, a plurality of cameras are required for detection of the moving object region. Is not practical. Further, the inter-frame difference method cannot sufficiently cope with a case where the object is temporarily stopped.

一方、オプティカルフローを使用する非特許文献1においては、カメラの動きは既知として処理を行っているが、ロボットビジョンの目に相当するCCDカメラのような場合には問題ないが、CCDカメラの動きが既知でない場合には対応できない。   On the other hand, in Non-Patent Document 1 using an optical flow, processing is performed on the assumption that the movement of the camera is known. However, there is no problem in the case of a CCD camera corresponding to the eyes of a robot vision. Cannot handle when is not known.

このように、動画像の移動物体領域検出に対する様々な方法が提案されているが、パンやチルト等のカメラの複雑な動きに対応する移動物体領域検出を実現するのは容易ではない。   As described above, various methods for moving object region detection of moving images have been proposed. However, it is not easy to realize moving object region detection corresponding to complicated camera movements such as panning and tilting.

そこで本発明の目的は、単一のテレビカメラで撮影した映像から、カメラの複雑な動きに対応する移動物体領域を高精度に検出する移動物体領域検出装置及び移動物体領域検出プログラムを提供することにある。   Accordingly, an object of the present invention is to provide a moving object area detecting apparatus and a moving object area detecting program for detecting a moving object area corresponding to a complicated movement of a camera with high accuracy from an image taken by a single television camera. It is in.

上記課題を解決するために、本発明による複数のフレーム画像からなるフレーム画像列から移動物体領域を検出する移動物体領域検出装置は、処理対象のフレーム画像について動きベクトルを検出する動きベクトル検出手段と、検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出する背景領域検出手段と、各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出する時間軸方向変動検出手段と、検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出する移動物体領域検出手段とを備えることを特徴とする。   In order to solve the above-described problem, a moving object region detection apparatus for detecting a moving object region from a frame image sequence including a plurality of frame images according to the present invention includes a motion vector detection unit that detects a motion vector for a processing target frame image. A background region detecting means for detecting a background region of a frame image by clustering the detected motion vectors, and a one-dimensional frequency for each of a plurality of sets of continuous frame sequences each consisting of frames of different time series A high-frequency component is extracted by performing conversion, and a time-axis direction fluctuation detecting unit that detects a time-axis direction fluctuation region in the frame image from a plurality of sets of the high-frequency components, the detected background region and the time-axis direction And a moving object area detecting means for detecting a final moving object area from the fluctuation area.

また、本発明の移動物体領域検出装置において、前記動きベクトル検出手段が、前記処理対象のフレーム画像に対して2次元1階離散ウェーブレット変換を施して2次元周波数成分を生成し、該2次元周波数成分を、前記処理対象のフレーム画像に対して水平及び垂直方向に2倍の大きさを有する拡大フレーム画像の2次元周波数成分の低周波成分に代入するとともに、前記拡大フレーム画像の2次元周波数成分の他の成分に0を代入する手段と、代入された前記拡大フレーム画像の2次元周波数成分に対して2次元1階離散ウェーブレット再構成を施し、前記拡大フレーム画像を生成する手段と、前記拡大フレーム画像から動きベクトルを検出する手段と、該検出した動きベクトルを前記フレーム画像に対応する動きベクトルに縮小し、前記処理対象の動きベクトルとして検出する手段とを有することを特徴とする。   In the moving object region detection device of the present invention, the motion vector detection means performs a two-dimensional first-order discrete wavelet transform on the processing target frame image to generate a two-dimensional frequency component, and the two-dimensional frequency component Substituting the component into the low-frequency component of the two-dimensional frequency component of the enlarged frame image having a size twice as large as that of the processing target frame image in the horizontal and vertical directions, and the two-dimensional frequency component of the enlarged frame image Means for substituting 0 for other components, means for performing two-dimensional first-order discrete wavelet reconstruction on the substituted two-dimensional frequency component of the enlarged frame image, and generating the enlarged frame image; Means for detecting a motion vector from the frame image; and reducing the detected motion vector to a motion vector corresponding to the frame image; And having a means for detecting a motion vector of the processing target.

また、本発明の移動物体領域検出装置において、前記背景領域検出手段が、前記動きベクトルをK−means法によりクラスタリングすることを特徴とする。   In the moving object region detection device of the present invention, the background region detection means clusters the motion vectors by a K-means method.

また、本発明の移動物体領域検出装置において、前記背景領域検出手段が、前記フレーム画像の中心から各ブロック位置までのベクトルの向きと各ブロックに対応する前記動きベクトルの向きとを比較して、前記撮影装置がズームイン又はズームアウトを行っているか否かを検出するズーム検出部を更に備えることを特徴とする。   Further, in the moving object region detection device of the present invention, the background region detection means compares the direction of the vector from the center of the frame image to each block position and the direction of the motion vector corresponding to each block, The image pickup apparatus further includes a zoom detection unit that detects whether the zoom-in or zoom-out is performed.

また、本発明の移動物体領域検出装置において、前記時間軸方向変動検出手段が、ドビュッシーウェーブレット法により各々が時系列の異なるフレームからなる4組の連続フレーム列の各組に対して1次元1階離散ウェーブレット変換を施すことにより、高周波成分を抽出することを特徴とする。   Further, in the moving object region detection device of the present invention, the time axis direction fluctuation detection means may perform one-dimensional first floor for each set of four consecutive frame sequences each consisting of frames having different time series by the Debussy wavelet method. A high-frequency component is extracted by performing discrete wavelet transform.

また、本発明の移動物体領域検出装置において、前記移動物体領域検出手段が、検出された前記背景領域の信号成分を2値化し、1と0の反転処理を行うことにより移動物体領域を生成し、該移動物体領域と前記時間軸方向変動領域の論理積を計算することにより最終的な移動物体領域を検出することを特徴とする。   In the moving object area detecting device of the present invention, the moving object area detecting unit binarizes the detected signal component of the background area and performs a reversal process of 1 and 0 to generate a moving object area. The final moving object region is detected by calculating a logical product of the moving object region and the time axis direction variation region.

また、本発明の移動物体領域検出装置において、前記クラスタリングを実行する前に、検出された前記動きベクトルの平滑化を行う動きベクトル平滑化手段を更に備えることを特徴とする。   The moving object region detection apparatus according to the present invention further includes motion vector smoothing means for smoothing the detected motion vector before executing the clustering.

また、本発明による移動物体領域検出プログラムは、複数のフレーム画像からなるフレーム画像列から移動物体領域を検出する移動物体領域検出装置を構成するコンピュータに、処理対象のフレーム画像について動きベクトルを検出するステップと、検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出するステップと、各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出するステップと、検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出するステップとを実行させることを特徴とする。   The moving object region detection program according to the present invention detects a motion vector for a frame image to be processed by a computer constituting a moving object region detection device that detects a moving object region from a frame image sequence composed of a plurality of frame images. A step of clustering the detected motion vectors to detect a background region of a frame image, and a one-dimensional frequency conversion for each set of a plurality of sets of continuous frame sequences each consisting of frames of different time series To extract a high-frequency component, detect a time-axis variation region in the frame image from a plurality of sets of the high-frequency components, and from the detected background region and time-axis variation region, And a step of detecting a typical moving object region.

本発明によれば、パンやチルト等により背景が複雑に移動する場合に対しても、移動物体領域を的確に検出することが可能になる。   According to the present invention, it is possible to accurately detect a moving object region even when the background moves in a complicated manner due to panning or tilting.

本発明による一実施例の移動物体領域検出装置のブロック図である。It is a block diagram of the moving object area | region detection apparatus of one Example by this invention. 本発明による一実施例の動きベクトル検出部のブロック図である。It is a block diagram of the motion vector detection part of one Example by this invention. 本発明による一実施例の背景領域検出部のブロック図である。It is a block diagram of the background area | region detection part of one Example by this invention. 本発明による一実施例の動きベクトル検出部における、2次元1階離散ウェーブレット再構成による画像拡大の処理プロセスを示している。FIG. 6 shows a process for enlarging an image by two-dimensional first-order discrete wavelet reconstruction in a motion vector detection unit according to an embodiment of the present invention. 本発明による一実施例の各ブロックに対する移動ベクトルの平滑化処理を示している。Fig. 6 shows a smoothing process of a movement vector for each block according to an embodiment of the present invention. 本発明による一実施例の時間軸方向に対する1次元1階離散ウェーブレット分解の処理方法を示している。3 shows a processing method of one-dimensional first-order discrete wavelet decomposition in the time axis direction according to an embodiment of the present invention. 本発明による一実施例の第1高周波成分(EvenH)に対する時間軸方向の変動領域抽出処理方法を示している。5 shows a fluctuation region extraction processing method in the time axis direction for a first high-frequency component (EvenH t ) according to an embodiment of the present invention. 本発明による一実施例の時間軸方向に対する1次元1階離散ウェーブレット分解の処理方法を示している。1 shows a processing method for one-dimensional first-order discrete wavelet decomposition in the time axis direction according to an embodiment of the present invention. 本発明による一実施例の第2高周波成分(OddH)に対する時間軸方向の変動領域抽出の処理方法を示している。4 shows a processing method for extracting a fluctuation region in the time axis direction for the second high-frequency component (OddH t ) according to an embodiment of the present invention. 本発明による一実施例の1フレーム分の時間軸方向に対する変動領域の抽出処理方法を示している。FIG. 6 shows a fluctuation region extraction processing method for the time axis direction of one frame according to an embodiment of the present invention. FIG. 本発明による一実施例の移動物体領域検出装置の動作フローチャートである。It is an operation | movement flowchart of the moving object area | region detection apparatus of one Example by this invention.

本発明における「移動物体」とは、人や物などの任意の移動する被写体を含む。以下に、本発明の一実施例による移動物体領域検出装置について、図1〜図11を参照して詳細に説明する。   The “moving object” in the present invention includes an arbitrary moving subject such as a person or an object. Hereinafter, a moving object region detection apparatus according to an embodiment of the present invention will be described in detail with reference to FIGS.

[移動物体領域検出装置]
図1は、本発明による一実施例の移動物体領域検出装置1のブロック図を示している。本実施例の移動物体領域検出装置1は、動きベクトル検出部11と、動きベクトル平滑化部12と、背景領域検出部13と、時間軸方向変動領域検出部14と、移動物体領域検出部15とを備える。本発明による一実施例の移動物体領域検出装置1の各処理に用いるデータは、移動物体領域検出装置1が備える記憶部(図示せず)に適宜格納することができる。
[Moving object area detector]
FIG. 1 shows a block diagram of a moving object area detecting apparatus 1 according to an embodiment of the present invention. The moving object region detection apparatus 1 according to the present embodiment includes a motion vector detection unit 11, a motion vector smoothing unit 12, a background region detection unit 13, a time axis direction variation region detection unit 14, and a moving object region detection unit 15. With. Data used for each process of the moving object area detection device 1 according to an embodiment of the present invention can be appropriately stored in a storage unit (not shown) included in the moving object area detection device 1.

本実施例では、フレーム画像の空間領域及び時間領域における変動の双方を考慮して移動物体領域の検出を行う。   In this embodiment, the moving object region is detected in consideration of both the spatial region and the temporal region of the frame image.

まず、空間領域において背景領域検出を行うための構成要素について説明する。   First, components for performing background area detection in the spatial area will be described.

(空間領域における背景領域検出)
動きベクトル検出部11は、フレーム画像信号成分値代入部21と、フレーム画像拡大部22と、動きベクトル決定部23と、動きベクトル縮小部24とを備えている。
(Background area detection in space area)
The motion vector detection unit 11 includes a frame image signal component value substitution unit 21, a frame image enlargement unit 22, a motion vector determination unit 23, and a motion vector reduction unit 24.

動きベクトル検出部11は、処理対象のフレーム画像を所定のブロックに分割し、ブロックマッチング法により全てのブロックに対して動きベクトルを検出する。本実施例においては、雑音等に強く、且つ、精度の高い移動物体領域検出を行うために、ブロック画像を水平及び垂直方向に2倍に拡大して1/2画素精度で動きベクトルを決定する。図4に示すように、フレーム画像信号成分値代入部21は、処理対象のフレーム画像に対して2次元1階離散ウェーブレット変換を施して2次元周波数成分を生成し、該2次元周波数成分を、処理対象のフレーム画像に対して水平及び垂直方向に2倍の大きさを有する拡大フレーム画像の2次元周波数成分の低周波成分に代入するとともに、拡大フレーム画像の2次元周波数成分の他の成分に0を代入する。具体的には、まず、時刻tのフレーム画像F(t)をM×Nのブロックに分割し、各ブロックをウェーブレット変換する。以下、ブロックサイズが8×8であるものとして説明する。本実施例においては、得られた周波数成分を水平及び垂直方向に2倍に拡大した16×16画素のブロックの2次元1階離散ウェーブレット分解成分の水平低周波且つ垂直低周波(LL)成分とみなし、得られた8×8画素ブロックの周波数成分をウェーブレット分解の0階層目のLL成分をLL(t)に代入する。他の水平低周波且つ垂直高周波(LH)成分、水平高周波且つ垂直低周波(HL)成分、水平高周波且つ垂直高周波(HH)成分には0を代入する。得られた16×16画素のブロックに対する2次元周波数成分をフレーム画像拡大部22に出力する。 The motion vector detection unit 11 divides the processing target frame image into predetermined blocks, and detects motion vectors for all the blocks by the block matching method. In this embodiment, in order to detect a moving object region that is resistant to noise and the like with high accuracy, the block image is expanded twice in the horizontal and vertical directions, and a motion vector is determined with 1/2 pixel accuracy. . As shown in FIG. 4, the frame image signal component value substitution unit 21 performs a two-dimensional first-order discrete wavelet transform on the processing target frame image to generate a two-dimensional frequency component, and the two-dimensional frequency component is While substituting for the low-frequency component of the two-dimensional frequency component of the enlarged frame image having twice the size in the horizontal and vertical directions with respect to the frame image to be processed, and for other components of the two-dimensional frequency component of the enlarged frame image Substitute 0. Specifically, first, the frame image F (t) at time t is divided into M × N blocks, and each block is subjected to wavelet transform. In the following description, it is assumed that the block size is 8 × 8. In this embodiment, the horizontal low-frequency and vertical low-frequency (LL) components of the two-dimensional first-order discrete wavelet decomposition component of a block of 16 × 16 pixels obtained by doubling the obtained frequency component in the horizontal and vertical directions, The frequency components of the 8 × 8 pixel block thus obtained are substituted for the LL component in the 0th layer of wavelet decomposition into LL 0 (t). 0 is substituted for other horizontal low frequency and vertical high frequency (LH 0 ) components, horizontal high frequency and vertical low frequency (HL 0 ) components, and horizontal high frequency and vertical high frequency (HH 0 ) components. The two-dimensional frequency component for the obtained block of 16 × 16 pixels is output to the frame image enlargement unit 22.

フレーム画像拡大部22は、代入された拡大フレーム画像の空間領域2次元周波数成分に対して2次元1階離散ウェーブレット再構成を施し、2値化し、拡大フレーム画像F’(t)を生成して動きベクトル決定部23に出力する。   The frame image enlargement unit 22 performs two-dimensional first-order discrete wavelet reconstruction on the spatial domain two-dimensional frequency component of the assigned enlarged frame image, binarizes it, and generates an enlarged frame image F ′ (t) The result is output to the motion vector determination unit 23.

同様に、フレーム画像信号成分値代入部21及びフレーム画像拡大部22により時刻t+1のフレーム画像F(t+1)を処理し、拡大されたフレーム画像F’(t+1)を生成して動きベクトル決定部23に出力する。   Similarly, the frame image signal component value assigning unit 21 and the frame image enlarging unit 22 process the frame image F (t + 1) at time t + 1 to generate an enlarged frame image F ′ (t + 1), and a motion vector determining unit 23. Output to.

動きベクトル決定部23は、入力したフレーム画像F’(t)を基準フレーム、F’(t+1)を参照フレームとし、ブロックマッチング法により拡大されたブロックに対する動きベクトルを決定して動きベクトル縮小部24に出力する。   The motion vector determination unit 23 uses the input frame image F ′ (t) as a reference frame and F ′ (t + 1) as a reference frame, determines a motion vector for a block expanded by the block matching method, and a motion vector reduction unit 24. Output to.

動きベクトル縮小部24は、入力した拡大された画像に対する動きベクトルを縮小して元のフレーム画像F(t)に対する動きベクトルを生成して動きベクトル平滑化部12に出力する。   The motion vector reduction unit 24 reduces the motion vector for the input enlarged image, generates a motion vector for the original frame image F (t), and outputs the motion vector to the motion vector smoothing unit 12.

このように、動きベクトル検出部11は、入力したフレーム画像を所定のブロックに分割して各ブロックの画像を水平及び垂直方向に拡大し、時刻tのフレーム画像F(t)と時刻t+1のフレーム画像F(t+1)とからブロックマッチング法により1/2画素精度で動きベクトルを計算し、動きベクトル平滑化部12に出力する。   In this way, the motion vector detection unit 11 divides the input frame image into predetermined blocks, expands the image of each block in the horizontal and vertical directions, and generates the frame image F (t) at time t and the frame at time t + 1. A motion vector is calculated from the image F (t + 1) by a block matching method with a ½ pixel accuracy and output to the motion vector smoothing unit 12.

尚、フレーム画像信号成分値代入部21及びフレーム画像拡大部22での処理を再度繰り返して水平及び垂直方向に対してそれぞれ4倍に画像を拡大し、1/4画素精度で動きベクトルを検出することもできる。   Note that the processing in the frame image signal component value substitution unit 21 and the frame image enlargement unit 22 is repeated again to enlarge the image four times in the horizontal and vertical directions, and detect a motion vector with 1/4 pixel accuracy. You can also.

動きベクトル平滑化部12は、フレーム画像を構成するブロックに対して、該ブロックと該ブロックの周囲の所定の数のブロックに関連づけられた動きベクトルの成分の中央値を計算して、該中央値でブロックの動きベクトルの成分を置き換えることにより動きベクトルの平滑化を行う。この動きベクトルの平滑化は、動きベクトルの検出の際に、移動領域の境界がブロック境界にほぼ重なる場合に動きベクトルの検出エラーが発生するため、検出エラーを回避するために行うものである。   The motion vector smoothing unit 12 calculates the median of motion vector components associated with the block and a predetermined number of blocks around the block for the block constituting the frame image, and calculates the median The motion vector is smoothed by replacing the motion vector component of the block. This smoothing of the motion vector is performed in order to avoid a detection error because a motion vector detection error occurs when the motion vector is detected when the boundary of the moving region substantially overlaps the block boundary.

ここで、図5を参照して動きベクトルの平滑化処理を説明する。   Here, the motion vector smoothing process will be described with reference to FIG.

まず、i,jをそれぞれ水平及び垂直方向のブロック位置として、時刻tのフレーム画像F(t)内の16×16画素サイズの各ブロックをB(i,j)とし、各B(i,j)に対して、動きベクトル検出部12により得られた動きベクトルMV_B(i,j)を割り付ける。次に、3×3のフィルタ(図示せず)により、全てのMV_B(i,j)に対して、周辺の3×3領域における動きベクトル成分の中央値を計算し、得られた中央値でMV_B(i,j)の動きベクトルの成分を置き換える。これにより、ブロック間の動きベクトルの変化が平滑化され、動きベクトル検出エラーを回避することが可能になる。   First, i and j are the block positions in the horizontal and vertical directions, and each block of 16 × 16 pixel size in the frame image F (t) at time t is B (i, j), and each B (i, j ) Is assigned the motion vector MV_B (i, j) obtained by the motion vector detection unit 12. Next, the median of motion vector components in the surrounding 3 × 3 region is calculated for all MV_B (i, j) by a 3 × 3 filter (not shown), and the obtained median Replace the motion vector component of MV_B (i, j). Thereby, the change of the motion vector between blocks is smoothed, and it becomes possible to avoid a motion vector detection error.

背景領域検出部13は、ズーム検出部31と、ズーム用背景領域生成部32と、動きベクトルクラスタリング部33とを備えている。背景領域検出部13は、検出された動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出する。   The background region detection unit 13 includes a zoom detection unit 31, a zoom background region generation unit 32, and a motion vector clustering unit 33. The background area detection unit 13 detects the background area of the frame image by clustering the detected motion vectors.

ズーム検出部31は、フレーム画像の中心から各ブロック位置までのベクトルの向きと各ブロックに対応する動きベクトルの向きとを比較して、撮影装置がズームイン又はズームアウトを行っているか否かを検出する。ズームインを行っている場合には、背景に相当する領域の動きベクトルは、ほぼ一定の大きさを持ち、フレーム画像の中心から外側に向き、ズームアウトを行っている場合には、動きベクトルはフレーム画像の中心の1点に向いていることが予想される。これに対して、移動物体領域の動きベクトルは、背景領域とは異なる方向を向いていることが予想される。そこで、本実施例においては、全ての動きベクトルMV_Bに対してそのベクトル方向に線分を伸ばし、全ての動きベクトルMV_Bの半数以上に対する線分が、所定の小空間領域ZoomArea(x,y)内で交差する場合にカメラがズームイン又はズームアウトを行っていると判定する。ズームイン又はズームアウトを行っていると判定した場合には、交差した線分に対応するブロック情報を含む背景領域情報をズーム用背景領域生成部32に出力し、ズームイン又はズームアウトを行っていると判定しなかった場合には、動きベクトルを動きベクトルクラスタリング部33に出力する。   The zoom detection unit 31 compares the direction of the vector from the center of the frame image to each block position and the direction of the motion vector corresponding to each block, and detects whether or not the photographing apparatus is zooming in or zooming out. To do. When zooming in, the motion vector of the area corresponding to the background has a substantially constant size. When moving out from the center of the frame image and zooming out, the motion vector is a frame. It is expected to be directed to one point in the center of the image. On the other hand, the motion vector of the moving object region is expected to be in a different direction from the background region. Therefore, in the present embodiment, the line segments are extended in the vector direction with respect to all the motion vectors MV_B, and the line segments for more than half of all the motion vectors MV_B are within a predetermined small space area ZoomArea (x, y). It is determined that the camera is zooming in or out when crossing at. When it is determined that zoom-in or zoom-out is performed, background area information including block information corresponding to the intersected line segments is output to the zoom background area generation unit 32, and zoom-in or zoom-out is performed. If not determined, the motion vector is output to the motion vector clustering unit 33.

ズーム用背景領域生成部32は、入力した背景領域情報から背景領域BackGround(t)を生成し、移動物体領域検出部15に出力する。   The zoom background region generation unit 32 generates a background region BackGround (t) from the input background region information and outputs the background region BackGround (t) to the moving object region detection unit 15.

動きベクトルクラスタリング部33は、入力した動きベクトルに対してクラスタリングを行い、背景領域の検出を行う。撮影系が静止している場合には、背景が静止しているため背景領域の動きベクトルの成分は0である。従って、動きベクトルのクラスタリングを行うことにより、背景領域と移動物体領域とを分割することが可能となる。また、撮影系がパン(又はチルト)を行っている場合には、背景領域の動きベクトルは、特定の方向に向いているとともに、任意の一定の大きさを有していると考えられる。従って、背景が静止している場合と同様に動きベクトルのクラスタリングを行うことにより、パン(又はチルト)により移動する背景と、パン(又はチルト)及び物体自体により移動する移動物体領域とを分割することが可能となる。   The motion vector clustering unit 33 performs clustering on the input motion vector and detects a background region. When the photographing system is stationary, the motion vector component in the background area is zero because the background is stationary. Therefore, the background region and the moving object region can be divided by performing motion vector clustering. Further, when the photographing system is panning (or tilting), it is considered that the motion vector of the background area is oriented in a specific direction and has an arbitrary constant magnitude. Accordingly, by performing motion vector clustering in the same manner as when the background is stationary, the background moving by panning (or tilting) and the moving object region moving by panning (or tilting) and the object itself are divided. It becomes possible.

背景領域と移動物体領域の分割処理は、以下のように、K−means法によるクラスタリングにより行う。まず、分割数(クラスタ数)Kと各クラスタに割り当てるクラスタ中心の初期値を設定する。移動物体領域の検出のためには、フレーム画像を背景とそれ以外の移動物体領域の2つに分割すればよいため、クラスタ数Kは2以上の比較的小さな値に設定する。次に、全ての動きベクトルをK個のクラスタに振り分け、各クラスタに属するベクトル成分の平均値を計算して再度クラスタ中心を求める。上記の動きベクトルの振り分けとクラスタ中心の計算を繰り返し、クラスタ中心の値が変化しなくなるまで繰り返す。クラスタ中心の値が変化しなくなった時に、全てのベクトルに対してクラスタ中心からの距離を計算し、クラスタごとに距離の分散を求める。本実施例においては、求めた距離の分散が最も小さいクラスタに属する動きベクトルを背景領域の動きベクトルとみなし、そのクラスタに属する動きベクトルに対応するブロックを使用して背景領域BackGround(t)を生成して移動物体領域検出部15に出力する。   The division process of the background area and the moving object area is performed by clustering by the K-means method as follows. First, the number of divisions (number of clusters) K and the initial value of the cluster center assigned to each cluster are set. In order to detect the moving object area, the frame image may be divided into two parts, that is, the background and the other moving object area. Therefore, the number K of clusters is set to a relatively small value of 2 or more. Next, all motion vectors are assigned to K clusters, the average value of vector components belonging to each cluster is calculated, and the cluster center is obtained again. The above motion vector assignment and cluster center calculation are repeated until the cluster center value does not change. When the value at the cluster center stops changing, the distance from the cluster center is calculated for all vectors, and the dispersion of the distance is obtained for each cluster. In this embodiment, the motion vector belonging to the cluster having the smallest variance of the obtained distance is regarded as the motion vector of the background region, and the background region BackGround (t) is generated using the block corresponding to the motion vector belonging to the cluster. And output to the moving object region detection unit 15.

このように、背景領域検出部13は、動きベクトル平滑化部12から入力した動きベクトルから背景領域を検出し、背景領域BackGround(t)を生成して移動物体領域検出部15に出力する。   As described above, the background region detection unit 13 detects the background region from the motion vector input from the motion vector smoothing unit 12, generates the background region BackGround (t), and outputs it to the moving object region detection unit 15.

以上のように、空間領域においてフレーム画像信号内の移動物体領域検出を行うことが可能になる。   As described above, it is possible to detect the moving object region in the frame image signal in the spatial region.

次に、時間軸方向に対する変動領域検出について説明する。   Next, the fluctuation area detection with respect to the time axis direction will be described.

(時間軸方向の変動領域検出)
時間軸方向変動領域検出部14は、各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出する。本実施例においては、1次元周波数変換において、例えばウェーブレット長4のドビュッシー(Daubechies)ウェーブレット法を使用して1次元1階離散ウェーブレット変換を施す例について説明する。
(Detection of fluctuation area in time axis direction)
The time-axis direction fluctuation region detection unit 14 performs one-dimensional frequency conversion on each set of a plurality of sets of continuous frame sequences each composed of frames having different time series, and extracts a high-frequency component. From the above, the fluctuation region in the time axis direction in the frame image is detected. In the present embodiment, an example will be described in which one-dimensional first-order discrete wavelet transform is performed in the one-dimensional frequency transform using, for example, a Debusie wavelet method having a wavelet length of 4.

まず、図6に示すように、ウェーブレット長に対応する連続フレーム列F(t−3)〜F(t)の時間軸方向に対して1次元1階離散ウェーブレット分解を行う。これにより、時間軸方向の第1高周波成分EvenH(t)が得られる。得られた第1高周波成分EvenH(t)に対して所定の閾値Thで2値化し、フレーム画像列から時間軸方向変動領域フレーム画像列を抜き出す。得られた第1高周波成分EvenH(t)は、ドビュッシーウェーブレット法の2次のウェーブレット長、即ち、4フレームに亘る変動領域の変化を含んでいる。 First, as shown in FIG. 6, one-dimensional first-order discrete wavelet decomposition is performed with respect to the time axis direction of the continuous frame sequences F (t-3) to F (t) corresponding to the wavelet length. Thereby, the first high-frequency component EvenH t (t 0 ) in the time axis direction is obtained. The obtained first high-frequency component EvenH t (t 0 ) is binarized with a predetermined threshold Th, and a time-axis direction variation region frame image sequence is extracted from the frame image sequence. The obtained first high frequency component EvenH t (t 0 ) includes the second-order wavelet length of the debussy wavelet method, that is, the change of the fluctuation region over four frames.

同様に、第1高周波成分EvenH(t)に対して2フレーム進んだ連続フレーム列F(t−1)〜F(t+2)を使用して、第1高周波成分EvenH(t+1)を計算する。 Similarly, using the first high frequency component EvenH t (t 0) the continuous frame sequence proceeds 2 frame to F (t-1) ~F the (t + 2), the first high frequency component EvenH t (t 0 +1) Calculate

続いて、図7に示すように、第1高周波成分EvenH(t)と第1高周波成分EvenH(t+1)の論理積を計算することにより、フレーム画像F(t−1)及びF(t)に対する時間軸方向変動領域を抽出する。得られた時間軸方向変動領域は、原画像で2フレーム分の変動領域を含んでいる。 Subsequently, as shown in FIG. 7, by calculating the logical product of the first high-frequency component EvenH t (t 0 ) and the first high-frequency component EvenH t (t 0 +1), the frame image F (t−1) and A time axis direction fluctuation region with respect to F (t) is extracted. The obtained time axis direction fluctuation region includes a fluctuation region of two frames in the original image.

次に、図8に示すように、第1高周波成分EvenH(t)に対して1フレーム分だけずらしたF(t−2)〜F(t+1)のフレーム列に対して時間軸方向の1次元1階離散ウェーブレット分解を行う。これにより、時間軸方向の第2高周波成分OddH(t)を求める。次に、得られた第2高周波成分OddH(t)を所定の閾値Thで2値化し、フレーム画像列から時間軸方向変動領域フレーム列を抽出する。得られた第2高周波成分OddH(t)も、第1高周波成分EvenH(t)と同様に、ドビュッシーウェーブレット法の2次のウェーブレット長、即ち4フレームに亘る時間軸方向変動領域を含んでいる。 Next, as shown in FIG. 8, with respect to the frame sequence of F (t−2) to F (t + 1) shifted by one frame with respect to the first high-frequency component EvenH t (t 0 ), Perform one-dimensional first-order discrete wavelet decomposition. Thereby, the second high-frequency component OddH t (t 0 ) in the time axis direction is obtained. Next, the obtained second high-frequency component OddH t (t 0 ) is binarized with a predetermined threshold Th, and a time-axis direction variation region frame sequence is extracted from the frame image sequence. The resulting second high frequency component OddH t (t 0), similar to the first high frequency component EvenH t (t 0), 2-order wavelet length of Debussy wavelet method, i.e. the time axis direction variation region spreading four frames Contains.

同様に、第2高周波成分OddH(t)に対して2フレーム進んだ連続フレーム列F(t)〜F(t+3)を使用して、第2高周波成分OddH(t+1)を計算する。 Similarly, using the second high frequency component OddH t (t 0) the continuous frame sequence proceeds 2 frame to F (t) to F a (t + 3), calculating a second high frequency component OddH t (t 0 +1) To do.

続いて、図9に示すように、第2高周波成分OddH(t)と第2高周波成分OddH(t+1)の論理積を計算することにより、フレームF(t)及びF(t+1)に対する時間軸方向変動領域を抽出する。得られた時間軸方向変動領域は、原画像で2フレーム分の変動領域を含んでいる。 Subsequently, as shown in FIG. 9, by calculating the logical product of the second high frequency component OddH t (t 0 ) and the second high frequency component OddH t (t 0 +1), the frames F (t) and F (t + 1) are calculated. ) In the time axis direction. The obtained time axis direction fluctuation region includes a fluctuation region of two frames in the original image.

最後に、図10に示すように、第1高周波成分EvenH(t)と第1高周波成分EvenH(t+1)と第2高周波成分OddH(t)と第2高周波成分OddH(t+1)との論理積を計算し、原画像の或るフレーム画像F(t)に対する時間軸方向変動領域MovArea(t)を生成して移動物体領域検出部15に出力する。 Finally, as shown in FIG. 10, the first high-frequency component EvenH t (t 0 ), the first high-frequency component EvenH t (t 0 +1), the second high-frequency component OddH t (t 0 ), and the second high-frequency component OddH t A logical product with (t 0 +1) is calculated, and a time-axis direction variation region MovArea (t) for a certain frame image F (t) of the original image is generated and output to the moving object region detection unit 15.

以上のように、フレーム画像信号の時間軸方向に対する変動領域を抽出することができる。   As described above, it is possible to extract the fluctuation region with respect to the time axis direction of the frame image signal.

こうして背景領域と時間軸方向変動領域とから最終的な移動物体領域を検出する。移動物体領域検出部15は、検出された背景領域の信号成分を2値化し、1と0の反転処理を行うことにより移動物体領域を生成し、該移動物体領域と時間軸方向変動領域の論理積を計算することにより最終的な移動物体領域を検出する。具体的には、背景領域検出部13により得られたBackGround(t)と、時間軸方向変動検出部14により得られた1フレーム分の時間軸方向変動領域MovArea(t)とから最終的な移動物体領域を検出する。具体的には、まずBackGround(t)に対して1と0の反転処理(即ち論理演算のNOT処理)を行い、移動物体領域ForeGround(t)を得る。次に、ForeGround(t)と1フレーム分の時間軸方向変動領域の論理積(論理演算のAND)を計算することにより、空間領域における移動物体領域と時間軸方向の変動領域との重複した領域を最終的な移動物体領域として決定する。   Thus, the final moving object region is detected from the background region and the time axis direction variation region. The moving object region detecting unit 15 binarizes the detected signal component of the background region, generates a moving object region by performing inversion processing of 1 and 0, and calculates the logic of the moving object region and the time axis direction variation region. The final moving object region is detected by calculating the product. Specifically, the final movement from BackGround (t) obtained by the background region detection unit 13 and the time axis direction variation region MovArea (t) for one frame obtained by the time axis direction variation detection unit 14. Detect the object area. Specifically, first, reverse processing of 1 and 0 (that is, NOT processing of logical operation) is performed on BackGround (t) to obtain a moving object region Foreground (t). Next, by calculating the logical product (AND of logical operation) of the Foreground (t) and the time axis direction change area for one frame, the overlapping area of the moving object area and the time axis direction change area in the space area Is determined as the final moving object region.

このように、本発明の一実施例による移動物体領域検出装置により、パンやチルト等により背景が複雑に移動する場合に対しても、移動物体領域を的確に検出することが可能となる。   As described above, the moving object region detection apparatus according to the embodiment of the present invention can accurately detect the moving object region even when the background moves in a complicated manner due to panning or tilting.

次に、本発明による一実施例の移動物体領域検出装置の動作について説明する。   Next, the operation of the moving object region detection apparatus according to an embodiment of the present invention will be described.

[移動物体領域検出装置の動作]
図11は、本発明による一実施例の移動物体領域検出装置の動作を示すフローチャートである。尚、構成要素の説明に関しては、図1の符号を使用する。
[Operation of moving object area detector]
FIG. 11 is a flowchart showing the operation of the moving object area detecting apparatus according to the embodiment of the present invention. For the description of the constituent elements, the reference numerals in FIG. 1 are used.

まず、ステップS1101にて、空間領域において移動物体領域の検出を行うか否かを判断する。   First, in step S1101, it is determined whether or not to detect a moving object region in the spatial region.

ステップS1101にて空間領域で移動物体領域の検出を行うと判断した場合、ステップS1102にて、複数のフレーム画像を所定のブロックに分割し、ブロックマッチング法により全てのブロックに対して動きベクトルを検出する。例えば、時刻tのフレーム画像F(t)と、F(t)に対して1フレーム進んだ時刻t+1のフレーム画像F(t+1)とを所定のブロックに分割し、ウェーブレット変換を施した後に所定の閾値を使用して2値化して空間領域2次元周波数成分を生成し、ブロックマッチング法により全てのブロックに対して時刻tにおける動きベクトルを検出する。   If it is determined in step S1101 that the moving object area is to be detected in the spatial area, a plurality of frame images are divided into predetermined blocks in step S1102, and motion vectors are detected for all blocks by the block matching method. To do. For example, the frame image F (t) at time t and the frame image F (t + 1) at time t + 1 advanced by one frame with respect to F (t) are divided into predetermined blocks, and after wavelet transform is performed, Binarization is performed using a threshold value to generate a spatial domain two-dimensional frequency component, and a motion vector at time t is detected for all blocks by a block matching method.

次に、ステップS1103にて、動きベクトル平滑化部12により、検出した動きベクトルの各々に対して、F(t)における任意のブロックとその周囲の所定の数のブロックとに対して関連づけられた動きベクトルの成分の中央値を計算し、該中央値で動きベクトルの成分を置き換えることにより動きベクトルを平滑化する。   Next, in step S1103, the motion vector smoothing unit 12 associates each detected motion vector with an arbitrary block in F (t) and a predetermined number of blocks around it. The median of the motion vector components is calculated, and the motion vector is smoothed by replacing the motion vector components with the median.

次に、ステップS1104にて、背景領域検出部13により、平滑化した動きベクトルをクラスタリングすることにより、フレーム画像の背景領域を検出し、背景領域BackGround(t)を生成する。   Next, in step S1104, the background region detection unit 13 clusters the smoothed motion vectors, thereby detecting the background region of the frame image and generating the background region BackGround (t).

次に、ステップS1105にて、時間軸方向変動領域検出部14により、各々が時系列の異なるフレームからなる4組の連続フレーム列に対して1次元周波数変換を施し、高周波成分を抽出し、4組の該高周波成分に対して論理積を計算することにより時間軸方向の変動領域を検出する。例えば、時刻(t−3)〜(t+3)までのフレーム画像のうちF(t−3)〜F(t),F(t−2)〜F(t+1),F(t−1)〜F(t+2)及びF(t)〜F(t+3)の4組の連続する4フレームの各々をウェーブレット変換した後に2値化して時間軸方向2次元周波数成分を生成し、該時間軸方向2次元周波数成分から水平及び垂直方向の高周波成分を抽出し、抽出された4組の該高周波成分に対して論理積を計算することにより時刻tにおける時間軸方向の変動領域MovArea(t)を生成する。   Next, in step S1105, the time-axis direction fluctuation region detection unit 14 performs one-dimensional frequency conversion on four sets of continuous frame sequences each consisting of frames of different time series, and extracts high-frequency components. A time domain fluctuation region is detected by calculating a logical product for the set of high-frequency components. For example, among the frame images from time (t-3) to (t + 3), F (t-3) to F (t), F (t-2) to F (t + 1), and F (t-1) to F Each of the four consecutive frames of (t + 2) and F (t) to F (t + 3) is wavelet transformed and then binarized to generate a time-axis direction two-dimensional frequency component, and the time-axis direction two-dimensional frequency The horizontal and vertical high-frequency components are extracted from the components, and a logical product is calculated for the four sets of the extracted high-frequency components, thereby generating a time-axis direction fluctuation region MovArea (t) at time t.

最後に、ステップS1106にて、移動物体領域検出部15により、検出された背景領域と時間軸方向変動領域とから最終的な移動物体領域を検出する。例えば、生成した前記背景領域の信号成分に対して1と0の反転処理を施して移動物体領域ForeGround(t)を生成し、得られたForeGround(t)と時間軸方向変動領域MovArea(t)との論理積を計算することにより時刻tにおける最終的な移動物体領域を決定する。   Finally, in step S1106, the moving object region detection unit 15 detects the final moving object region from the detected background region and time axis direction variation region. For example, a reversal process of 1 and 0 is performed on the generated signal component of the background region to generate a moving object region Foreground (t), and the obtained Foreground (t) and time axis direction variation region MovArea (t) To determine the final moving object region at time t.

このように、時刻tにおける移動物体領域を高精度に検出することが可能となる。   In this way, it is possible to detect the moving object region at time t with high accuracy.

更に、本発明の一態様として、移動物体領域検出装置1として機能するコンピュータとして構成させることができる。コンピュータに、前述した各構成要素を実現させるためのプログラムは、各コンピュータの内部又は外部に備えられる記憶部に記憶される。そのような記憶部は、外付けハードディスクなどの外部記憶装置、或いはROM又はRAMなどの内部記憶装置で実現することができる。各コンピュータに備えられる制御部は、中央演算処理装置(CPU)などの制御で実現することができる。即ち、CPUが、各構成要素の機能を実現するための処理内容が記述されたプログラムを、適宜、記憶部から読み込んで、各構成要素の機能をコンピュータ上で実現させることができる。ここで、各成要素の機能をハードウェアの全部又は一部で実現しても良い。   Furthermore, as one embodiment of the present invention, a computer that functions as the moving object region detection device 1 can be configured. A program for causing a computer to realize each of the above-described components is stored in a storage unit provided inside or outside each computer. Such a storage unit can be realized by an external storage device such as an external hard disk or an internal storage device such as ROM or RAM. The control unit provided in each computer can be realized by control of a central processing unit (CPU) or the like. In other words, the CPU can appropriately read from the storage unit a program in which the processing content for realizing the function of each component is described, and realize the function of each component on the computer. Here, the function of each component may be realized by all or part of the hardware.

本発明によれば、単一のテレビカメラで撮影した映像からカメラの複雑な動きに対応する移動物体領域を高精度に検出することが可能になるので、トラッキングやマッチングなどにおいて移動物体領域検出を必要とする自動監視装置や高度道路交通システム(ITS)、放送通信などの映像信号の高効率符号化が要求されるオブジェクト符号化及び復号装置、高解像度動画装置、多視点映像装置などに有用である。   According to the present invention, it is possible to detect a moving object region corresponding to a complicated movement of a camera from an image captured by a single television camera with high accuracy. Useful for required automatic monitoring devices, intelligent traffic systems (ITS), object coding and decoding devices that require high-efficiency coding of video signals such as broadcast communications, high-resolution video devices, multi-view video devices, etc. is there.

1 移動物体領域検出装置
11 動きベクトル検出部
12 動きベクトル平滑化部
13 背景領域検出部
14 時間軸方向変動検出部
15 移動物体領域検出部
21 フレーム画像信号成分値代入部
22 フレーム画像拡大部
23 動きベクトル決定部
24 動きベクトル縮小部
31 ズーム検出部
32 ズーム用背景領域生成部
33 動きベクトルクラスタリング部
DESCRIPTION OF SYMBOLS 1 Moving object area | region detection apparatus 11 Motion vector detection part 12 Motion vector smoothing part 13 Background area | region detection part 14 Time-axis direction fluctuation | variation detection part 15 Moving object area | region detection part 21 Frame image signal component value substitution part 22 Frame image expansion part 23 Motion Vector determination unit 24 Motion vector reduction unit 31 Zoom detection unit 32 Zoom background region generation unit 33 Motion vector clustering unit

Claims (8)

複数のフレーム画像からなるフレーム画像列から移動物体領域を検出する移動物体領域検出装置であって、
処理対象のフレーム画像について動きベクトルを検出する動きベクトル検出手段と、
検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出する背景領域検出手段と、
各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出する時間軸方向変動検出手段と、
検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出する移動物体領域検出手段と、
を備えることを特徴とする移動物体領域検出装置。
A moving object region detecting device for detecting a moving object region from a frame image sequence composed of a plurality of frame images,
Motion vector detecting means for detecting a motion vector for the frame image to be processed;
Background area detection means for detecting a background area of a frame image by clustering the detected motion vectors;
A high-frequency component is extracted by performing one-dimensional frequency conversion on each set of a plurality of sets of continuous frame sequences each composed of frames of different time series, and fluctuations in the time axis direction in the frame image from the plurality of sets of the high-frequency components A time axis direction variation detecting means for detecting a region;
A moving object area detecting means for detecting a final moving object area from the detected background area and the fluctuation area in the time axis direction;
A moving object region detection apparatus comprising:
前記動きベクトル検出手段が、
前記処理対象のフレーム画像に対して2次元1階離散ウェーブレット変換を施して2次元周波数成分を生成し、該2次元周波数成分を、前記処理対象のフレーム画像に対して水平及び垂直方向に2倍の大きさを有する拡大フレーム画像の2次元周波数成分の低周波成分に代入するとともに、前記拡大フレーム画像の2次元周波数成分の他の成分に0を代入する手段と、
代入された前記拡大フレーム画像の2次元周波数成分に対して2次元1階離散ウェーブレット再構成を施し、前記拡大フレーム画像を生成する手段と、
前記拡大フレーム画像から動きベクトルを検出する手段と、
該検出した動きベクトルを前記フレーム画像に対応する動きベクトルに縮小し、前記処理対象の動きベクトルとして検出する手段と、
を有することを特徴とする、請求項1に記載の移動物体領域検出装置。
The motion vector detecting means is
A two-dimensional first-order discrete wavelet transform is performed on the processing target frame image to generate a two-dimensional frequency component, and the two-dimensional frequency component is doubled horizontally and vertically with respect to the processing target frame image. Means for substituting for the low-frequency component of the two-dimensional frequency component of the enlarged frame image having a size of
Means for performing a two-dimensional first-order discrete wavelet reconstruction on the substituted two-dimensional frequency component of the enlarged frame image to generate the enlarged frame image;
Means for detecting a motion vector from the enlarged frame image;
Means for reducing the detected motion vector to a motion vector corresponding to the frame image and detecting it as the motion vector to be processed;
The moving object region detection device according to claim 1, wherein
前記背景領域検出手段が、前記動きベクトルをK−means法によりクラスタリングすることを特徴とする、請求項1又は2に記載の移動物体領域検出装置。   The moving object region detection apparatus according to claim 1, wherein the background region detection unit clusters the motion vectors by a K-means method. 前記背景領域検出手段が、前記フレーム画像の中心から各ブロック位置までのベクトルの向きと各ブロックに対応する前記動きベクトルの向きとを比較して、前記撮影装置がズームイン又はズームアウトを行っているか否かを検出するズーム検出部を更に備えることを特徴とする、請求項1〜3のいずれかに記載の移動物体領域検出装置。   Whether the background area detection means compares the direction of the vector from the center of the frame image to each block position with the direction of the motion vector corresponding to each block, and whether the photographing apparatus zooms in or out The moving object region detection apparatus according to claim 1, further comprising a zoom detection unit that detects whether or not. 前記時間軸方向変動検出手段が、ドビュッシーウェーブレット法により各々が時系列の異なるフレームからなる4組の連続フレーム列の各組に対して1次元1階離散ウェーブレット変換を施すことにより、高周波成分を抽出することを特徴とする、請求項1〜4のいずれかに記載の移動物体領域検出装置。   The time-axis direction fluctuation detection means extracts a high-frequency component by performing a one-dimensional first-order discrete wavelet transform on each set of four consecutive frame sequences each composed of frames of different time series by the debusy wavelet method. The moving object area | region detection apparatus in any one of Claims 1-4 characterized by the above-mentioned. 前記移動物体領域検出手段が、検出された前記背景領域の信号成分を2値化し、1と0の反転処理を行うことにより移動物体領域を生成し、該移動物体領域と前記時間軸方向変動領域の論理積を計算することにより最終的な移動物体領域を検出することを特徴とする、請求項1〜5のいずれかに記載の移動物体領域検出装置。   The moving object area detecting means binarizes the detected signal component of the background area, performs a reversal process of 1 and 0, generates a moving object area, and the moving object area and the time axis direction fluctuation area 6. The moving object region detection apparatus according to claim 1, wherein a final moving object region is detected by calculating a logical product of the two. 前記クラスタリングを実行する前に、検出された前記動きベクトルの平滑化を行う動きベクトル平滑化手段を更に備えることを特徴とする、請求項1〜6のいずれかに記載の移動物体領域検出装置。   The moving object region detection apparatus according to claim 1, further comprising a motion vector smoothing unit configured to smooth the detected motion vector before executing the clustering. 複数のフレーム画像からなるフレーム画像列から移動物体領域を検出する移動物体領域検出装置を構成するコンピュータに、
処理対象のフレーム画像について動きベクトルを検出するステップと、
検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出するステップと、
各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出するステップと、
検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出するステップと、
を実行させることを特徴とする移動物体領域検出プログラム。
In a computer constituting a moving object region detecting device for detecting a moving object region from a frame image sequence composed of a plurality of frame images,
Detecting a motion vector for the frame image to be processed;
Detecting a background region of a frame image by clustering the detected motion vectors;
A high-frequency component is extracted by performing one-dimensional frequency conversion on each set of a plurality of sets of continuous frame sequences each consisting of frames having different time series, and fluctuations in the time axis direction in the frame image from the plurality of sets of the high-frequency components Detecting a region;
A step of detecting a final moving object region from the detected background region and the fluctuation region in the time axis direction;
A moving object region detection program characterized by causing
JP2009147817A 2009-06-22 2009-06-22 Moving object region detection apparatus and moving object region detection program Expired - Fee Related JP5268796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009147817A JP5268796B2 (en) 2009-06-22 2009-06-22 Moving object region detection apparatus and moving object region detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009147817A JP5268796B2 (en) 2009-06-22 2009-06-22 Moving object region detection apparatus and moving object region detection program

Publications (2)

Publication Number Publication Date
JP2011003144A true JP2011003144A (en) 2011-01-06
JP5268796B2 JP5268796B2 (en) 2013-08-21

Family

ID=43561027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009147817A Expired - Fee Related JP5268796B2 (en) 2009-06-22 2009-06-22 Moving object region detection apparatus and moving object region detection program

Country Status (1)

Country Link
JP (1) JP5268796B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140123394A (en) * 2013-04-12 2014-10-22 삼성전자주식회사 Imaging apparatus and controlling method thereof
US9752991B2 (en) 2014-06-13 2017-09-05 Canon Kabushiki Kaisha Devices, systems, and methods for acquisition of an angular-dependent material feature
JP2020030843A (en) * 2014-04-22 2020-02-27 日本電信電話株式会社 Video generating device, method thereof, and program
CN115641455A (en) * 2022-09-16 2023-01-24 杭州视图智航科技有限公司 Image matching method based on multi-feature fusion

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043376A (en) * 1999-07-30 2001-02-16 Canon Inc Image extraction method and device and storage medium
JP2009048240A (en) * 2007-08-13 2009-03-05 Tokyo Institute Of Technology Detection method, detection device, monitoring method, and monitoring system of moving object in moving image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043376A (en) * 1999-07-30 2001-02-16 Canon Inc Image extraction method and device and storage medium
JP2009048240A (en) * 2007-08-13 2009-03-05 Tokyo Institute Of Technology Detection method, detection device, monitoring method, and monitoring system of moving object in moving image

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG199700333006; 新藤 智彦: '人物の運動認識に関する一検討' 映像情報メディア学会技術報告 第21巻 第72号, 19971127, p.33-38, 社団法人映像情報メディア学会 *
CSNJ200710053052; 松尾 康孝: 'デジタルシネマからスーパーハイビジョンへの空間解像度変換' 電子情報通信学会2007年総合大会 , 20070307, p.52, 社団法人電子情報通信学会 *
JPN6012060621; 松尾 康孝: 'デジタルシネマからスーパーハイビジョンへの空間解像度変換' 電子情報通信学会2007年総合大会 , 20070307, p.52, 社団法人電子情報通信学会 *
JPN6012060623; 新藤 智彦: '人物の運動認識に関する一検討' 映像情報メディア学会技術報告 第21巻 第72号, 19971127, p.33-38, 社団法人映像情報メディア学会 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140123394A (en) * 2013-04-12 2014-10-22 삼성전자주식회사 Imaging apparatus and controlling method thereof
KR102203884B1 (en) * 2013-04-12 2021-01-15 삼성전자주식회사 Imaging apparatus and controlling method thereof
JP2020030843A (en) * 2014-04-22 2020-02-27 日本電信電話株式会社 Video generating device, method thereof, and program
US9752991B2 (en) 2014-06-13 2017-09-05 Canon Kabushiki Kaisha Devices, systems, and methods for acquisition of an angular-dependent material feature
CN115641455A (en) * 2022-09-16 2023-01-24 杭州视图智航科技有限公司 Image matching method based on multi-feature fusion
CN115641455B (en) * 2022-09-16 2024-01-09 杭州视图智航科技有限公司 Image matching method based on multi-feature fusion

Also Published As

Publication number Publication date
JP5268796B2 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
Bovik The essential guide to video processing
KR100902343B1 (en) Robot vision system and detection method
JP5272886B2 (en) Moving object detection apparatus, moving object detection method, and computer program
JP2023526207A (en) Maintaining a constant size of the target object in the frame
JP2010136032A (en) Video monitoring system
Xia et al. Detecting video frame rate up-conversion based on frame-level analysis of average texture variation
US20110243378A1 (en) Method and apparatus for object tracking and loitering detection
JP6414066B2 (en) Image processing system, image processing method, and program
Yao et al. Detecting video frame-rate up-conversion based on periodic properties of edge-intensity
Soyak et al. Low-complexity tracking-aware H. 264 video compression for transportation surveillance
EP2126627B1 (en) Method of improving the video images from a video camera
JP2007266652A (en) Moving object detection device, moving object detection method, moving object detection program, video decoder, video encoder, imaging apparatus, and video management system
CN112805996A (en) Method and equipment for acquiring high-speed high-definition video
JP5268796B2 (en) Moving object region detection apparatus and moving object region detection program
JP2010204860A (en) Video-monitoring system
Jiang et al. Surveillance video analysis using compressive sensing with low latency
Cho et al. Temporal frame interpolation based on multiframe feature trajectory
JP2008035096A (en) Monitoring apparatus, monitoring method and program
Jung et al. Frame-rate conversion detection based on periodicity of motion artifact
Akram et al. Fast motion estimation for surveillance video compression
CN107333174B (en) Video processing method based on scene shear detection
JP5970507B2 (en) Video encoding apparatus and video encoding program
Sowmya et al. Object based forgery detection and localization in videos
Nang et al. Classifying Useful Motion Vectors for Efficient Frame Rate Up Conversion of MC-DCT Encoded Video Streams.
McErlean Hierarchical motion estimation for embedded object tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5268796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees