JP2011003144A - Device and program for detecting moving object area - Google Patents
Device and program for detecting moving object area Download PDFInfo
- Publication number
- JP2011003144A JP2011003144A JP2009147817A JP2009147817A JP2011003144A JP 2011003144 A JP2011003144 A JP 2011003144A JP 2009147817 A JP2009147817 A JP 2009147817A JP 2009147817 A JP2009147817 A JP 2009147817A JP 2011003144 A JP2011003144 A JP 2011003144A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- frame image
- motion vector
- detecting
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、動画像から移動物体領域を検出する移動物体領域検出装置及び移動物体領域検出プログラムに関するものである。より詳細には、時空間解像度解析とオプティカルフローを併用することにより、動画像から移動物体領域を検出する移動物体領域検出装置及び移動物体領域検出プログラムに関するものである。 The present invention relates to a moving object region detection apparatus and a moving object region detection program for detecting a moving object region from a moving image. More specifically, the present invention relates to a moving object area detecting apparatus and a moving object area detecting program for detecting a moving object area from a moving image by using both a spatio-temporal resolution analysis and an optical flow.
動画像から移動物体領域を抽出する技術は、動画像認識技術や、人物や背景の動画及び音声をそれぞれ別々のオブジェクトとして符号化するオブジェクト符号化など、様々な分野で研究開発され、応用されている。例えば、動画像認識技術では、道路上での自動車の抽出や監視カメラによる不審者の監視に利用されており、オブジェクト符号化では、移動物体領域と背景とを区別することにより、映像信号の高効率符号化を実現している。 The technology for extracting moving object regions from moving images has been researched and applied in various fields, such as moving image recognition technology and object coding that encodes moving images and sounds of people and backgrounds as separate objects. Yes. For example, moving image recognition technology is used to extract cars on the road and monitor suspicious persons with a surveillance camera. In object coding, the moving object region is distinguished from the background, thereby increasing the video signal level. Efficient encoding is realized.
動画像から移動物体領域を抽出する方法は、(1)背景差分などの差分処理を使用する方法(例えば、特許文献1及び2参照)、及び(2)物体の移動をベクトルで表現するオプティカルフローを使用する方法(例えば、非特許文献1参照)の大きく2つに分けることができる。
A method for extracting a moving object region from a moving image includes (1) a method using difference processing such as background difference (see, for example,
従来の背景差分による移動物体領域抽出法においては、カメラを固定する必要があるため、放送用の撮影等においては実用的ではないという問題が存在したが、特許文献1及び2の技法は、複数のカメラを使用して映像信号から移動物体領域を抽出することにより、上記のカメラ固定問題を解決する方法を開示している。一般に、差分処理を使用する方法では、背景画像が比較的容易に得られる場合には背景差分法を使用し、それ以外の場合にはフレーム間差分法を使用する。 In the conventional moving object region extraction method based on background difference, since it is necessary to fix the camera, there has been a problem that it is not practical in shooting for broadcasting and the like. A method for solving the above-described camera fixing problem by extracting a moving object region from a video signal using the above camera is disclosed. In general, in a method using difference processing, a background difference method is used when a background image can be obtained relatively easily, and an inter-frame difference method is used in other cases.
一方、従来のオプティカルフローを使用する方法においては、座標系において定義されるオプティカルフロー拘束方程式が観測系(カメラ)が運動しない場合に対するものであるため、カメラが運動する場合には不適であるが、非特許文献1の技法は、カメラの運動を考慮したオプティカルフロー拘束方程式を使用した方法を開示している。
On the other hand, in the conventional method using optical flow, since the optical flow constraint equation defined in the coordinate system is for the case where the observation system (camera) does not move, it is not suitable when the camera moves. The technique of Non-Patent
しかし、背景差分法を使用する特許文献1及び2の方法においては、移動物体領域の検出に複数のカメラが必要となるため、3次元映像撮影などの複数のカメラの使用が可能な場合以外には実用的ではない。また、フレーム間差分法においては、物体が一時的に停止しているような場合に対して十分に対応できない。
However, in the methods of
一方、オプティカルフローを使用する非特許文献1においては、カメラの動きは既知として処理を行っているが、ロボットビジョンの目に相当するCCDカメラのような場合には問題ないが、CCDカメラの動きが既知でない場合には対応できない。
On the other hand, in Non-Patent
このように、動画像の移動物体領域検出に対する様々な方法が提案されているが、パンやチルト等のカメラの複雑な動きに対応する移動物体領域検出を実現するのは容易ではない。 As described above, various methods for moving object region detection of moving images have been proposed. However, it is not easy to realize moving object region detection corresponding to complicated camera movements such as panning and tilting.
そこで本発明の目的は、単一のテレビカメラで撮影した映像から、カメラの複雑な動きに対応する移動物体領域を高精度に検出する移動物体領域検出装置及び移動物体領域検出プログラムを提供することにある。 Accordingly, an object of the present invention is to provide a moving object area detecting apparatus and a moving object area detecting program for detecting a moving object area corresponding to a complicated movement of a camera with high accuracy from an image taken by a single television camera. It is in.
上記課題を解決するために、本発明による複数のフレーム画像からなるフレーム画像列から移動物体領域を検出する移動物体領域検出装置は、処理対象のフレーム画像について動きベクトルを検出する動きベクトル検出手段と、検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出する背景領域検出手段と、各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出する時間軸方向変動検出手段と、検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出する移動物体領域検出手段とを備えることを特徴とする。 In order to solve the above-described problem, a moving object region detection apparatus for detecting a moving object region from a frame image sequence including a plurality of frame images according to the present invention includes a motion vector detection unit that detects a motion vector for a processing target frame image. A background region detecting means for detecting a background region of a frame image by clustering the detected motion vectors, and a one-dimensional frequency for each of a plurality of sets of continuous frame sequences each consisting of frames of different time series A high-frequency component is extracted by performing conversion, and a time-axis direction fluctuation detecting unit that detects a time-axis direction fluctuation region in the frame image from a plurality of sets of the high-frequency components, the detected background region and the time-axis direction And a moving object area detecting means for detecting a final moving object area from the fluctuation area.
また、本発明の移動物体領域検出装置において、前記動きベクトル検出手段が、前記処理対象のフレーム画像に対して2次元1階離散ウェーブレット変換を施して2次元周波数成分を生成し、該2次元周波数成分を、前記処理対象のフレーム画像に対して水平及び垂直方向に2倍の大きさを有する拡大フレーム画像の2次元周波数成分の低周波成分に代入するとともに、前記拡大フレーム画像の2次元周波数成分の他の成分に0を代入する手段と、代入された前記拡大フレーム画像の2次元周波数成分に対して2次元1階離散ウェーブレット再構成を施し、前記拡大フレーム画像を生成する手段と、前記拡大フレーム画像から動きベクトルを検出する手段と、該検出した動きベクトルを前記フレーム画像に対応する動きベクトルに縮小し、前記処理対象の動きベクトルとして検出する手段とを有することを特徴とする。 In the moving object region detection device of the present invention, the motion vector detection means performs a two-dimensional first-order discrete wavelet transform on the processing target frame image to generate a two-dimensional frequency component, and the two-dimensional frequency component Substituting the component into the low-frequency component of the two-dimensional frequency component of the enlarged frame image having a size twice as large as that of the processing target frame image in the horizontal and vertical directions, and the two-dimensional frequency component of the enlarged frame image Means for substituting 0 for other components, means for performing two-dimensional first-order discrete wavelet reconstruction on the substituted two-dimensional frequency component of the enlarged frame image, and generating the enlarged frame image; Means for detecting a motion vector from the frame image; and reducing the detected motion vector to a motion vector corresponding to the frame image; And having a means for detecting a motion vector of the processing target.
また、本発明の移動物体領域検出装置において、前記背景領域検出手段が、前記動きベクトルをK−means法によりクラスタリングすることを特徴とする。 In the moving object region detection device of the present invention, the background region detection means clusters the motion vectors by a K-means method.
また、本発明の移動物体領域検出装置において、前記背景領域検出手段が、前記フレーム画像の中心から各ブロック位置までのベクトルの向きと各ブロックに対応する前記動きベクトルの向きとを比較して、前記撮影装置がズームイン又はズームアウトを行っているか否かを検出するズーム検出部を更に備えることを特徴とする。 Further, in the moving object region detection device of the present invention, the background region detection means compares the direction of the vector from the center of the frame image to each block position and the direction of the motion vector corresponding to each block, The image pickup apparatus further includes a zoom detection unit that detects whether the zoom-in or zoom-out is performed.
また、本発明の移動物体領域検出装置において、前記時間軸方向変動検出手段が、ドビュッシーウェーブレット法により各々が時系列の異なるフレームからなる4組の連続フレーム列の各組に対して1次元1階離散ウェーブレット変換を施すことにより、高周波成分を抽出することを特徴とする。 Further, in the moving object region detection device of the present invention, the time axis direction fluctuation detection means may perform one-dimensional first floor for each set of four consecutive frame sequences each consisting of frames having different time series by the Debussy wavelet method. A high-frequency component is extracted by performing discrete wavelet transform.
また、本発明の移動物体領域検出装置において、前記移動物体領域検出手段が、検出された前記背景領域の信号成分を2値化し、1と0の反転処理を行うことにより移動物体領域を生成し、該移動物体領域と前記時間軸方向変動領域の論理積を計算することにより最終的な移動物体領域を検出することを特徴とする。 In the moving object area detecting device of the present invention, the moving object area detecting unit binarizes the detected signal component of the background area and performs a reversal process of 1 and 0 to generate a moving object area. The final moving object region is detected by calculating a logical product of the moving object region and the time axis direction variation region.
また、本発明の移動物体領域検出装置において、前記クラスタリングを実行する前に、検出された前記動きベクトルの平滑化を行う動きベクトル平滑化手段を更に備えることを特徴とする。 The moving object region detection apparatus according to the present invention further includes motion vector smoothing means for smoothing the detected motion vector before executing the clustering.
また、本発明による移動物体領域検出プログラムは、複数のフレーム画像からなるフレーム画像列から移動物体領域を検出する移動物体領域検出装置を構成するコンピュータに、処理対象のフレーム画像について動きベクトルを検出するステップと、検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出するステップと、各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出するステップと、検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出するステップとを実行させることを特徴とする。 The moving object region detection program according to the present invention detects a motion vector for a frame image to be processed by a computer constituting a moving object region detection device that detects a moving object region from a frame image sequence composed of a plurality of frame images. A step of clustering the detected motion vectors to detect a background region of a frame image, and a one-dimensional frequency conversion for each set of a plurality of sets of continuous frame sequences each consisting of frames of different time series To extract a high-frequency component, detect a time-axis variation region in the frame image from a plurality of sets of the high-frequency components, and from the detected background region and time-axis variation region, And a step of detecting a typical moving object region.
本発明によれば、パンやチルト等により背景が複雑に移動する場合に対しても、移動物体領域を的確に検出することが可能になる。 According to the present invention, it is possible to accurately detect a moving object region even when the background moves in a complicated manner due to panning or tilting.
本発明における「移動物体」とは、人や物などの任意の移動する被写体を含む。以下に、本発明の一実施例による移動物体領域検出装置について、図1〜図11を参照して詳細に説明する。 The “moving object” in the present invention includes an arbitrary moving subject such as a person or an object. Hereinafter, a moving object region detection apparatus according to an embodiment of the present invention will be described in detail with reference to FIGS.
[移動物体領域検出装置]
図1は、本発明による一実施例の移動物体領域検出装置1のブロック図を示している。本実施例の移動物体領域検出装置1は、動きベクトル検出部11と、動きベクトル平滑化部12と、背景領域検出部13と、時間軸方向変動領域検出部14と、移動物体領域検出部15とを備える。本発明による一実施例の移動物体領域検出装置1の各処理に用いるデータは、移動物体領域検出装置1が備える記憶部(図示せず)に適宜格納することができる。
[Moving object area detector]
FIG. 1 shows a block diagram of a moving object
本実施例では、フレーム画像の空間領域及び時間領域における変動の双方を考慮して移動物体領域の検出を行う。 In this embodiment, the moving object region is detected in consideration of both the spatial region and the temporal region of the frame image.
まず、空間領域において背景領域検出を行うための構成要素について説明する。 First, components for performing background area detection in the spatial area will be described.
(空間領域における背景領域検出)
動きベクトル検出部11は、フレーム画像信号成分値代入部21と、フレーム画像拡大部22と、動きベクトル決定部23と、動きベクトル縮小部24とを備えている。
(Background area detection in space area)
The motion vector detection unit 11 includes a frame image signal component
動きベクトル検出部11は、処理対象のフレーム画像を所定のブロックに分割し、ブロックマッチング法により全てのブロックに対して動きベクトルを検出する。本実施例においては、雑音等に強く、且つ、精度の高い移動物体領域検出を行うために、ブロック画像を水平及び垂直方向に2倍に拡大して1/2画素精度で動きベクトルを決定する。図4に示すように、フレーム画像信号成分値代入部21は、処理対象のフレーム画像に対して2次元1階離散ウェーブレット変換を施して2次元周波数成分を生成し、該2次元周波数成分を、処理対象のフレーム画像に対して水平及び垂直方向に2倍の大きさを有する拡大フレーム画像の2次元周波数成分の低周波成分に代入するとともに、拡大フレーム画像の2次元周波数成分の他の成分に0を代入する。具体的には、まず、時刻tのフレーム画像F(t)をM×Nのブロックに分割し、各ブロックをウェーブレット変換する。以下、ブロックサイズが8×8であるものとして説明する。本実施例においては、得られた周波数成分を水平及び垂直方向に2倍に拡大した16×16画素のブロックの2次元1階離散ウェーブレット分解成分の水平低周波且つ垂直低周波(LL)成分とみなし、得られた8×8画素ブロックの周波数成分をウェーブレット分解の0階層目のLL成分をLL0(t)に代入する。他の水平低周波且つ垂直高周波(LH0)成分、水平高周波且つ垂直低周波(HL0)成分、水平高周波且つ垂直高周波(HH0)成分には0を代入する。得られた16×16画素のブロックに対する2次元周波数成分をフレーム画像拡大部22に出力する。
The motion vector detection unit 11 divides the processing target frame image into predetermined blocks, and detects motion vectors for all the blocks by the block matching method. In this embodiment, in order to detect a moving object region that is resistant to noise and the like with high accuracy, the block image is expanded twice in the horizontal and vertical directions, and a motion vector is determined with 1/2 pixel accuracy. . As shown in FIG. 4, the frame image signal component
フレーム画像拡大部22は、代入された拡大フレーム画像の空間領域2次元周波数成分に対して2次元1階離散ウェーブレット再構成を施し、2値化し、拡大フレーム画像F’(t)を生成して動きベクトル決定部23に出力する。
The frame
同様に、フレーム画像信号成分値代入部21及びフレーム画像拡大部22により時刻t+1のフレーム画像F(t+1)を処理し、拡大されたフレーム画像F’(t+1)を生成して動きベクトル決定部23に出力する。
Similarly, the frame image signal component
動きベクトル決定部23は、入力したフレーム画像F’(t)を基準フレーム、F’(t+1)を参照フレームとし、ブロックマッチング法により拡大されたブロックに対する動きベクトルを決定して動きベクトル縮小部24に出力する。
The motion
動きベクトル縮小部24は、入力した拡大された画像に対する動きベクトルを縮小して元のフレーム画像F(t)に対する動きベクトルを生成して動きベクトル平滑化部12に出力する。
The motion
このように、動きベクトル検出部11は、入力したフレーム画像を所定のブロックに分割して各ブロックの画像を水平及び垂直方向に拡大し、時刻tのフレーム画像F(t)と時刻t+1のフレーム画像F(t+1)とからブロックマッチング法により1/2画素精度で動きベクトルを計算し、動きベクトル平滑化部12に出力する。
In this way, the motion vector detection unit 11 divides the input frame image into predetermined blocks, expands the image of each block in the horizontal and vertical directions, and generates the frame image F (t) at time t and the frame at
尚、フレーム画像信号成分値代入部21及びフレーム画像拡大部22での処理を再度繰り返して水平及び垂直方向に対してそれぞれ4倍に画像を拡大し、1/4画素精度で動きベクトルを検出することもできる。
Note that the processing in the frame image signal component
動きベクトル平滑化部12は、フレーム画像を構成するブロックに対して、該ブロックと該ブロックの周囲の所定の数のブロックに関連づけられた動きベクトルの成分の中央値を計算して、該中央値でブロックの動きベクトルの成分を置き換えることにより動きベクトルの平滑化を行う。この動きベクトルの平滑化は、動きベクトルの検出の際に、移動領域の境界がブロック境界にほぼ重なる場合に動きベクトルの検出エラーが発生するため、検出エラーを回避するために行うものである。
The motion
ここで、図5を参照して動きベクトルの平滑化処理を説明する。 Here, the motion vector smoothing process will be described with reference to FIG.
まず、i,jをそれぞれ水平及び垂直方向のブロック位置として、時刻tのフレーム画像F(t)内の16×16画素サイズの各ブロックをB(i,j)とし、各B(i,j)に対して、動きベクトル検出部12により得られた動きベクトルMV_B(i,j)を割り付ける。次に、3×3のフィルタ(図示せず)により、全てのMV_B(i,j)に対して、周辺の3×3領域における動きベクトル成分の中央値を計算し、得られた中央値でMV_B(i,j)の動きベクトルの成分を置き換える。これにより、ブロック間の動きベクトルの変化が平滑化され、動きベクトル検出エラーを回避することが可能になる。
First, i and j are the block positions in the horizontal and vertical directions, and each block of 16 × 16 pixel size in the frame image F (t) at time t is B (i, j), and each B (i, j ) Is assigned the motion vector MV_B (i, j) obtained by the motion
背景領域検出部13は、ズーム検出部31と、ズーム用背景領域生成部32と、動きベクトルクラスタリング部33とを備えている。背景領域検出部13は、検出された動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出する。
The background
ズーム検出部31は、フレーム画像の中心から各ブロック位置までのベクトルの向きと各ブロックに対応する動きベクトルの向きとを比較して、撮影装置がズームイン又はズームアウトを行っているか否かを検出する。ズームインを行っている場合には、背景に相当する領域の動きベクトルは、ほぼ一定の大きさを持ち、フレーム画像の中心から外側に向き、ズームアウトを行っている場合には、動きベクトルはフレーム画像の中心の1点に向いていることが予想される。これに対して、移動物体領域の動きベクトルは、背景領域とは異なる方向を向いていることが予想される。そこで、本実施例においては、全ての動きベクトルMV_Bに対してそのベクトル方向に線分を伸ばし、全ての動きベクトルMV_Bの半数以上に対する線分が、所定の小空間領域ZoomArea(x,y)内で交差する場合にカメラがズームイン又はズームアウトを行っていると判定する。ズームイン又はズームアウトを行っていると判定した場合には、交差した線分に対応するブロック情報を含む背景領域情報をズーム用背景領域生成部32に出力し、ズームイン又はズームアウトを行っていると判定しなかった場合には、動きベクトルを動きベクトルクラスタリング部33に出力する。
The
ズーム用背景領域生成部32は、入力した背景領域情報から背景領域BackGround(t)を生成し、移動物体領域検出部15に出力する。
The zoom background
動きベクトルクラスタリング部33は、入力した動きベクトルに対してクラスタリングを行い、背景領域の検出を行う。撮影系が静止している場合には、背景が静止しているため背景領域の動きベクトルの成分は0である。従って、動きベクトルのクラスタリングを行うことにより、背景領域と移動物体領域とを分割することが可能となる。また、撮影系がパン(又はチルト)を行っている場合には、背景領域の動きベクトルは、特定の方向に向いているとともに、任意の一定の大きさを有していると考えられる。従って、背景が静止している場合と同様に動きベクトルのクラスタリングを行うことにより、パン(又はチルト)により移動する背景と、パン(又はチルト)及び物体自体により移動する移動物体領域とを分割することが可能となる。
The motion
背景領域と移動物体領域の分割処理は、以下のように、K−means法によるクラスタリングにより行う。まず、分割数(クラスタ数)Kと各クラスタに割り当てるクラスタ中心の初期値を設定する。移動物体領域の検出のためには、フレーム画像を背景とそれ以外の移動物体領域の2つに分割すればよいため、クラスタ数Kは2以上の比較的小さな値に設定する。次に、全ての動きベクトルをK個のクラスタに振り分け、各クラスタに属するベクトル成分の平均値を計算して再度クラスタ中心を求める。上記の動きベクトルの振り分けとクラスタ中心の計算を繰り返し、クラスタ中心の値が変化しなくなるまで繰り返す。クラスタ中心の値が変化しなくなった時に、全てのベクトルに対してクラスタ中心からの距離を計算し、クラスタごとに距離の分散を求める。本実施例においては、求めた距離の分散が最も小さいクラスタに属する動きベクトルを背景領域の動きベクトルとみなし、そのクラスタに属する動きベクトルに対応するブロックを使用して背景領域BackGround(t)を生成して移動物体領域検出部15に出力する。
The division process of the background area and the moving object area is performed by clustering by the K-means method as follows. First, the number of divisions (number of clusters) K and the initial value of the cluster center assigned to each cluster are set. In order to detect the moving object area, the frame image may be divided into two parts, that is, the background and the other moving object area. Therefore, the number K of clusters is set to a relatively small value of 2 or more. Next, all motion vectors are assigned to K clusters, the average value of vector components belonging to each cluster is calculated, and the cluster center is obtained again. The above motion vector assignment and cluster center calculation are repeated until the cluster center value does not change. When the value at the cluster center stops changing, the distance from the cluster center is calculated for all vectors, and the dispersion of the distance is obtained for each cluster. In this embodiment, the motion vector belonging to the cluster having the smallest variance of the obtained distance is regarded as the motion vector of the background region, and the background region BackGround (t) is generated using the block corresponding to the motion vector belonging to the cluster. And output to the moving object
このように、背景領域検出部13は、動きベクトル平滑化部12から入力した動きベクトルから背景領域を検出し、背景領域BackGround(t)を生成して移動物体領域検出部15に出力する。
As described above, the background
以上のように、空間領域においてフレーム画像信号内の移動物体領域検出を行うことが可能になる。 As described above, it is possible to detect the moving object region in the frame image signal in the spatial region.
次に、時間軸方向に対する変動領域検出について説明する。 Next, the fluctuation area detection with respect to the time axis direction will be described.
(時間軸方向の変動領域検出)
時間軸方向変動領域検出部14は、各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出する。本実施例においては、1次元周波数変換において、例えばウェーブレット長4のドビュッシー(Daubechies)ウェーブレット法を使用して1次元1階離散ウェーブレット変換を施す例について説明する。
(Detection of fluctuation area in time axis direction)
The time-axis direction fluctuation
まず、図6に示すように、ウェーブレット長に対応する連続フレーム列F(t−3)〜F(t)の時間軸方向に対して1次元1階離散ウェーブレット分解を行う。これにより、時間軸方向の第1高周波成分EvenHt(t0)が得られる。得られた第1高周波成分EvenHt(t0)に対して所定の閾値Thで2値化し、フレーム画像列から時間軸方向変動領域フレーム画像列を抜き出す。得られた第1高周波成分EvenHt(t0)は、ドビュッシーウェーブレット法の2次のウェーブレット長、即ち、4フレームに亘る変動領域の変化を含んでいる。 First, as shown in FIG. 6, one-dimensional first-order discrete wavelet decomposition is performed with respect to the time axis direction of the continuous frame sequences F (t-3) to F (t) corresponding to the wavelet length. Thereby, the first high-frequency component EvenH t (t 0 ) in the time axis direction is obtained. The obtained first high-frequency component EvenH t (t 0 ) is binarized with a predetermined threshold Th, and a time-axis direction variation region frame image sequence is extracted from the frame image sequence. The obtained first high frequency component EvenH t (t 0 ) includes the second-order wavelet length of the debussy wavelet method, that is, the change of the fluctuation region over four frames.
同様に、第1高周波成分EvenHt(t0)に対して2フレーム進んだ連続フレーム列F(t−1)〜F(t+2)を使用して、第1高周波成分EvenHt(t0+1)を計算する。
Similarly, using the first high frequency component EvenH t (t 0) the continuous frame sequence proceeds 2 frame to F (t-1) ~F the (t + 2), the first high
続いて、図7に示すように、第1高周波成分EvenHt(t0)と第1高周波成分EvenHt(t0+1)の論理積を計算することにより、フレーム画像F(t−1)及びF(t)に対する時間軸方向変動領域を抽出する。得られた時間軸方向変動領域は、原画像で2フレーム分の変動領域を含んでいる。 Subsequently, as shown in FIG. 7, by calculating the logical product of the first high-frequency component EvenH t (t 0 ) and the first high-frequency component EvenH t (t 0 +1), the frame image F (t−1) and A time axis direction fluctuation region with respect to F (t) is extracted. The obtained time axis direction fluctuation region includes a fluctuation region of two frames in the original image.
次に、図8に示すように、第1高周波成分EvenHt(t0)に対して1フレーム分だけずらしたF(t−2)〜F(t+1)のフレーム列に対して時間軸方向の1次元1階離散ウェーブレット分解を行う。これにより、時間軸方向の第2高周波成分OddHt(t0)を求める。次に、得られた第2高周波成分OddHt(t0)を所定の閾値Thで2値化し、フレーム画像列から時間軸方向変動領域フレーム列を抽出する。得られた第2高周波成分OddHt(t0)も、第1高周波成分EvenHt(t0)と同様に、ドビュッシーウェーブレット法の2次のウェーブレット長、即ち4フレームに亘る時間軸方向変動領域を含んでいる。 Next, as shown in FIG. 8, with respect to the frame sequence of F (t−2) to F (t + 1) shifted by one frame with respect to the first high-frequency component EvenH t (t 0 ), Perform one-dimensional first-order discrete wavelet decomposition. Thereby, the second high-frequency component OddH t (t 0 ) in the time axis direction is obtained. Next, the obtained second high-frequency component OddH t (t 0 ) is binarized with a predetermined threshold Th, and a time-axis direction variation region frame sequence is extracted from the frame image sequence. The resulting second high frequency component OddH t (t 0), similar to the first high frequency component EvenH t (t 0), 2-order wavelet length of Debussy wavelet method, i.e. the time axis direction variation region spreading four frames Contains.
同様に、第2高周波成分OddHt(t0)に対して2フレーム進んだ連続フレーム列F(t)〜F(t+3)を使用して、第2高周波成分OddHt(t0+1)を計算する。
Similarly, using the second high frequency component OddH t (t 0) the continuous frame sequence proceeds 2 frame to F (t) to F a (t + 3), calculating a second high
続いて、図9に示すように、第2高周波成分OddHt(t0)と第2高周波成分OddHt(t0+1)の論理積を計算することにより、フレームF(t)及びF(t+1)に対する時間軸方向変動領域を抽出する。得られた時間軸方向変動領域は、原画像で2フレーム分の変動領域を含んでいる。 Subsequently, as shown in FIG. 9, by calculating the logical product of the second high frequency component OddH t (t 0 ) and the second high frequency component OddH t (t 0 +1), the frames F (t) and F (t + 1) are calculated. ) In the time axis direction. The obtained time axis direction fluctuation region includes a fluctuation region of two frames in the original image.
最後に、図10に示すように、第1高周波成分EvenHt(t0)と第1高周波成分EvenHt(t0+1)と第2高周波成分OddHt(t0)と第2高周波成分OddHt(t0+1)との論理積を計算し、原画像の或るフレーム画像F(t)に対する時間軸方向変動領域MovArea(t)を生成して移動物体領域検出部15に出力する。
Finally, as shown in FIG. 10, the first high-frequency component EvenH t (t 0 ), the first high-frequency component EvenH t (t 0 +1), the second high-frequency component OddH t (t 0 ), and the second high-frequency component OddH t A logical product with (t 0 +1) is calculated, and a time-axis direction variation region MovArea (t) for a certain frame image F (t) of the original image is generated and output to the moving object
以上のように、フレーム画像信号の時間軸方向に対する変動領域を抽出することができる。 As described above, it is possible to extract the fluctuation region with respect to the time axis direction of the frame image signal.
こうして背景領域と時間軸方向変動領域とから最終的な移動物体領域を検出する。移動物体領域検出部15は、検出された背景領域の信号成分を2値化し、1と0の反転処理を行うことにより移動物体領域を生成し、該移動物体領域と時間軸方向変動領域の論理積を計算することにより最終的な移動物体領域を検出する。具体的には、背景領域検出部13により得られたBackGround(t)と、時間軸方向変動検出部14により得られた1フレーム分の時間軸方向変動領域MovArea(t)とから最終的な移動物体領域を検出する。具体的には、まずBackGround(t)に対して1と0の反転処理(即ち論理演算のNOT処理)を行い、移動物体領域ForeGround(t)を得る。次に、ForeGround(t)と1フレーム分の時間軸方向変動領域の論理積(論理演算のAND)を計算することにより、空間領域における移動物体領域と時間軸方向の変動領域との重複した領域を最終的な移動物体領域として決定する。
Thus, the final moving object region is detected from the background region and the time axis direction variation region. The moving object
このように、本発明の一実施例による移動物体領域検出装置により、パンやチルト等により背景が複雑に移動する場合に対しても、移動物体領域を的確に検出することが可能となる。 As described above, the moving object region detection apparatus according to the embodiment of the present invention can accurately detect the moving object region even when the background moves in a complicated manner due to panning or tilting.
次に、本発明による一実施例の移動物体領域検出装置の動作について説明する。 Next, the operation of the moving object region detection apparatus according to an embodiment of the present invention will be described.
[移動物体領域検出装置の動作]
図11は、本発明による一実施例の移動物体領域検出装置の動作を示すフローチャートである。尚、構成要素の説明に関しては、図1の符号を使用する。
[Operation of moving object area detector]
FIG. 11 is a flowchart showing the operation of the moving object area detecting apparatus according to the embodiment of the present invention. For the description of the constituent elements, the reference numerals in FIG. 1 are used.
まず、ステップS1101にて、空間領域において移動物体領域の検出を行うか否かを判断する。 First, in step S1101, it is determined whether or not to detect a moving object region in the spatial region.
ステップS1101にて空間領域で移動物体領域の検出を行うと判断した場合、ステップS1102にて、複数のフレーム画像を所定のブロックに分割し、ブロックマッチング法により全てのブロックに対して動きベクトルを検出する。例えば、時刻tのフレーム画像F(t)と、F(t)に対して1フレーム進んだ時刻t+1のフレーム画像F(t+1)とを所定のブロックに分割し、ウェーブレット変換を施した後に所定の閾値を使用して2値化して空間領域2次元周波数成分を生成し、ブロックマッチング法により全てのブロックに対して時刻tにおける動きベクトルを検出する。 If it is determined in step S1101 that the moving object area is to be detected in the spatial area, a plurality of frame images are divided into predetermined blocks in step S1102, and motion vectors are detected for all blocks by the block matching method. To do. For example, the frame image F (t) at time t and the frame image F (t + 1) at time t + 1 advanced by one frame with respect to F (t) are divided into predetermined blocks, and after wavelet transform is performed, Binarization is performed using a threshold value to generate a spatial domain two-dimensional frequency component, and a motion vector at time t is detected for all blocks by a block matching method.
次に、ステップS1103にて、動きベクトル平滑化部12により、検出した動きベクトルの各々に対して、F(t)における任意のブロックとその周囲の所定の数のブロックとに対して関連づけられた動きベクトルの成分の中央値を計算し、該中央値で動きベクトルの成分を置き換えることにより動きベクトルを平滑化する。
Next, in step S1103, the motion
次に、ステップS1104にて、背景領域検出部13により、平滑化した動きベクトルをクラスタリングすることにより、フレーム画像の背景領域を検出し、背景領域BackGround(t)を生成する。
Next, in step S1104, the background
次に、ステップS1105にて、時間軸方向変動領域検出部14により、各々が時系列の異なるフレームからなる4組の連続フレーム列に対して1次元周波数変換を施し、高周波成分を抽出し、4組の該高周波成分に対して論理積を計算することにより時間軸方向の変動領域を検出する。例えば、時刻(t−3)〜(t+3)までのフレーム画像のうちF(t−3)〜F(t),F(t−2)〜F(t+1),F(t−1)〜F(t+2)及びF(t)〜F(t+3)の4組の連続する4フレームの各々をウェーブレット変換した後に2値化して時間軸方向2次元周波数成分を生成し、該時間軸方向2次元周波数成分から水平及び垂直方向の高周波成分を抽出し、抽出された4組の該高周波成分に対して論理積を計算することにより時刻tにおける時間軸方向の変動領域MovArea(t)を生成する。
Next, in step S1105, the time-axis direction fluctuation
最後に、ステップS1106にて、移動物体領域検出部15により、検出された背景領域と時間軸方向変動領域とから最終的な移動物体領域を検出する。例えば、生成した前記背景領域の信号成分に対して1と0の反転処理を施して移動物体領域ForeGround(t)を生成し、得られたForeGround(t)と時間軸方向変動領域MovArea(t)との論理積を計算することにより時刻tにおける最終的な移動物体領域を決定する。
Finally, in step S1106, the moving object
このように、時刻tにおける移動物体領域を高精度に検出することが可能となる。 In this way, it is possible to detect the moving object region at time t with high accuracy.
更に、本発明の一態様として、移動物体領域検出装置1として機能するコンピュータとして構成させることができる。コンピュータに、前述した各構成要素を実現させるためのプログラムは、各コンピュータの内部又は外部に備えられる記憶部に記憶される。そのような記憶部は、外付けハードディスクなどの外部記憶装置、或いはROM又はRAMなどの内部記憶装置で実現することができる。各コンピュータに備えられる制御部は、中央演算処理装置(CPU)などの制御で実現することができる。即ち、CPUが、各構成要素の機能を実現するための処理内容が記述されたプログラムを、適宜、記憶部から読み込んで、各構成要素の機能をコンピュータ上で実現させることができる。ここで、各成要素の機能をハードウェアの全部又は一部で実現しても良い。
Furthermore, as one embodiment of the present invention, a computer that functions as the moving object
本発明によれば、単一のテレビカメラで撮影した映像からカメラの複雑な動きに対応する移動物体領域を高精度に検出することが可能になるので、トラッキングやマッチングなどにおいて移動物体領域検出を必要とする自動監視装置や高度道路交通システム(ITS)、放送通信などの映像信号の高効率符号化が要求されるオブジェクト符号化及び復号装置、高解像度動画装置、多視点映像装置などに有用である。 According to the present invention, it is possible to detect a moving object region corresponding to a complicated movement of a camera from an image captured by a single television camera with high accuracy. Useful for required automatic monitoring devices, intelligent traffic systems (ITS), object coding and decoding devices that require high-efficiency coding of video signals such as broadcast communications, high-resolution video devices, multi-view video devices, etc. is there.
1 移動物体領域検出装置
11 動きベクトル検出部
12 動きベクトル平滑化部
13 背景領域検出部
14 時間軸方向変動検出部
15 移動物体領域検出部
21 フレーム画像信号成分値代入部
22 フレーム画像拡大部
23 動きベクトル決定部
24 動きベクトル縮小部
31 ズーム検出部
32 ズーム用背景領域生成部
33 動きベクトルクラスタリング部
DESCRIPTION OF
Claims (8)
処理対象のフレーム画像について動きベクトルを検出する動きベクトル検出手段と、
検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出する背景領域検出手段と、
各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出する時間軸方向変動検出手段と、
検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出する移動物体領域検出手段と、
を備えることを特徴とする移動物体領域検出装置。 A moving object region detecting device for detecting a moving object region from a frame image sequence composed of a plurality of frame images,
Motion vector detecting means for detecting a motion vector for the frame image to be processed;
Background area detection means for detecting a background area of a frame image by clustering the detected motion vectors;
A high-frequency component is extracted by performing one-dimensional frequency conversion on each set of a plurality of sets of continuous frame sequences each composed of frames of different time series, and fluctuations in the time axis direction in the frame image from the plurality of sets of the high-frequency components A time axis direction variation detecting means for detecting a region;
A moving object area detecting means for detecting a final moving object area from the detected background area and the fluctuation area in the time axis direction;
A moving object region detection apparatus comprising:
前記処理対象のフレーム画像に対して2次元1階離散ウェーブレット変換を施して2次元周波数成分を生成し、該2次元周波数成分を、前記処理対象のフレーム画像に対して水平及び垂直方向に2倍の大きさを有する拡大フレーム画像の2次元周波数成分の低周波成分に代入するとともに、前記拡大フレーム画像の2次元周波数成分の他の成分に0を代入する手段と、
代入された前記拡大フレーム画像の2次元周波数成分に対して2次元1階離散ウェーブレット再構成を施し、前記拡大フレーム画像を生成する手段と、
前記拡大フレーム画像から動きベクトルを検出する手段と、
該検出した動きベクトルを前記フレーム画像に対応する動きベクトルに縮小し、前記処理対象の動きベクトルとして検出する手段と、
を有することを特徴とする、請求項1に記載の移動物体領域検出装置。 The motion vector detecting means is
A two-dimensional first-order discrete wavelet transform is performed on the processing target frame image to generate a two-dimensional frequency component, and the two-dimensional frequency component is doubled horizontally and vertically with respect to the processing target frame image. Means for substituting for the low-frequency component of the two-dimensional frequency component of the enlarged frame image having a size of
Means for performing a two-dimensional first-order discrete wavelet reconstruction on the substituted two-dimensional frequency component of the enlarged frame image to generate the enlarged frame image;
Means for detecting a motion vector from the enlarged frame image;
Means for reducing the detected motion vector to a motion vector corresponding to the frame image and detecting it as the motion vector to be processed;
The moving object region detection device according to claim 1, wherein
処理対象のフレーム画像について動きベクトルを検出するステップと、
検出された前記動きベクトルをクラスタリングすることによりフレーム画像の背景領域を検出するステップと、
各々が時系列の異なるフレームからなる複数組の連続フレーム列の各組に対して1次元周波数変換を施して高周波成分を抽出し、複数組の該高周波成分から当該フレーム画像における時間軸方向の変動領域を検出するステップと、
検出された前記背景領域と前記時間軸方向の変動領域とから、最終的な移動物体領域を検出するステップと、
を実行させることを特徴とする移動物体領域検出プログラム。 In a computer constituting a moving object region detecting device for detecting a moving object region from a frame image sequence composed of a plurality of frame images,
Detecting a motion vector for the frame image to be processed;
Detecting a background region of a frame image by clustering the detected motion vectors;
A high-frequency component is extracted by performing one-dimensional frequency conversion on each set of a plurality of sets of continuous frame sequences each consisting of frames having different time series, and fluctuations in the time axis direction in the frame image from the plurality of sets of the high-frequency components Detecting a region;
A step of detecting a final moving object region from the detected background region and the fluctuation region in the time axis direction;
A moving object region detection program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009147817A JP5268796B2 (en) | 2009-06-22 | 2009-06-22 | Moving object region detection apparatus and moving object region detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009147817A JP5268796B2 (en) | 2009-06-22 | 2009-06-22 | Moving object region detection apparatus and moving object region detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011003144A true JP2011003144A (en) | 2011-01-06 |
JP5268796B2 JP5268796B2 (en) | 2013-08-21 |
Family
ID=43561027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009147817A Expired - Fee Related JP5268796B2 (en) | 2009-06-22 | 2009-06-22 | Moving object region detection apparatus and moving object region detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5268796B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140123394A (en) * | 2013-04-12 | 2014-10-22 | 삼성전자주식회사 | Imaging apparatus and controlling method thereof |
US9752991B2 (en) | 2014-06-13 | 2017-09-05 | Canon Kabushiki Kaisha | Devices, systems, and methods for acquisition of an angular-dependent material feature |
JP2020030843A (en) * | 2014-04-22 | 2020-02-27 | 日本電信電話株式会社 | Video generating device, method thereof, and program |
CN115641455A (en) * | 2022-09-16 | 2023-01-24 | 杭州视图智航科技有限公司 | Image matching method based on multi-feature fusion |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001043376A (en) * | 1999-07-30 | 2001-02-16 | Canon Inc | Image extraction method and device and storage medium |
JP2009048240A (en) * | 2007-08-13 | 2009-03-05 | Tokyo Institute Of Technology | Detection method, detection device, monitoring method, and monitoring system of moving object in moving image |
-
2009
- 2009-06-22 JP JP2009147817A patent/JP5268796B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001043376A (en) * | 1999-07-30 | 2001-02-16 | Canon Inc | Image extraction method and device and storage medium |
JP2009048240A (en) * | 2007-08-13 | 2009-03-05 | Tokyo Institute Of Technology | Detection method, detection device, monitoring method, and monitoring system of moving object in moving image |
Non-Patent Citations (4)
Title |
---|
CSNG199700333006; 新藤 智彦: '人物の運動認識に関する一検討' 映像情報メディア学会技術報告 第21巻 第72号, 19971127, p.33-38, 社団法人映像情報メディア学会 * |
CSNJ200710053052; 松尾 康孝: 'デジタルシネマからスーパーハイビジョンへの空間解像度変換' 電子情報通信学会2007年総合大会 , 20070307, p.52, 社団法人電子情報通信学会 * |
JPN6012060621; 松尾 康孝: 'デジタルシネマからスーパーハイビジョンへの空間解像度変換' 電子情報通信学会2007年総合大会 , 20070307, p.52, 社団法人電子情報通信学会 * |
JPN6012060623; 新藤 智彦: '人物の運動認識に関する一検討' 映像情報メディア学会技術報告 第21巻 第72号, 19971127, p.33-38, 社団法人映像情報メディア学会 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140123394A (en) * | 2013-04-12 | 2014-10-22 | 삼성전자주식회사 | Imaging apparatus and controlling method thereof |
KR102203884B1 (en) * | 2013-04-12 | 2021-01-15 | 삼성전자주식회사 | Imaging apparatus and controlling method thereof |
JP2020030843A (en) * | 2014-04-22 | 2020-02-27 | 日本電信電話株式会社 | Video generating device, method thereof, and program |
US9752991B2 (en) | 2014-06-13 | 2017-09-05 | Canon Kabushiki Kaisha | Devices, systems, and methods for acquisition of an angular-dependent material feature |
CN115641455A (en) * | 2022-09-16 | 2023-01-24 | 杭州视图智航科技有限公司 | Image matching method based on multi-feature fusion |
CN115641455B (en) * | 2022-09-16 | 2024-01-09 | 杭州视图智航科技有限公司 | Image matching method based on multi-feature fusion |
Also Published As
Publication number | Publication date |
---|---|
JP5268796B2 (en) | 2013-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bovik | The essential guide to video processing | |
JP2023526207A (en) | Maintaining a constant size of the target object in the frame | |
CN105517671B (en) | Video frame interpolation method and system based on optical flow method | |
CN102077250B (en) | Moving object detection method and moving object detection apparatus | |
JP2010267055A (en) | Apparatus and method for detection of moving object, and computer program | |
KR20090047709A (en) | Robot vision system and detection method | |
US20110243378A1 (en) | Method and apparatus for object tracking and loitering detection | |
JP2010136032A (en) | Video monitoring system | |
Xia et al. | Detecting video frame rate up-conversion based on frame-level analysis of average texture variation | |
JP6414066B2 (en) | Image processing system, image processing method, and program | |
Yao et al. | Detecting video frame-rate up-conversion based on periodic properties of edge-intensity | |
Soyak et al. | Low-complexity tracking-aware H. 264 video compression for transportation surveillance | |
CN112805996A (en) | Method and equipment for acquiring high-speed high-definition video | |
US8269844B2 (en) | Method of improving video images by removing the effects of camera vibration | |
JP2010204860A (en) | Video-monitoring system | |
JP5268796B2 (en) | Moving object region detection apparatus and moving object region detection program | |
Jiang et al. | Surveillance video analysis using compressive sensing with low latency | |
Cho et al. | Temporal frame interpolation based on multiframe feature trajectory | |
JP2007266652A (en) | Moving object detection device, moving object detection method, moving object detection program, video decoder, video encoder, imaging apparatus, and video management system | |
JP2008035096A (en) | Monitoring apparatus, monitoring method and program | |
Lee et al. | Fast-rolling shutter compensation based on piecewise quadratic approximation of a camera trajectory | |
Jung et al. | Frame-rate conversion detection based on periodicity of motion artifact | |
CN107333174B (en) | Video processing method based on scene shear detection | |
Favorskaya et al. | Video stabilization of static scenes based on robust detectors and fuzzy logic | |
Nang et al. | Classifying Useful Motion Vectors for Efficient Frame Rate Up Conversion of MC-DCT Encoded Video Streams. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130507 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5268796 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |