JP2011154632A - Image processing apparatus, method and program - Google Patents

Image processing apparatus, method and program Download PDF

Info

Publication number
JP2011154632A
JP2011154632A JP2010016995A JP2010016995A JP2011154632A JP 2011154632 A JP2011154632 A JP 2011154632A JP 2010016995 A JP2010016995 A JP 2010016995A JP 2010016995 A JP2010016995 A JP 2010016995A JP 2011154632 A JP2011154632 A JP 2011154632A
Authority
JP
Japan
Prior art keywords
matrix
image processing
blocks
frame
euclidean distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010016995A
Other languages
Japanese (ja)
Other versions
JP5455682B2 (en
Inventor
Akinobu Oguro
昭宜 大黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Information Systems Japan Corp
Original Assignee
Toshiba Information Systems Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Information Systems Japan Corp filed Critical Toshiba Information Systems Japan Corp
Priority to JP2010016995A priority Critical patent/JP5455682B2/en
Publication of JP2011154632A publication Critical patent/JP2011154632A/en
Application granted granted Critical
Publication of JP5455682B2 publication Critical patent/JP5455682B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus, method and program, capable of achieving highly precise mobile object detection, and for achieving the reduction of the computational complexity and the simplification of an algorithm in post-processing such as edge detection, labeling, tracking and Hough transformation. <P>SOLUTION: The image processing apparatus includes: a matrix generator 21 for, when m×m(m: integer of 2 or more) pixels in one frame in an image are defined as one block, generating a matrix configured of luminance data about each of a plurality of corresponding blocks in temporally sequential frames for the sequential frames; a generator 22 for generating a covariance matrix by using the corresponding matrix; an calculator 23 for calculating a characteristic value and a characteristic vector from the covariance matrix, and for calculating an Euclidean distance between the corresponding blocks of the sequential frames based on the characteristic value and the characteristic vector; and a processor 24 for performing image processing by using the Euclidean distance and a threshold. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は、人や人の手、或いは車両等のような各種の移動物体を検出する場合に好適な画像処理装置、画像処理方法及び画像処理用プログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program suitable for detecting various moving objects such as a person, a human hand, or a vehicle.

従来の画像処理においては、移動物体検出のために背景差分やフレーム間差分を1画素(ピクセル)単位で行っており、高精度で検出を行うための閾値設定が難しいという問題があった。   In the conventional image processing, background difference and inter-frame difference are performed in units of one pixel (pixel) for moving object detection, and there is a problem that it is difficult to set a threshold value for performing detection with high accuracy.

また、移動物体検出においては、エッジ検出、ラベリング、トラッキング、ハフ変換などの後処理を行うことが多いが(特許文献1参照)、上記のように1画素単位で差分を得た場合には、前述の後処理の計算量が膨大となり、またアルゴリズムが複雑となる問題があった。   Also, in moving object detection, post-processing such as edge detection, labeling, tracking, and Hough transform is often performed (see Patent Document 1), but when a difference is obtained in units of one pixel as described above, There has been a problem that the amount of calculation of the post-processing described above becomes enormous and the algorithm becomes complicated.

特開2006−98119号公報JP 2006-98119 A

本発明は上記のような従来の画像処理における問題点を解決せんとしてなされたもので、その目的は、高精度な移動物体検出が可能であり、また、エッジ検出、ラベリング、トラッキング、ハフ変換などの後処理における演算量の低減とアルゴリズムの簡素化を図ることが可能な画像処理装置、画像処理方法及び画像処理用プログラムを提供することである。   The present invention has been made as a solution to the problems in the conventional image processing as described above, and its purpose is to detect a moving object with high accuracy, and to detect edges, labeling, tracking, Hough transform, etc. To provide an image processing apparatus, an image processing method, and an image processing program capable of reducing the amount of calculation in post-processing and simplifying an algorithm.

本発明に係る画像処理装置は、画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成する行列作成手段と、前記対応する行列を用いて共分散行列を生成する生成手段と、前記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求める演算手段と、ユークリッド距離と閾値とを用いて画像処理を行う処理手段とを具備することを特徴とする。   The image processing apparatus according to the present invention uses m × m (m: integer greater than or equal to 2) pixels in one frame in an image as one block, and uses a plurality of corresponding blocks in temporally preceding and following frames according to the luminance data. Matrix creating means for creating a matrix for the previous and subsequent frames, a generating means for generating a covariance matrix using the corresponding matrix, eigenvalues and eigenvectors are obtained from the covariance matrix, and the previous and next frames are calculated based on the eigenvalues and eigenvectors. Computation means for obtaining a Euclidean distance between corresponding blocks, and processing means for performing image processing using the Euclidean distance and a threshold value are provided.

本発明に係る画像処理装置は、1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用することを特徴とする。   The image processing apparatus according to the present invention is characterized in that all blocks in one frame or thinned blocks are used for creating a matrix.

本発明に係る画像処理装置は、処理手段においては、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行うことを特徴とする。   The image processing apparatus according to the present invention is characterized in that the processing means performs at least one of edge detection, tracking, labeling, and Hough transform of a moving object.

本発明に係る画像処理方法は、画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成する行列作成ステップと、前記対応する行列を用いて共分散行列を生成する生成ステップと、前記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求める演算ステップと、ユークリッド距離と閾値とを用いて画像処理を行う処理ステップとを実行することを特徴とする。   The image processing method according to the present invention uses m × m (m: an integer of 2 or more) pixels in one frame in an image as one block, and uses a plurality of corresponding blocks in temporally preceding and following frames according to respective luminance data. A matrix creation step for creating a matrix for the previous and next frames, a generation step for generating a covariance matrix using the corresponding matrix, an eigenvalue and an eigenvector are obtained from the covariance matrix, and the previous and next frames are calculated based on the eigenvalue and eigenvector. A calculation step for obtaining a Euclidean distance between corresponding blocks and a processing step for performing image processing using the Euclidean distance and a threshold value are executed.

本発明に係る画像処理方法では、1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用することを特徴とする。   The image processing method according to the present invention is characterized in that all blocks or thinned out blocks in one frame are used for creating a matrix.

本発明に係る画像処理方法では、処理ステップにおいては、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行うことを特徴とする。   In the image processing method according to the present invention, in the processing step, at least one of edge detection, tracking, labeling, and Hough transform of a moving object is performed.

本発明に係る画像処理用プログラムは、画像処理を行うコンピュータを、画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成する行列作成手段、前記対応する行列を用いて共分散行列を生成する生成手段、前記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求める演算手段、ユークリッド距離と閾値とを用いて画像処理を行う処理手段として機能させることを特徴とする。   An image processing program according to the present invention uses a computer that performs image processing as m × m (m: integer of 2 or more) pixels in one frame of an image as one block, and a plurality of corresponding frames in temporally preceding and following frames. Matrix generating means for generating a matrix based on the respective luminance data for the previous and subsequent frames, a generating means for generating a covariance matrix using the corresponding matrix, eigenvalues and eigenvectors are obtained from the covariance matrix, and eigenvalues and eigenvectors are obtained. And calculating means for calculating the Euclidean distance between corresponding blocks of the preceding and following frames, and processing means for performing image processing using the Euclidean distance and a threshold value.

本発明に係る画像処理用プログラムでは、コンピュータが、1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用するように機能させることを特徴とする。   The image processing program according to the present invention is characterized in that the computer functions so that all blocks in one frame or thinned blocks are used for creating a matrix.

本発明に係る画像処理用プログラムでは、コンピュータを処理手段として、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行うように機能させることを特徴とする。   The image processing program according to the present invention is characterized in that a computer functions as a processing means to perform at least one of edge detection, tracking, labeling, and Hough transform of a moving object.

本発明によれば、画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして行列を作成して、前後のフレームの対応する各ブロック間のユークリッド距離を求め、ユークリッド距離と閾値とを用いて画像処理するので、閾値を適宜設定して高精度な移動物体検出が可能であり、また、エッジ検出、トラッキング、ラベリング及びハフ変換などの後処理における演算量の低減とアルゴリズムの簡素化を図ることが可能である。   According to the present invention, a matrix is created with m × m (m: integer greater than or equal to 2) pixels in one frame in an image as one block, the Euclidean distance between corresponding blocks in the preceding and succeeding frames is obtained, and Euclidean Since the image processing is performed using the distance and the threshold, it is possible to detect the moving object with high accuracy by appropriately setting the threshold, and to reduce the amount of calculation in post-processing such as edge detection, tracking, labeling, and Hough transform. It is possible to simplify the algorithm.

本発明に係る画像処理装置の実施例を示す構成図。The block diagram which shows the Example of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置の実施例によるブロック分けを説明するための図。The figure for demonstrating the block division by the Example of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置の実施例による行列作成を説明するための図。The figure for demonstrating the matrix preparation by the Example of the image processing apparatus which concerns on this invention. 本発明に係る画像処理装置の実施例による行列作成から共分散行列生成までの動作を説明するための図。The figure for demonstrating the operation | movement from the matrix preparation by the Example of the image processing apparatus which concerns on this invention to covariance matrix production | generation. 本発明に係る画像処理装置の実施例による共分散行列からユークリッド距離を求めるまでの動作を説明するための図。The figure for demonstrating operation | movement until it calculates | requires Euclidean distance from the covariance matrix by the Example of the image processing apparatus which concerns on this invention. 発明に係る画像処理装置の実施例により求められたユークリッド距離をマトリックス状に並べた状態を示す図。The figure which shows the state which arranged the Euclidean distance calculated | required by the Example of the image processing apparatus which concerns on invention in the matrix form. 発明に係る画像処理装置の実施例によるエッジ検出の動作を説明するための図。The figure for demonstrating the operation | movement of the edge detection by the Example of the image processing apparatus which concerns on invention. 発明に係る画像処理装置の実施例によるラベリングの動作を説明するための図。The figure for demonstrating the operation | movement of labeling by the Example of the image processing apparatus which concerns on invention. 発明に係る画像処理装置の実施例による画像処理の動作を説明するためのフローチャート。5 is a flowchart for explaining an image processing operation according to the embodiment of the image processing apparatus according to the invention.

以下添付図面を用いて本発明に係る画像処理装置、画像処理方法及び画像処理用プログラムの実施例を説明する。各図において、同一の構成要素には同一の符号を付して重複する説明を省略する。図1に実施形態に係る画像処理装置の構成図を示す。この画像処理装置は、CPU10とメモリ(主メモリ及び外部記憶メモリ)11を有し、情報を表示するための表示部13がCPU10に接続されたコンピュータシステムにより構成されている。   Embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below with reference to the accompanying drawings. In each figure, the same components are denoted by the same reference numerals, and redundant description is omitted. FIG. 1 shows a configuration diagram of an image processing apparatus according to the embodiment. The image processing apparatus includes a CPU 10 and a memory (main memory and external storage memory) 11, and is configured by a computer system in which a display unit 13 for displaying information is connected to the CPU 10.

メモリ11には、画像処理用プログラムが記憶されており、この画像処理用プログラムによりコンピュータであるCPU10が、行列作成手段21、生成手段22、演算手段23及び処理手段24として機能する。   An image processing program is stored in the memory 11, and the CPU 10, which is a computer, functions as the matrix creation means 21, the generation means 22, the calculation means 23, and the processing means 24 by the image processing program.

行列作成手段21は、動画像の画像信号における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成するものである。上記画像信号はカメラから送られたものでも、或いは記憶媒体に記憶されていたものでも良い。   The matrix creation means 21 sets m × m (m: integer greater than or equal to 2) pixels in one frame in an image signal of a moving image as one block, and sets luminance data for a plurality of corresponding blocks in temporally preceding and following frames. This creates a matrix for the previous and next frames. The image signal may be sent from a camera or stored in a storage medium.

例えば、1フレームが320×240画素により構成される場合、図2に示すように5×5画素を1ブロックとすると、64×48ブロックに分けることになる。以下、1ブロックの画素構成を分割粒度という。上記では分割粒度が5×5画素であるが、分割粒度が10×10画素や分割粒度が2×2画素であっても良い。   For example, when one frame is composed of 320 × 240 pixels, if 5 × 5 pixels are taken as one block as shown in FIG. 2, it is divided into 64 × 48 blocks. Hereinafter, the pixel configuration of one block is referred to as division granularity. In the above description, the division granularity is 5 × 5 pixels, but the division granularity may be 10 × 10 pixels or the division granularity may be 2 × 2 pixels.

1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用する。分割粒度が5×5画素として間引く場合には例えば図3に示すように、第1フレームFrame1及び第2フレームFrame2においては、最左列から1列おきであって最上行から1行おきにサンプリングしたブロック(合計32×24)ブロックを用いる。第2フレームFrame2及び第3フレームFrame3においては、最左列の次列から1列おきであって最上行から1行おきにサンプリングしたブロック(合計32×24)を用いる。   All blocks or thinned blocks in one frame are used to create a matrix. When the division granularity is thinned out by 5 × 5 pixels, for example, as shown in FIG. 3, in the first frame Frame1 and the second frame Frame2, sampling is performed every other column from the leftmost column and every other row from the uppermost row. Block (32 × 24 in total). In the second frame Frame2 and the third frame Frame3, blocks sampled every other column from the next column of the leftmost column and every other row from the uppermost row (32 × 24 in total) are used.

第3フレームFrame3及び第4フレームFrame4においては、最左列の次列から1列おきであって最上行の次行から1行おきにサンプリングしたブロック(合計32×24)を用いる。第4フレームFrame4及び第5フレームFrame5においては、最左列から1列おきであって最上行の次行から1行おきにサンプリングしたブロック(合計32×24)ブロックを用いる。以下、同様にサンプリングを行う。上記のようにインターレース方式でサンプリングすることによって、均等なサンプリングを行うことができる。   In the third frame Frame3 and the fourth frame Frame4, blocks sampled every other column from the next row of the leftmost column and every other row from the next row of the uppermost row (32 × 24 in total) are used. In the fourth frame Frame4 and the fifth frame Frame5, blocks (total 32 × 24) blocks sampled every other column from the leftmost column and every other row from the next row of the uppermost row are used. Thereafter, sampling is performed in the same manner. By sampling in the interlaced manner as described above, uniform sampling can be performed.

全ブロックを用いて行列を作成して処理する場合には、上記よりも高精度な処理を行うことができ、また、分割粒度を小さくすることにより精度を上げることができる。分割粒度を5×5画素として行列を作成する場合には、例えば、4ブロック毎に一つの行列を作成する。   When a matrix is created and processed using all blocks, processing with higher accuracy than the above can be performed, and accuracy can be improved by reducing the division granularity. When creating a matrix with a division granularity of 5 × 5 pixels, for example, one matrix is created for every four blocks.

図4に示すように、第1フレームFrame1の1〜4で示す4ブロックの画素の輝度情報を25行×4列の行列とする。つまり、1により示されるブロックにおける5×5=25画素の輝度情報が第1列に並べられ、2により示されるブロックにおける5×5=25画素の輝度情報が第2列に並べられ、3により示されるブロックにおける5×5=25画素の輝度情報が第3列に並べられ、4により示されるブロックにおける5×5=25画素の輝度情報が第4列に並べられて全体で4行とされた行列が図4の行列1である。   As shown in FIG. 4, the luminance information of the four blocks of pixels indicated by 1 to 4 in the first frame Frame1 is a 25 × 4 matrix. That is, the luminance information of 5 × 5 = 25 pixels in the block indicated by 1 is arranged in the first column, and the luminance information of 5 × 5 = 25 pixels in the block indicated by 2 is arranged in the second column. The luminance information of 5 × 5 = 25 pixels in the indicated block is arranged in the third column, and the luminance information of 5 × 5 = 25 pixels in the block indicated by 4 is arranged in the fourth column to form a total of four rows. The matrix is the matrix 1 in FIG.

同様に第2フレームFrame2の5〜8で示す4ブロックの画素の輝度情報を25行×4列の行列とする。即ち、5により示されるブロックにおける5×5=25画素の輝度情報が第1列に並べられ、6により示されるブロックにおける5×5=25画素の輝度情報が第2列に並べられ、7により示されるブロックにおける5×5=25画素の輝度情報が第3列に並べられ、8により示されるブロックにおける5×5=25画素の輝度情報が第4列に並べられて全体で4行とされた行列が図4の行列2である。以下、同様にして全ブロックについて行列を作成する。   Similarly, the luminance information of the pixels of the four blocks indicated by 5 to 8 in the second frame Frame2 is a 25 × 4 matrix. That is, luminance information of 5 × 5 = 25 pixels in the block indicated by 5 is arranged in the first column, luminance information of 5 × 5 = 25 pixels in the block indicated by 6 is arranged in the second column, and The luminance information of 5 × 5 = 25 pixels in the indicated block is arranged in the third column, and the luminance information of 5 × 5 = 25 pixels in the block indicated by 8 is arranged in the fourth column to form a total of four rows. The matrix is the matrix 2 in FIG. In the same manner, matrices are created for all blocks.

生成手段22は、上記行列作成手段21によって作成された行列における対応する行列を用いて共分散行列を生成する。図4におけるS11に示されるように、行列1と行列2とを並べた25行×8列の行列3を生成し、これの転置行列3を生成する(S12)。この転置行列3は、8行×25列である。更に、生成手段22は、図4におけるS13に示すように転置行列3と行列3との乗算を行い、S14に示す共分散行列を生成する。生成手段22は、以下同様に、前後するフレームの対応ブロックによって作成された行列から共分散行列を生成する。画面が縦長横長或いは正方形である場合において、一般的に、粒度をm×m(m:2以上の整数)として、1フレームをNブロックに分割すると、(2×N)×(2×N)の共分散行列が生成される。 The generation unit 22 generates a covariance matrix using a corresponding matrix in the matrix created by the matrix creation unit 21. As shown in S11 in FIG. 4, a matrix 3 of 25 rows × 8 columns in which the matrix 1 and the matrix 2 are arranged is generated, and a transposed matrix 3 T is generated (S12). The transposed matrix 3 T is 8 rows × 25 columns. Further, generating unit 22 performs multiplication of the transposed matrix 3 T and the matrix 3, as shown to step S13 in FIG. 4, to generate the covariance matrix shown in S14. Similarly, the generation unit 22 generates a covariance matrix from a matrix created by corresponding blocks of preceding and following frames. When the screen is vertically long or square, generally, when the granularity is m × m (m: integer of 2 or more) and one frame is divided into N blocks, (2 × N) × (2 × N) A covariance matrix is generated.

演算手段23は、上記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求めるものである。図5に示すように、まず共分散行列から既知の演算により固有値及び固有ベクトルを求める(S15)。求められた固有値をλ1〜λ8とし、固有ベクトルVを次の(式1)とする。 The computing means 23 obtains eigenvalues and eigenvectors from the covariance matrix and obtains Euclidean distances between corresponding blocks in the preceding and succeeding frames based on the eigenvalues and eigenvectors. As shown in FIG. 5, eigenvalues and eigenvectors are first obtained from the covariance matrix by a known calculation (S15). The obtained eigenvalues are set to λ 1 to λ 8 , and the eigenvector V is set to the following (formula 1).

次に演算手段23は、(式1)の固有ベクトルVと上記(行列3T)と(行列3)を用いて、((行列3)・V)T・(行列3)を計算して特徴ベクトルを算出する。ここで算出される特徴ベクトルは、次に示す(式2)のように8行8列(一般的にはk行k列)であり、(式2)における行方向に並ぶ要素を集合して特徴ベクトルc1〜c8を得る。即ち、c1={c11,・・・,c81T 、c2={c12,・・・,c82T 、・・・、c8={c18,・・・,c88T を得る。なお、(式2)においては、行列3をQにより示している。 Next, the calculation means 23 calculates ((matrix 3) · V) T · (matrix 3) using the eigenvector V of (Equation 1) and the above (matrix 3 T ) and (matrix 3) to calculate the feature vector. Is calculated. The feature vector calculated here is 8 rows and 8 columns (generally k rows and k columns) as shown in (Expression 2) below, and the elements arranged in the row direction in (Expression 2) are collected. Feature vectors c1 to c8 are obtained. That, c1 = {c 11, ··· , c 81} T, c2 = {c 12, ···, c 82} T, ···, c8 = {c 18, ···, c 88} T Get. In (Expression 2), the matrix 3 is indicated by Q.

更に演算手段23は、特徴ベクトルc1〜c8の各要素間の距離を算出するものであり、本実施例では各要素間の距離をdmnとするとき、次の(式3)により、ユークリッド距離が求められる(図5のS16)。(式3)は、一般式であり、共分散行列が8行×8列である本例では、k=8である。   Further, the computing means 23 calculates the distance between each element of the feature vectors c1 to c8. In this embodiment, when the distance between each element is dmn, the Euclidean distance is calculated by the following (Equation 3). It is obtained (S16 in FIG. 5). (Expression 3) is a general expression, and in this example where the covariance matrix is 8 rows × 8 columns, k = 8.

演算手段23によって求められたユークリッド距離は、図5に示す距離行列Dのように、8行×8列であり、第1フレームFrame1の1〜4で示す4ブロックと第2フレームFrame2の5〜8で示す4ブロックにおいてそれぞれ対応するブロックについての距離は、右上側に斜めに並ぶD(1,5)、D(2,6)、D(3,7)、D(4,8)或いは、左下側に斜めに並ぶD(5,1)、D(6,2)、D(7,3)、D(8,4)に存在する。図5には、上記以外に第1フレームFrame1のブロック1と第2フレームFrame2のブロック8との距離D(8,1)の位置と、第2フレームFrame2のブロック6と第2フレームFrame2のブロック7との距離D(7,6)の位置についても示すことにより、距離行列Dの構成を説明している。   The Euclidean distance obtained by the calculation means 23 is 8 rows × 8 columns as shown in the distance matrix D shown in FIG. 5, and 4 blocks indicated by 1 to 4 of the first frame Frame1 and 5 of the second frame Frame2. The distances for the corresponding blocks in the four blocks indicated by 8 are D (1,5), D (2,6), D (3,7), D (4,8) or D (4,8) or It exists in D (5,1), D (6,2), D (7,3), and D (8,4) arranged diagonally on the lower left side. In FIG. 5, in addition to the above, the position of the distance D (8, 1) between the block 1 of the first frame Frame1 and the block 8 of the second frame Frame2, the block 6 of the second frame Frame2, and the block of the second frame Frame2 The structure of the distance matrix D is described by also showing the position of the distance D (7, 6) to 7.

演算手段23は、前後フレームにおける残りの対応するブロックについても同様の演算によりユークリッド距離を求める。ここでは、1フレームが320×240画素で、分割粒度を5×5画素としたので、全体では64×48=3072個のユークリッド距離が求められる。   The calculating means 23 calculates the Euclidean distance by the same calculation for the remaining corresponding blocks in the previous and subsequent frames. Here, since one frame is 320 × 240 pixels and the division granularity is 5 × 5 pixels, 64 × 48 = 3072 Euclidean distances are obtained as a whole.

図1における処理手段24は、ユークリッド距離と閾値とを用いて画像処理を行う。分割粒度を5×5画素とした場合、前後する1フレームにおいて対応するブロック間のユークリッド距離は64×48得られ、図6のマトリックスに並べることができる。これに対し、例えば実際に移動物体が移動する画像から得たユークリッド距離を用いて作成した閾値と、上記マトリックスのユークリッド距離を求めて閾値を超えているブロックを選択し、移動物体と判定する。処理手段24は、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行う。ここでは、処理手段24は、まずエッジ検出及びラベリングを実行する。   The processing means 24 in FIG. 1 performs image processing using the Euclidean distance and the threshold value. When the division granularity is 5 × 5 pixels, the Euclidean distance between corresponding blocks in one frame before and after is obtained 64 × 48 and can be arranged in the matrix of FIG. On the other hand, for example, a threshold created using the Euclidean distance obtained from an image in which the moving object actually moves and a block that exceeds the threshold by obtaining the Euclidean distance of the matrix are selected and determined as a moving object. The processing means 24 performs at least one of moving object edge detection, tracking, labeling, and Hough transform. Here, the processing means 24 first performs edge detection and labeling.

例えば、閾値を超えているブロックに1を割り当て、閾値以下のブロックに0を割り当て1フレームについて1と0のモザイクにより構成し、前後するフレームにおいて値が0から1にまたは1から0に変化しているブロックを検出するエッジ検出を行う。このエッジ検出の後、図7においてはハッチングが施されて示されているエッジとされたブロックが図7(a)のようにループしているか、図7(b)のようにループしていないかを検出し、ループしている場合に、ループのエリアに異なる番号を割り当てるラベリングを行う。   For example, 1 is assigned to a block that exceeds the threshold, 0 is assigned to a block that is less than or equal to the threshold, and 1 frame is composed of 1 and 0, and the value changes from 0 to 1 or from 1 to 0 in the preceding and following frames. Edge detection is performed to detect blocks that are present. After this edge detection, the blocks shown as hatched in FIG. 7 are looped as shown in FIG. 7 (a) or not looped as shown in FIG. 7 (b). If a loop is detected, labeling that assigns a different number to the loop area is performed.

ラベリングにより、例えば図8に示されるように移動物体A(番号1)と移動物体B(番号2)が1フレームに検出されている場合に、複数フレームにおいてはトラッキングを行う。この場合、各フレームにおいて全ブロックのユークリッド距離が求まっているため、処理手段24はこのユークリッド距離を用いて移動物体Aと移動物体Bのトラッキングを行う。   For example, when the moving object A (number 1) and the moving object B (number 2) are detected in one frame by labeling as shown in FIG. 8, tracking is performed in a plurality of frames. In this case, since the Euclidean distance of all the blocks is obtained in each frame, the processing unit 24 tracks the moving object A and the moving object B using the Euclidean distance.

トラッキングの手法としては、例えば、前述の閾値を超えている領域の大きさを用いることや、ラベリングされた領域のユークリッド距離の平均や分布を用いる等して、各フレームにおいて移動物体Aと移動物体Bとを同定する。トラッキングした移動物体Aの領域に例えば赤い矩形による枠を表示し、トラッキングした移動物体Bの領域に例えば黒い矩形による枠を表示して、図1に示されている図1の表示部13に表示する。これにより、表示された映像を目視することにより移動物体Aを赤い矩形によって追跡することができ、また移動物体Bを黒い矩形によって追跡することができ、監視の場合に有効である。   As a tracking method, for example, the moving object A and the moving object are used in each frame by using the size of the area exceeding the above-described threshold or using the average or distribution of the Euclidean distance of the labeled area. B is identified. For example, a red rectangular frame is displayed in the tracked moving object A area, and a black rectangular frame is displayed in the tracked moving object B area, for example, and displayed on the display unit 13 of FIG. 1 shown in FIG. To do. Accordingly, the moving object A can be tracked by the red rectangle by visually observing the displayed video, and the moving object B can be tracked by the black rectangle, which is effective for monitoring.

処理手段24が、ハフ変換を行うものであっても良い。例えば前述のトラッキングにより移動物体が複数フレームに検出され、この移動物体の移動方向を示す線分をハフ変換により求める。移動物体が単一ブロックはまたは複数ブロックの塊としてトラッキングにより検出し、この移動物体の位置情報(座標)を用いてハフ変換するだけでよく、高精度なハフ変換による結果を得て表示することができる。   The processing means 24 may perform Hough conversion. For example, a moving object is detected in a plurality of frames by the tracking described above, and a line segment indicating the moving direction of the moving object is obtained by Hough transform. A moving object is detected as a single block or a block of multiple blocks by tracking, and it is only necessary to perform Hough transform using the position information (coordinates) of this moving object, and obtain and display the result of high-precision Hough transform. Can do.

図9は、画像処理用プログラムに対応するフローチャートである。このフローチャートにより図1に示されている各手段が実現されるので、このフローチャートに基づきCPU10による動作を説明する。画像処理装置が起動されてスタートとなると、画像信号の第i(当初i=1)フレームを取り込み(S21)、更に画像信号の第i+1フレームを取り込む(S22)。次に、CPU10は、第iフレームと第i+1フレームにおける対応するj個のブロックを取り込み、行列を作成する(S23)。これによって、1フロックの分割粒度を5×5画素とした場合には、図2に示される行列が作成される。   FIG. 9 is a flowchart corresponding to the image processing program. Since each means shown in FIG. 1 is realized by this flowchart, the operation of the CPU 10 will be described based on this flowchart. When the image processing apparatus is started and started, the i-th (initially i = 1) frame of the image signal is captured (S21), and the i + 1-th frame of the image signal is further captured (S22). Next, the CPU 10 takes in corresponding j blocks in the i-th frame and the i + 1-th frame and creates a matrix (S23). Accordingly, when the division granularity of 1 flock is 5 × 5 pixels, the matrix shown in FIG. 2 is created.

次に、CPU10は、上記行列を用いて固有値と固有ベクトルを求め、この固有値と固有ベクトルを用いて既に説明の通りの処理により共分散行列を生成する(S24)。この共分散行列は、図4に示されているようである。   Next, the CPU 10 obtains eigenvalues and eigenvectors using the above matrix, and generates a covariance matrix using the eigenvalues and eigenvectors as described above (S24). This covariance matrix is as shown in FIG.

ステップS24に続いて、共分散行列を用いて第iフレームと第i+1フレームにおける対応するブロック間のユークリッド距離を求める(S25)。求められるユークリッド距離は、図5に示すように8行×8列の距離行列Dである。   Subsequent to step S24, a Euclidean distance between corresponding blocks in the i-th frame and the i + 1-th frame is obtained using a covariance matrix (S25). The obtained Euclidean distance is a distance matrix D of 8 rows × 8 columns as shown in FIG.

ステップS25においてユークリッド距離が求められると、全対象ブロックの処理が終了したのかを検出し(S26)、NOとなると選択するブロックを更新して(S27)、ステップS23へ戻って処理を続ける。また、ステップS26において全対象ブロックの処理が終了したことが検出された場合には、対応ブロックのユークリッド距離と予め用意した閾値を比較し、閾値を超えるブロックを抽出する(S28)。   When the Euclidean distance is obtained in step S25, it is detected whether the processing of all target blocks has been completed (S26). If NO, the selected block is updated (S27), and the process returns to step S23 to continue the processing. If it is detected in step S26 that all the target blocks have been processed, the Euclidean distance of the corresponding block is compared with a threshold value prepared in advance, and a block exceeding the threshold value is extracted (S28).

更にステップS28に続いて抽出されたブロックがあるかを検出し(S29)、抽出ブロックがある場合には既に述べた通りにエッジ検出及びラベリングを行い(S30)、トラッキングやハフ変換を行うための所定フレーム数の処理が終了しているかを検出して(S31)、所定フレーム数が処理されている場合には、既述のトラッキングを行い(S32)、予め設定された線分等を検出するためのハフ変換を行う(S33)。   Further, following step S28, it is detected whether there is an extracted block (S29). If there is an extracted block, edge detection and labeling are performed as described above (S30) to perform tracking and Hough transform. Whether the predetermined number of frames has been processed is detected (S31). If the predetermined number of frames has been processed, the above-described tracking is performed (S32) to detect a preset line segment or the like. The Hough transform is performed (S33).

ステップS33の終了後、またはステップS29、S31においてNOとなった場合には、処理結果と共に処理した画像信号による画像表示を行う(S34)。この表示に続いて次の処理フレームの有無を検出して(S35)、次の処理フレームがある場合には、iを1インクリメントして(S36)、ステップS22へ戻って処理を続ける一方、次の処理フレームがなければエンドとなる。   After the end of step S33, or when NO in steps S29 and S31, the image display is performed using the processed image signal together with the processing result (S34). Following this display, the presence or absence of the next processing frame is detected (S35), and if there is a next processing frame, i is incremented by 1 (S36), and the process returns to step S22 to continue the processing. If there is no processing frame, the end.

以上の通り、1フレームをブロックに分割して前後のフレームにおける対応ブロックのユークリッド距離を求めることにより、閾値と比較して移動物体を高精度で検出することができ、また、エッジ検出、トラッキング、ラベリング及びハフ変換などの後処理における演算量の低減とアルゴリズムの簡素化が可能である。尚、上記の実施形態では、各手段をソフトウエアによって実現したが、演算回路や論理回路のようなハードウエアの組み合わせによっても各手段を実現し、これにより画像処理装置を構成するようにしても良い。   As described above, by dividing one frame into blocks and calculating the Euclidean distance of the corresponding block in the preceding and succeeding frames, it is possible to detect a moving object with high accuracy compared to a threshold, and edge detection, tracking, It is possible to reduce the amount of computation and simplify the algorithm in post-processing such as labeling and Hough transform. In the above-described embodiment, each unit is realized by software. However, each unit is also realized by a combination of hardware such as an arithmetic circuit and a logic circuit, thereby configuring the image processing apparatus. good.

10 CPU
11 メモリ
13 表示部
21 行列作成手段
22 生成手段
23 演算手段
24 処理手段
10 CPU
DESCRIPTION OF SYMBOLS 11 Memory 13 Display part 21 Matrix preparation means 22 Generation means 23 Calculation means 24 Processing means

Claims (9)

画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成する行列作成手段と、
前記対応する行列を用いて共分散行列を生成する生成手段と、
前記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求める演算手段と、
ユークリッド距離と閾値とを用いて画像処理を行う処理手段と
を具備することを特徴とする画像処理装置。
A matrix for creating a matrix of luminance data for each of a plurality of corresponding blocks in temporally preceding and following frames by using m × m (m: integer greater than or equal to 2) pixels in one frame in an image as a block. Creating means;
Generating means for generating a covariance matrix using the corresponding matrix;
Calculating means for obtaining eigenvalues and eigenvectors from the covariance matrix, and obtaining Euclidean distances between corresponding blocks of the preceding and following frames based on the eigenvalues and eigenvectors;
An image processing apparatus comprising: processing means for performing image processing using a Euclidean distance and a threshold value.
1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein all blocks or thinned blocks in one frame are used for creating a matrix. 処理手段においては、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行うことを特徴とする請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processing unit performs at least one of edge detection, tracking, labeling, and Hough transform of a moving object. 画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成する行列作成ステップと、
前記対応する行列を用いて共分散行列を生成する生成ステップと、
前記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求める演算ステップと、
ユークリッド距離と閾値とを用いて画像処理を行う処理ステップと
を実行することを特徴とする画像処理方法。
A matrix for creating a matrix of luminance data for each of a plurality of corresponding blocks in temporally preceding and following frames by using m × m (m: integer greater than or equal to 2) pixels in one frame in an image as a block. Creation steps,
Generating a covariance matrix using the corresponding matrix;
An eigenvalue and an eigenvector are obtained from the covariance matrix, and an Euclidean distance between corresponding blocks of the preceding and succeeding frames based on the eigenvalue and eigenvector is calculated.
An image processing method comprising: performing a process step of performing image processing using a Euclidean distance and a threshold value.
1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用することを特徴とする請求項4に記載の画像処理方法。   5. The image processing method according to claim 4, wherein all blocks or thinned blocks in one frame are used for creating a matrix. 処理ステップにおいては、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行うことを特徴とする請求項4または5に記載の画像処理方法。   6. The image processing method according to claim 4, wherein in the processing step, at least one of edge detection, tracking, labeling, and Hough transform of a moving object is performed. 画像処理を行うコンピュータを、
画像における1フレーム中のm×m(m:2以上の整数)画素を1ブロックとして、時間的に前後のフレームにおける対応する複数のブロックについてそれぞれの輝度データによる行列を前後のフレーム分作成する行列作成手段、
前記対応する行列を用いて共分散行列を生成する生成手段、
前記共分散行列から固有値及び固有ベクトルを求め、固有値及び固有ベクトルに基づき前後のフレームの対応する各ブロック間のユークリッド距離を求める演算手段、
ユークリッド距離と閾値とを用いて画像処理を行う処理手段
として機能させることを特徴とする画像処理用プログラム。
A computer that performs image processing
A matrix for creating a matrix of luminance data for each of a plurality of corresponding blocks in temporally preceding and following frames by using m × m (m: integer greater than or equal to 2) pixels in one frame in an image as a block. Creation means,
Generating means for generating a covariance matrix using the corresponding matrix;
An operation means for obtaining eigenvalues and eigenvectors from the covariance matrix and obtaining Euclidean distances between corresponding blocks of the preceding and succeeding frames based on the eigenvalues and eigenvectors,
An image processing program that functions as a processing unit that performs image processing using a Euclidean distance and a threshold value.
コンピュータが、1フレームにおける全ブロックまたは間引いたブロックを行列の作成に使用するように機能させることを特徴とする請求項7に記載の画像処理用プログラム。   8. The image processing program according to claim 7, which causes the computer to function so as to use all blocks or thinned blocks in one frame for creating a matrix. コンピュータを処理手段として、移動物体のエッジ検出、トラッキング、ラベリング及びハフ変換の少なくとも1つを行うように機能させることを特徴とする請求項7または8に記載の画像処理用プログラム。   The image processing program according to claim 7 or 8, wherein the computer functions as a processing unit to perform at least one of edge detection, tracking, labeling, and Hough transform of a moving object.
JP2010016995A 2010-01-28 2010-01-28 Image processing apparatus, image processing method, and image processing program Expired - Fee Related JP5455682B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010016995A JP5455682B2 (en) 2010-01-28 2010-01-28 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010016995A JP5455682B2 (en) 2010-01-28 2010-01-28 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2011154632A true JP2011154632A (en) 2011-08-11
JP5455682B2 JP5455682B2 (en) 2014-03-26

Family

ID=44540527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010016995A Expired - Fee Related JP5455682B2 (en) 2010-01-28 2010-01-28 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5455682B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
JP2006148442A (en) * 2004-11-18 2006-06-08 Toshiba Corp Mobile monitoring apparatus
JP2008243187A (en) * 2007-03-27 2008-10-09 Mitsubishi Electric Research Laboratories Inc Computer implemented method for tracking object in video frame sequence
JP2009093500A (en) * 2007-10-10 2009-04-30 Toshiba Information Systems (Japan) Corp Data processing apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
JP2006148442A (en) * 2004-11-18 2006-06-08 Toshiba Corp Mobile monitoring apparatus
JP2008243187A (en) * 2007-03-27 2008-10-09 Mitsubishi Electric Research Laboratories Inc Computer implemented method for tracking object in video frame sequence
JP2009093500A (en) * 2007-10-10 2009-04-30 Toshiba Information Systems (Japan) Corp Data processing apparatus

Also Published As

Publication number Publication date
JP5455682B2 (en) 2014-03-26

Similar Documents

Publication Publication Date Title
US10412462B2 (en) Video frame rate conversion using streamed metadata
US10572736B2 (en) Image processing apparatus, image processing system, method for image processing, and computer program
KR102070562B1 (en) Event-based image processing device and method thereof
EP2352128B1 (en) Mobile body detection method and mobile body detection apparatus
US9436981B2 (en) Dictionary creation device, image processing device, image processing system, dictionary creation method, image processing method, and program
JP2018170003A (en) Detection device and method for event in video, and image processor
CN109977912B (en) Video human body key point detection method and device, computer equipment and storage medium
CN110930434B (en) Target object following method, device, storage medium and computer equipment
JP2019003299A (en) Image recognition device and image recognition method
JP2019062527A (en) Real-time object re-identification in multi-camera system using edge computing
CN110956131B (en) Single-target tracking method, device and system
Mahmoudi et al. Multi-gpu based event detection and localization using high definition videos
CN110689014B (en) Method and device for detecting region of interest, electronic equipment and readable storage medium
JP2017130042A (en) Video processing apparatus, video processing method, and program
JP5441737B2 (en) Image processing apparatus, image processing method, and image processing program
US9392146B2 (en) Apparatus and method for extracting object
JP2014110020A (en) Image processor, image processing method and image processing program
WO2018179119A1 (en) Image analysis apparatus, image analysis method, and recording medium
JP2012181710A (en) Object tracking device, method and program
JP2017126264A (en) Information processor, information processing method and program
JP2008113292A (en) Motion estimation method and device, program thereof and recording medium thereof
JP5455682B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012185655A (en) Image processing system, image processing method and image processing program
KR20100003176A (en) System and method for motion estimation of digital video using multiple recursion rules
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140107

R150 Certificate of patent or registration of utility model

Ref document number: 5455682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees