JP2008084076A - Image processor, method, and program - Google Patents

Image processor, method, and program Download PDF

Info

Publication number
JP2008084076A
JP2008084076A JP2006264359A JP2006264359A JP2008084076A JP 2008084076 A JP2008084076 A JP 2008084076A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2008084076 A JP2008084076 A JP 2008084076A
Authority
JP
Japan
Prior art keywords
image
model
label
region
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006264359A
Other languages
Japanese (ja)
Inventor
Sunao Mishima
直 三島
Takeshi Ito
伊藤  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006264359A priority Critical patent/JP2008084076A/en
Publication of JP2008084076A publication Critical patent/JP2008084076A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To perform image processing highly precisely by performing assignment of optimal labels all over an image. <P>SOLUTION: An image processor is provided with: an area division part 112 for dividing a target image into a plurality of areas; and a label assignment part 111 which selects a parametric model where conformity with the parametric model and value of an evaluation function that indicates the degree of smoothness representing whether or not a model identification label changes between adjacent pixels changes become minimum from among a plurality of parametric models including a plurality of model parameters and the model identification labels for identifying models to be models for coordinating points on the target image and points on a reference image, and executes label assignment processing for assigning a model identification label of the selected parametric model to a pixel in the area in order of the number of pixels among the plurality of areas. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力された画像に関する複数のパラメータモデルを導入して、入力された画像の領域ごとにパラメータモデルを割り当てて画像処理を行う画像処理装置、方法およびプログラムに関する。   The present invention relates to an image processing apparatus, method, and program for introducing a plurality of parameter models related to an input image and performing image processing by assigning the parameter model to each region of the input image.

画像の領域ごとに予め定められたパラメトリックモデルを適用し、画像処理を行う技術としては、例えば、非特許文献1の技術が知られている。非特許文献1の技術では、画像の動きを推定する問題に対して、2つの画像間の局所的な動きをオプティカルフローなどの手法で推定し、推定された局所的な動きの集合から複数のモデルパラメータをアフィン変換と最小二乗法の手法により抽出し、k-means法、watershed法などの手法により画像を複数の領域に分割して、分割された領域ごとに最適なパラメータを選択するラベリングを行う技術が開示されている。このような技術によれば、画像の領域ごとに適切な動きモデルが選択される。   As a technique for performing image processing by applying a predetermined parametric model for each region of an image, for example, the technique of Non-Patent Document 1 is known. In the technique of Non-Patent Document 1, with respect to the problem of estimating the motion of an image, a local motion between two images is estimated by a technique such as an optical flow, and a plurality of local motions are estimated from a set of estimated local motions. The model parameters are extracted by the affine transformation and least square method, and the image is divided into multiple regions using the k-means method, watershed method, etc., and labeling is performed to select the optimal parameters for each divided region. Techniques to do are disclosed. According to such a technique, an appropriate motion model is selected for each region of the image.

P. E. Eren, Y. Altunbasak and M. Tekalp, "Region-based affine motion segmentation using color information", IEEE ICASSP1997, Vol. 4, pp. 3005 - 3008, 1997P. E. Eren, Y. Altunbasak and M. Tekalp, "Region-based affine motion segmentation using color information", IEEE ICASSP1997, Vol. 4, pp. 3005-3008, 1997

このような従来技術では、ラベリングは領域ごとにモデルパラメータの適合度のみを用いた最尤推定がおこなわれ、ラベリングが動き推定の結果の精度に大きな影響を与える。このため、サンプリング数が多いサイズの大きい領域では高精度となる一方、サイズの小さい領域に関してはサンプリング数が少なくなるので、最適なラベリングを行うことができず、動き推定の精度が低くなるという問題がある。   In such a conventional technique, labeling is performed by maximum likelihood estimation using only the fitness of model parameters for each region, and the labeling greatly affects the accuracy of the motion estimation result. For this reason, while high accuracy is obtained in a large area with a large number of samplings, the number of samplings is reduced in an area with a small size, so that optimal labeling cannot be performed and the accuracy of motion estimation is reduced. There is.

本発明は、上記に鑑みてなされたものであって、画像全体に亘って最適なラベル割り当てを行って、パラメータモデルを適用した画像処理を高精度に行うことができる画像処理装置、方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and is an image processing apparatus, method, and program capable of performing image processing using a parameter model with high accuracy by performing optimal label allocation over the entire image. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、を備えたことを特徴とする。   In order to solve the above-described problem and achieve the object, an image processing apparatus according to the present invention includes a region dividing unit that divides a first image into a plurality of regions each including a plurality of pixels, A model for associating a point on the second image with a point on the second image, the parametric model including a plurality of model parameters and a model identification label for identifying the model. Select the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the model and the smoothness indicating whether the model identification label changes between adjacent pixels, and the parametric model of the selected parametric model A label that executes a process of assigning a label for assigning a model identification label to a pixel in the region in order from the largest number of pixels in the plurality of regions. And an image processing unit for obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel. It is characterized by.

また、本発明は、動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り
当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、を備えたことを特徴とする。
本発明は、上記画像処理装置に対応する画像処理方法およびプログラムである。
The present invention also provides an area dividing unit that divides a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels, and a background A label allocating unit that executes a process of allocating a label for allocating an area type label for identifying an area or a moving area to a pixel in the area in order from the largest number of pixels in the plurality of areas; And a moving area detecting unit that detects the moving area from the target image based on the area type label.
The present invention is an image processing method and program corresponding to the image processing apparatus.

本発明によれば、画像全体に亘って最適なラベル割り当てを行って、画像処理を高精度に行うことができるという効果を奏する。   According to the present invention, there is an effect that image processing can be performed with high accuracy by performing optimal label allocation over the entire image.

以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法およびプログラムの最良な実施の形態を詳細に説明する。   Exemplary embodiments of an image processing apparatus, an image processing method, and a program according to the present invention are explained in detail below with reference to the accompanying drawings.

(実施の形態1)
図1は、実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。実施の形態1にかかる動き推定装置は、対象画像と参照画像の各点の動きを推定するものであり、図1に示すように、局所動き推定部101と、モデル生成部107と、領域分割部112と、ラベル割当部111と、画像処理部113と、フレームメモリ106と、メモリ103とを主に備えている。
(Embodiment 1)
FIG. 1 is a block diagram of a functional configuration of the motion estimation apparatus according to the first embodiment. The motion estimation apparatus according to the first embodiment estimates the motion of each point of the target image and the reference image. As illustrated in FIG. 1, the local motion estimation unit 101, the model generation unit 107, and the region division Mainly includes a unit 112, a label allocation unit 111, an image processing unit 113, a frame memory 106, and a memory 103.

局所動き推定部101は、対象画像と参照画像から、ブロックマッチングの手法により2つ画像間の動き推定を行って、各点の動きベクトルを求める処理部である。   The local motion estimation unit 101 is a processing unit that performs motion estimation between two images from a target image and a reference image using a block matching technique, and obtains a motion vector at each point.

モデル生成部107は、局所動き推定の結果から、対象画像上の点と参照画像上の点とを対応付けるためパラメトリックモデルを生成するものである。パラメトリックモデルは、パラメトリックモデルを規定する複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含み、このモデル識別ラベルによりラベル付けされている。本実施の形態では、パラメトリックモデルは、モデルパラメータにより、モデル識別ラベルの領域における第1の画像における各点の第2の画像上との点の動きベクトルを求めるためのモデルである。モデル生成部107は、モデル定義部108と、クラスタリング処理部109と、パラメータ推定部110とを備えている。   The model generation unit 107 generates a parametric model for associating a point on the target image with a point on the reference image from the result of local motion estimation. The parametric model includes a plurality of model parameters defining the parametric model and a model identification label for identifying the model, and is labeled with the model identification label. In the present embodiment, the parametric model is a model for obtaining a motion vector of a point on the second image of each point in the first image in the region of the model identification label based on the model parameter. The model generation unit 107 includes a model definition unit 108, a clustering processing unit 109, and a parameter estimation unit 110.

モデル定義部108は、上記パラメトリックモデルを定義し生成してメモリ103に保存する処理部である。   The model definition unit 108 is a processing unit that defines and generates the parametric model and stores it in the memory 103.

クラスタリング処理部109は、局所動き推定部101で求めた対象画像上の各点の動きベクトルを分類して(クラスタリングして)、ラベル割り当ての初期値を付与する処理部である。   The clustering processing unit 109 is a processing unit that classifies (clusters) the motion vectors of each point on the target image obtained by the local motion estimation unit 101 and assigns an initial value for label allocation.

パラメータ推定部110は、モデル識別ラベルごとに、同一のモデル識別ラベル内において、パラメトリックモデルによって定められる動きベクトルと各点の局所動き推定部101によって求めた動きベクトルとの誤差から求められる誤差エネルギーを最小にするモデルパラメータを最小二乗法によって推定する処理部である。   For each model identification label, the parameter estimation unit 110 calculates error energy obtained from the error between the motion vector determined by the parametric model and the motion vector obtained by the local motion estimation unit 101 at each point within the same model identification label. It is a processing unit for estimating the model parameter to be minimized by the least square method.

領域分割部112は、対象画像のフレームを画素値に基づいた領域に分割する(クラスタリングする)処理部である。領域分割部112は、さらに分割された各領域に領域(クラスタ)を識別するための領域ラベルを割り当てる。   The region dividing unit 112 is a processing unit that divides (clusters) the frame of the target image into regions based on pixel values. The area dividing unit 112 assigns an area label for identifying an area (cluster) to each further divided area.

ラベル割当部111は、複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す
評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域分割部112によって分割された領域(クラスタ)内の画素に割り当てるラベル割り当てを行う処理部である。
具体的には、ラベル割当部111は、分割された領域(クラスタ)内の画素に対して、対象画像の画素と参照画像の画素と各画素の動きベクトルに基づいた尤度エネルギーU1と正則化エネルギーU2とに基づいた上記評価関数が最小にするパラメトリックモデルを選択してラベル割り当ての処理を行っている。また、ラベル割当部111は、このようなラベル割り当ての処理を、複数の領域(クラスタ)のうち画素数が多い(クラスタサイズの大きい)ものから順に領域を選択して評価関数の値を計算して実行している。
画像処理部113は、各画素に割り当てられたモデル識別ラベルに対応するパラメトリックモデルに基づいて、対象画像と参照との対応関係を求めて動き推定を行い、その結果を動き推定結果として出力する処理部である。
なお、上記各部の詳細については後述する。
The label allocating unit 111 is a parametric that minimizes the value of an evaluation function indicating the degree of conformity between the parametric model and the smoothness indicating whether or not the model identification label changes between adjacent pixels from among a plurality of parametric models. This is a processing unit that selects a model and assigns a label to assign a model identification label of the selected parametric model to pixels in a region (cluster) divided by the region dividing unit 112.
Specifically, the label allocating unit 111 performs regularity on the likelihood energy U 1 based on the pixel of the target image, the pixel of the reference image, and the motion vector of each pixel for the pixels in the divided region (cluster). A labeling process is performed by selecting a parametric model that the evaluation function based on the conversion energy U 2 minimizes. Further, the label allocation unit 111 calculates the value of the evaluation function by selecting a region in order from the largest number of pixels (cluster size) from among a plurality of regions (clusters). Running.
The image processing unit 113 performs motion estimation by obtaining the correspondence between the target image and the reference based on the parametric model corresponding to the model identification label assigned to each pixel, and outputs the result as a motion estimation result Part.
The details of each of the above parts will be described later.

フレームメモリ106は、入力された対象画像と参照画像と保存する記憶媒体である。メモリは、各部で求めた計算結果やパラメータ、モデル定義部107で生成したパラメトリックモデル等を保存する記憶媒体である。   The frame memory 106 is a storage medium that stores the input target image and reference image. The memory is a storage medium that stores calculation results and parameters obtained by each unit, a parametric model generated by the model definition unit 107, and the like.

次に、各部の詳細について説明する。本実施の形態では、処理対象の2枚の画像を対象画像、参照画像とし、対象画像から参照画像への動きを求めている。   Next, the detail of each part is demonstrated. In this embodiment, two images to be processed are set as a target image and a reference image, and a motion from the target image to the reference image is obtained.

対象画像、参照画像の点n∈Λ2の画素値をそれぞれg1(n),g2(n)とする。 Let g 1 (n) and g 2 (n) be the pixel values of the point n∈Λ 2 of the target image and the reference image, respectively.

局所動き推定部101では、対象画像と参照画像から、ブロックマッチングの手法を用いて以下のように2つの画像間の動きを推定している。ここで、本実施の形態では、ブロックマッチングの手法を採用しているが、これに限定されるものではなく、例えば、オプティカルフロー推定、勾配法、ベイジアンメソッドなどの各手法を用いて動き推定を行ってもよい。   The local motion estimation unit 101 estimates a motion between two images from the target image and the reference image using a block matching technique as follows. Here, in this embodiment, a block matching method is adopted, but the present invention is not limited to this, and for example, motion estimation is performed using each method such as an optical flow estimation method, a gradient method, and a Bayesian method. You may go.

ブロックマッチングでは、対象画像を(1)式であらかじめ設定された矩形領域のブロックに分割する。   In block matching, the target image is divided into blocks of a rectangular area set in advance by equation (1).

動き探索の領域をW∈R2とすると、差分二乗和基準(SSD:Sum of Squared Difference)に従ったブロックマッチングアルゴリズムは(2)式で示される。 Assuming that the motion search region is WεR 2 , a block matching algorithm in accordance with a sum of squared difference (SSD) is expressed by equation (2).

d(i)が動きベクトル、すなわちブロックiの動きである。ブロックマッチングではブロック内は同一の動きベクトルを有すると仮定され、各画素の動きベクトルは、(3)式で表すことができる。 d (i) is the motion vector, that is, the motion of block i. In block matching, it is assumed that the blocks have the same motion vector, and the motion vector of each pixel can be expressed by equation (3).

局所動き推定部101は、(2)、(3)式により動きベクトルを求める処理を行っている。 The local motion estimation unit 101 performs a process for obtaining a motion vector according to equations (2) and (3).

次に、モデル定義部108の詳細について説明する。モデル定義部108は、パラメトリックモデルを規定してメモリ103に保存する。パラメトリックモデルは、推定したい動きの数だけ用意される。各パラメトリックモデルは、推定したい動きの数分の任意の数のモデル識別ラベルα∈L⊂Zによって、一意に識別される。点nのラベルをz(n)∈Lとし、モデル識別ラベルαが割り当てられている領域の集合、すなわち各動き領域Nαを(4)式で示す。   Next, details of the model definition unit 108 will be described. The model definition unit 108 defines a parametric model and stores it in the memory 103. As many parametric models as the number of motions to be estimated are prepared. Each parametric model is uniquely identified by an arbitrary number of model identification labels α∈L⊂Z corresponding to the number of motions to be estimated. The label of the point n is set to z (n) εL, and a set of regions to which the model identification label α is assigned, that is, each motion region Nα is represented by equation (4).

そして、モデル識別ラベルαが割り当てられた動き領域ごとのパラメトリックモデルを(5)式で定義する。 Then, a parametric model for each motion region to which the model identification label α is assigned is defined by equation (5).

モデルパラメータaαは、対象画像から参照画像への平面から平面への幾何変換を定義したパラメータなど種々の形式を採用することができる。例えば、モデルパラメータaαとして、アファインモデルを用いた場合には(6)、(7)式、2次形式モデルを用いた場合には(8)、(9)式で示される。 As the model parameter aα, various forms such as a parameter defining a plane-to-plane geometric transformation from the target image to the reference image can be adopted. For example, when the affine model is used as the model parameter aα, the equations (6) and (7) are expressed by the equations (8) and (9) when the quadratic form model is used.

この他、モデルパラメータとして、回転変換モデル、ユークリッド変換モデル、相似変換モデル、射影変換モデル、Lie変換モデルなどを用いてもよい。 In addition, a rotation transformation model, Euclidean transformation model, similarity transformation model, projective transformation model, Lie transformation model, and the like may be used as model parameters.

モデル定義部108は、(5)、(6)、(7)式で定義されるパラメトリックモデル、若しくは、(5)、(8)、(9)式で定義されるパラメトリックモデルを生成してメモリ103に保存している。   The model definition unit 108 generates a parametric model defined by the equations (5), (6), and (7) or a parametric model defined by the equations (5), (8), and (9) and stores the memory. 103.

次に、パラメータ推定部110の詳細について説明する。パラメトリックモデルによって定まる動きベクトルは、(10)式で示されるので、これと(5)式を用いると、パラメトリックモデルによって定まる動きベクトルは(11)式で示される。   Next, details of the parameter estimation unit 110 will be described. Since the motion vector determined by the parametric model is expressed by equation (10), using this and equation (5), the motion vector determined by the parametric model is expressed by equation (11).

一方、パラメトリックモデルによって得られる各点の動きベクトルと局所動き推定部101で求めた各点の動きベクトルの誤差を(12)式で定義すると、誤差エネルギーは(13)式で表される。従って、各動きベクトルの定義式(10)、(11)式により、誤差エネルギーは(14)式のようになり、結局(15)式で示されることになる。 On the other hand, when the error between the motion vector of each point obtained by the parametric model and the motion vector of each point obtained by the local motion estimation unit 101 is defined by equation (12), the error energy is expressed by equation (13). Accordingly, the error energy becomes as shown in the equation (14) by the equations (10) and (11) for each motion vector, and is eventually expressed as the equation (15).

一方、モデル識別ラベルα領域内の誤差は、(16)式で示され、このモデル識別ラベルα領域内の誤差が(17)式に示すように最小になるようにモデルパラメータが推定される。 On the other hand, the error in the model identification label α region is expressed by equation (16), and the model parameter is estimated so that the error in the model identification label α region is minimized as shown in equation (17).

本実施の形態では、モデルパラメータと得られた動きベクトルの誤差がガウス分布に従っていると仮定して、最適なモデルパラメータは最小二乗法を使用した数値解析によって求めている。すなわち、最小二乗法における正規方程式は、(18)、(19)、(20)式に示されるため、モデルパラメータは(21)式で示される。 In the present embodiment, assuming that the error between the model parameter and the obtained motion vector follows a Gaussian distribution, the optimum model parameter is obtained by numerical analysis using the least square method. That is, since the normal equation in the least square method is represented by equations (18), (19), and (20), the model parameter is represented by equation (21).

かかる(21)式は連立一次方程式であり、このため、パラメータ推定部110では、モデルパラメータを(21)式により特異値分解法で求めている。なお、モデルパラメータを、LU分解などの他の手法で求めてもよい。 Since the equation (21) is a simultaneous linear equation, the parameter estimation unit 110 obtains the model parameter by the singular value decomposition method using the equation (21). Note that the model parameters may be obtained by other methods such as LU decomposition.

次に、クラスタリング処理部109の詳細について説明する。局所動き推定処理を終了した時点では、ラベル割り当て処理が行われていないため、モデルパラメータの推定を行うことができない。最初にモデルパラメータの推定処理を行う場合には、モデルパラメータの推定処理の実行前に、クラスタリング処理部109によって、局所動き推定部101によって求めた動きベクトルd(n)をクラスタリングすることによりラベル割り当ての初期値として付与している。ここで、動きクラスタリング処理としては、輝度等の画素値に基づいて画像をk−Means法によって複数個にクラスタリングを行って画像を分割し、そのクラスタリング結果によって複数個のモデルパラメータを求め、求めたモデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのラベルを求める。   Next, details of the clustering processing unit 109 will be described. When the local motion estimation process is completed, the model parameter cannot be estimated because the label allocation process is not performed. When the model parameter estimation process is performed first, before the model parameter estimation process is executed, the clustering processing unit 109 clusters the motion vectors d (n) obtained by the local motion estimation unit 101 to assign labels. Is given as the initial value. Here, as motion clustering processing, an image is clustered into a plurality of images by the k-Means method based on pixel values such as luminance, and the image is divided, and a plurality of model parameters are obtained based on the clustering result. The model parameter label is obtained by numerical analysis processing by the k-Means method using the model parameter as an initial value.

次に、領域分割部112の詳細について説明する。領域分割部112では、例えばk−means法やwatershed法等の手法を用いて、対象画像のフレームを画素値の情報に基づいた領域に分割する。   Next, details of the region dividing unit 112 will be described. The region dividing unit 112 divides the frame of the target image into regions based on pixel value information using a technique such as the k-means method or the watershed method.

すなわち、領域分割部112は、対象画像g1を画素値に応じてk個に分割(クラスタリング)する。そして、各領域(クラスタ)に各領域を一意に識別するための領域ラベルw(n)∈K⊂Zを割り当てる。このとき、各領域(クラスタ)は、(22)式で表される。 That is, the area dividing unit 112 divides (clusters) the target image g 1 into k pieces according to the pixel values. Then, a region label w (n) εK⊂Z for uniquely identifying each region is assigned to each region (cluster). At this time, each region (cluster) is expressed by equation (22).

次に、ラベル割当部111の詳細について説明する。ラベル割当部111では、領域分割部112でクラスタリングされた各領域に対して割り当てるパラメトリックモデルを決定している。 Next, details of the label allocation unit 111 will be described. The label allocating unit 111 determines a parametric model to be allocated to each region clustered by the region dividing unit 112.

ここで、対象画像g1(n)、参照画像g2(n)、動きベクトルd(n)が与えられた場合のモデル識別ラベルz(n)の確率密度関数は(23)式で与えられる。 Here, the probability density function of the model identification label z (n) when the target image g 1 (n), the reference image g 2 (n), and the motion vector d (n) are given is given by Equation (23). .

ベイズの定理を用いると、(23)式は、(24)式と等価となる。 Using Bayes' theorem, equation (23) is equivalent to equation (24).

ここで、zとg1、dが独立であると仮定すると、(24)式は、(25)式と等価となる。 Here, assuming that z, g 1 , and d are independent, Expression (24) is equivalent to Expression (25).

(25)式において、p(g2|z,g1,d)は尤度関数といい、モデル識別ラベルzの画像に対する適合度を表す。p(z)は事前密度といい、モデル識別ラベルzの形状としてふさわしいかどうかの事前知識を表す。パラメトリックモデルに従った画素値の差分がガウス分布に従うと仮定すると尤度関数は(26)、(27)式のように定義することができる。 In the equation (25), p (g 2 | z, g 1 , d) is called a likelihood function, and represents the fitness of the model identification label z with respect to the image. p (z) is referred to as prior density, and represents prior knowledge as to whether or not the shape of the model identification label z is appropriate. Assuming that the difference in pixel values according to the parametric model follows a Gaussian distribution, the likelihood function can be defined as shown in equations (26) and (27).

また、ラベルの事前密度は(28)、(29)式のように定義することができる。 Further, the prior density of the label can be defined as in the equations (28) and (29).

N(n)は点nの近傍を示し、モデル識別ラベルが同一のところでは低いエネルギーとなる密度関数である。この定式化の下で尤もらしいモデル識別ラベルzは、(30)式で示すMAP推定問題(Maximum a posteriori probability)の解である。 N (n) indicates the vicinity of the point n, and is a density function that is low energy when the model identification label is the same. The model identification label z that is plausible under this formulation is a solution of the MAP estimation problem (Maximum a posteriori probability) expressed by Equation (30).

(30)式の両辺のlogをとり、マイナス(−)を乗算すると、(31)式のエネルギー最小化問題に帰着する。 Taking the log of both sides of equation (30) and multiplying by minus (-) results in the energy minimization problem of equation (31).

(31)式において、温度パラメータT、ノイズの標準偏差σをまとめてハイパーパラメータλとして記述している。U1はパラメトリックモデルとの適合度を示す尤度エネルギー、U2は隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す正則化エネルギーであり、(31)式は、尤度エネルギーU1と正則化エネルギーU2とからなる評価関数を示している。 In the equation (31), the temperature parameter T and the standard deviation σ of noise are collectively described as a hyper parameter λ. U 1 is a likelihood energy indicating the degree of conformity with the parametric model, U 2 is a regularization energy indicating a smoothness indicating whether or not the model identification label changes between adjacent pixels, and Equation (31) is: An evaluation function composed of likelihood energy U 1 and regularization energy U 2 is shown.

ここで、非特許文献1の技術では、(31)式を尤度エネルギーU1のみで解法しており、正則化エネルギーの項U2がないため、ラベル割り当ての精度が安定しない。 Here, in the technique of Non-Patent Document 1, the equation (31) is solved only by the likelihood energy U 1 , and since there is no regularization energy term U 2 , the accuracy of label allocation is not stable.

本実施の形態では、ラベル割当部111によって正則化エネルギーの項U2を考慮した(31)式を解法することにより、安定した精度でラベル割り当てを行うことができる。 In the present embodiment, label allocation can be performed with stable accuracy by solving the equation (31) in consideration of the regularization energy term U 2 by the label allocation unit 111.

次に、ラベル割当部111による(31)式の解法について説明する。すなわち、ラベル割当部111は、(32)式を解法して各領域(クラスタ)KKに対して、λU1+U2が最小となるモデル識別ラベルαを求める。 Next, the solution of equation (31) by the label allocating unit 111 will be described. That is, the label assigning unit 111 solves the equation (32) to obtain a model identification label α that minimizes λU 1 + U 2 for each region (cluster) K K.

ただし、ただし正則化エネルギーU2には隣接するラベルのエネルギーが含まれるため、(32)式のままでは計算することができない。ここで、領域(クラスタ)の境界のク
リーク(自画素と隣接画素の対)と内部のクリークに着目すると正則化エネルギーU2は(33)式のように変形することができる。
However, since the regularization energy U 2 includes the energy of the adjacent label, it cannot be calculated using the equation (32). Here, the regularization energy U 2 can be transformed as shown in the equation (33) when attention is focused on a clique at the boundary of the region (cluster) (a pair of the own pixel and the adjacent pixel) and an internal clique.

これにより、同一領域に含まれる点で構成されるクリークC1と、異なる領域同士の点で構成されるクリークC2に分けることができる。このとき各領域にどのモデル識別ラベルを選択したとしてもC1のクリークポテンシャルは変化しない。すなわち、この場合C2のクリークポテンシャルがエネルギーに影響を及ぼすことになる。 Thereby, it can be divided into clique C 1 constituted by points included in the same region and clique C 2 constituted by points of different regions. In this case Creek potential of C 1 even on the choice of model identification label to each area is not changed. That is, in this case, the C 2 clique potential affects the energy.

図2は、一辺rの正方形クラスタ、4周辺クリークを示す模式図である。図2のクラスタにおけるC1の数を数えると以下のようになる。 FIG. 2 is a schematic diagram showing a square cluster of one side r, and four peripheral cliques. The number of C 1 in the cluster of FIG. 2 is counted as follows.

頂点では2クリーク。頂点は4個。
辺上の点では3クリーク。辺上の点は4(r−2)個。
内部の点では4クリーク。内部の点は(r−2)2個。
それぞれ点の数を考慮すれば(34)式を導くことができる。
2 creeks at the top. There are 4 vertices.
There are 3 creeks on the side. There are 4 (r-2) points on the side.
4 creeks inside. Inside the point (r-2) 2 pieces.
If the number of points is taken into consideration, the equation (34) can be derived.

また、図2の領域(クラスタ)におけるC2の数を数えると以下のようになる。 Further, the number of C 2 in the region (cluster) of FIG. 2 is counted as follows.

頂点では2クリーク。頂点は4個。
辺上の点では1クリーク。辺上の点は4(r−2)個
内部の点では0クリーク。内部の点は(r−2)2
従って、(35)式が導かれる。
2 creeks at the top. There are 4 vertices.
One creek at the point on the side. There are 4 (r-2) points on the side. The number of internal points is (r-2) 2. Accordingly, the equation (35) is derived.

図3は、同一領域に含まれる点で構成されるクリークC1、異なる点で構成されるクリークC2の各個数を、領域内の全クリーク数に対する割合で示したグラフである。図3からわかるように、辺rの大きさが大きくなるに従い、C2の影響が下がりC1の占める割合が増加している。 FIG. 3 is a graph showing the number of cliques C 1 composed of points included in the same region and the number of cliques C 2 composed of different points as a percentage of the total number of cliques in the region. As can be seen from FIG. 3, as the size of the side r increases, the influence of C 2 decreases and the proportion of C 1 increases.

このことから、辺rが大きくなると正則化エネルギーU2に対するC2の影響が下がりC1が支配的になることが分かり、つまり領域のラベルをどのように選択しても正則化エネルギーU2は大きく変化しなくなることがわかる。従って、辺rが大きいときには、全体エネルギーに対して相対的に正則化エネルギーU2の与える影響は小さくなり、正則化エネルギーU2の影響が大きくなり、エネルギー最小化問題はU1に対する最尤推定の結果に近くなる。 From this, it can be seen that as the side r increases, the influence of C 2 on the regularization energy U 2 decreases and C 1 becomes dominant, that is, the regularization energy U 2 is no matter how the region label is selected. It turns out that it does not change greatly. Therefore, when the edge r is large, the influence of the regularization energy U 2 is relatively small relative to the total energy, the influence of the regularization energy U 2 is large, and the energy minimization problem is the maximum likelihood estimation for U 1 . Close to the result.

一方、辺rが大きいときには大数の法則から、最尤エネルギーU1のラベル選択に対する精度は高くなる。よって辺rが大きいときには最尤エネルギーU1に対する最尤推定で
十分であるということが言える。
On the other hand, when the side r is large, the accuracy for the label selection of the maximum likelihood energy U 1 is high due to the law of large numbers. Therefore, it can be said that the maximum likelihood estimation for the maximum likelihood energy U 1 is sufficient when the side r is large.

なお、図3では正方形の領域で例を示しているが、これに限定されるものではなく、正方形以外の領域に対しても同様である。これは、領域が大きくなるほど、外周が占める割合が同様に急激に低下するためである。   Although FIG. 3 shows an example with a square area, the present invention is not limited to this, and the same applies to areas other than the square. This is because the proportion of the outer circumference decreases rapidly as the area increases.

ただし、領域が例えばゴマ塩状で非常に数が多い場合には上述したとおりにならない可能性が高いが、これは領域の作り方で回避することができる。   However, if the region is, for example, sesame salt and has a very large number, there is a high possibility that it will not be as described above, but this can be avoided by making the region.

図4は、辺rが大きい領域では正則化エネルギーU2を考慮せず、辺rが小さい領域では正則化エネルギーU2を考慮することを示す模式図である。図4に示すように、辺rの小さい領域である境界の領域で正則化エネルギーU2を考慮していることがわかる。 FIG. 4 is a schematic diagram showing that the regularization energy U 2 is not considered in the region where the side r is large, and the regularization energy U 2 is considered in the region where the side r is small. As shown in FIG. 4, it can be seen that the regularization energy U 2 is considered in the boundary region which is a region having a small side r.

具体的には、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化して、領域が大きい順、すなわち領域内の画素数が大きい順に、領域(クラスタ)Kを選択する。そして、(38)式により尤度エネルギーを算出し、(39)式により正則化エネルギーを算出し、(37)式によりラベル値を算出して、算出したラベル値でモデル識別ラベルz(n)を(40)式のように更新する。かかる算出処理およびモデル識別ラベルの更新をすべての領域について繰り返すことにより、モデル識別ラベルの割り当てを行っている。   Specifically, the label allocating unit 111 initializes the model identification label z (n) to −1 as shown in Equation (36), and sets the region (in order from the largest region, that is, from the largest number of pixels in the region). Cluster) K is selected. Then, the likelihood energy is calculated by the equation (38), the regularization energy is calculated by the equation (39), the label value is calculated by the equation (37), and the model identification label z (n) is calculated by the calculated label value. Is updated as shown in equation (40). The model identification label is assigned by repeating the calculation process and the update of the model identification label for all regions.

ここで、(38)式により、領域が大きいときには(37)式は最尤推定そのものとして働き、領域が小さくなってくると徐々に事前密度が影響を及ぼしてくるようになっている。 Here, according to the equation (38), when the region is large, the equation (37) works as maximum likelihood estimation itself, and the prior density gradually affects as the region becomes small.

ここで、同一サイズの領域(すなわち、画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択することとしている。   Here, when there are a plurality of regions of the same size (that is, regions having the same number of pixels), the regions are selected in ascending order of the number of pixels at the boundary of the region.

次に、このように構成された実施の形態1にかかる動き推定装置による動き推定処理について説明する。図5は、実施の形態1にかかる動き推定処理の手順を示すフローチャートである。   Next, a motion estimation process performed by the motion estimation apparatus according to the first embodiment configured as described above will be described. FIG. 5 is a flowchart of a motion estimation process procedure according to the first embodiment.

まず、カウント回数Lを1に初期化し(ステップS11)、(2)、(3)式により局所動き推定処理を行う(ステップS12)。   First, the count number L is initialized to 1 (step S11), and local motion estimation processing is performed using equations (2) and (3) (step S12).

局所動き推定処理が完了したら、モデル定義部108によりパラメトリックモデルを定義する(ステップS13)。そして、クラスタリング処理部109によって動きクラスタリング処理を行い(ステップS14)、対象画像上の各点の動きベクトルをクラスタリングしてラベル割り当ての初期値を求める。   When the local motion estimation process is completed, a parametric model is defined by the model definition unit 108 (step S13). Then, motion clustering processing is performed by the clustering processing unit 109 (step S14), and a motion vector of each point on the target image is clustered to obtain an initial value of label assignment.

次に、パラメータ推定部110によるモデルパラメータ推定処理を行い(ステップS15)、各ラベルの領域に対するモデルパラメータを推定する。そして、領域分割部112によって、領域分割処理を行い(ステップS16)、対象画像のフレームを画素値に基づいた領域にクラスタリングし、各領域に領域ラベルを割り当てる。   Next, model parameter estimation processing is performed by the parameter estimation unit 110 (step S15), and model parameters for each label area are estimated. Then, the region dividing unit 112 performs region dividing processing (step S16), clusters the frames of the target image into regions based on the pixel values, and assigns region labels to each region.

次いで、ラベル割当部111によって、ラベル割り当て処理を行い(ステップS17)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS18)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS19)。   Next, label allocation processing is performed by the label allocation unit 111 (step S17), the parametric model to be allocated to the area (cluster) divided by the area division unit 112 is selected, and the model identification label of the selected parametric model is stored in the area. Assigned to the pixels. Then, the count number L is increased by 1 (step S18), and it is checked whether or not the count number L exceeds a predetermined number of times (step S19).

カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS19:No)、ステップS15からS18までの処理を繰り返す。   When the count number L does not exceed the predetermined number of times (step S19: No), the processing from step S15 to S18 is repeated.

一方、ステップS19において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS19:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、画像処理部113によって、最適なパラメトリックモデルにより動き推定を行って動き推定結果を出力する(ステップS20)。   On the other hand, when the count number L exceeds a predetermined number in step S19 (step S19: Yes), the optimum parametric model is selected for each region, and the image processing unit 113 Motion estimation is performed using an optimal parametric model, and a motion estimation result is output (step S20).

次に、ステップS14における動きクラスタリング処理について説明する。図6は、動きクラスタリング処理の手順を示すフローチャートである。   Next, the motion clustering process in step S14 will be described. FIG. 6 is a flowchart showing the procedure of the motion clustering process.

まず、クラスタリング処理部109は、輝度等の画素値に基づいて、対象画像をk−Means法によって複数個にクラスタリングを行って画像を分割しモデル識別ラベルを求める(ステップS21)。   First, the clustering processing unit 109 performs clustering on the target image into a plurality of images by the k-Means method based on pixel values such as luminance and divides the image to obtain a model identification label (step S21).

そして、そのクラスタリング結果によるモデル識別ラベルに基づき、初期モデルパラメータを推定し、複数個の初期モデルパラメータを求める(ステップS22)。次に、求めた初期モデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのモデル識別ラベルαを求める(ステップS23)。ここで、モデル識別ラベルαは、複数個の初期モデルパラメータに対応して複数個求められる。かかる動きクラスタリング処理は、図5に示すように、局所的な動的マッチング処理が完了した直後に1回だけ実行される。   And based on the model identification label by the clustering result, an initial model parameter is estimated and several initial model parameters are calculated | required (step S22). Next, the model identification label α of the model parameter is obtained by numerical analysis processing by the k-Means method using the obtained initial model parameter as an initial value (step S23). Here, a plurality of model identification labels α are obtained corresponding to a plurality of initial model parameters. Such motion clustering processing is executed only once immediately after the local dynamic matching processing is completed, as shown in FIG.

次に、ステップS15におけるモデルパラメータ推定処理について説明する。図7は、モデルパラメータ推定処理の手順を示すフローチャートである。   Next, the model parameter estimation process in step S15 will be described. FIG. 7 is a flowchart showing a procedure of model parameter estimation processing.

まず、パラメータ推定部110は、クラスタリング処理部109によって求めたモデル識別ラベルαに対して、全ての格子点nに対して、(19)式によりAを、(20)式によりbを計算する(ステップS31)。そして、(21)式を特異値分解法(もしくはLU法)による数値解析により解法処理を行う(ステップS32)。そして、全てのモデル識別ラベルαに対して、上記ステップS31およびS32の処理を繰り返して実行する(
ステップS33)。
First, the parameter estimation unit 110 calculates A by equation (19) and b by equation (20) for all lattice points n for the model identification label α obtained by the clustering processing unit 109 ( Step S31). Then, the equation (21) is solved by numerical analysis using the singular value decomposition method (or LU method) (step S32). And the process of said step S31 and S32 is repeatedly performed with respect to all the model identification labels (alpha) (
Step S33).

次に、ステップS17におけるラベル割り当て処理について説明する。図8は、ラベル割り当て処理の手順を示すフローチャートである。   Next, the label allocation process in step S17 will be described. FIG. 8 is a flowchart showing the procedure of label allocation processing.

まず、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化する(ステップS41)。そして、領域が大きい順、すなわち領域内の画素数が大きい順に、領域Kを選択する(ステップS42)。このとき、同一サイズの領域(画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択する。   First, the label assigning unit 111 initializes the model identification label z (n) to −1 as shown in the equation (36) (step S41). Then, the region K is selected in the descending order of the region, that is, in the descending order of the number of pixels in the region (step S42). At this time, if there are a plurality of regions of the same size (regions having the same number of pixels), the regions are selected in ascending order of the number of pixels at the boundary of the region.

そして、(38)式により尤度エネルギーを算出し(ステップS43)、(39)式により正則化エネルギーを算出する(ステップS44)。そして、(37)式により最尤推定を行ってラベル値を算出する(ステップS45)。そして、算出したラベル値でモデル識別ラベルz(n)を(40)式により更新する(ステップS46)。   Then, likelihood energy is calculated from the equation (38) (step S43), and regularization energy is calculated from the equation (39) (step S44). Then, the maximum likelihood estimation is performed by the equation (37) to calculate the label value (step S45). Then, the model identification label z (n) is updated with the calculated label value according to the equation (40) (step S46).

次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS47)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS47:No)、次にサイズの大きい領域(すなわち、次に画素数の大きい領域)を選択して(ステップS48)、ステップS43からS46までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。   Next, it is determined whether or not the label allocation process has been completed for all areas (step S47). If the label allocation process has not been completed for all the areas (step S47: No), the next largest area (that is, the next largest pixel number) is selected (step S48). The processes from step S43 to S46 are repeated. As a result, label assignment is performed.

図9は対象画像の例、図10は参照画像の例、図11は、領域分割の結果を示す。また、図12は、図9の対象画像、図10の参照画像を用いた場合の比較例としての従来の手法によるラベル割り当て処理結果を示す。図13は、図9の対象画像、図10の参照画像を用いた場合の実施の形態1のラベル割り当て処理結果を示す。   FIG. 9 shows an example of the target image, FIG. 10 shows an example of the reference image, and FIG. 11 shows the result of area division. FIG. 12 shows the result of label allocation processing by a conventional method as a comparative example when the target image of FIG. 9 and the reference image of FIG. 10 are used. FIG. 13 shows the result of label assignment processing in the first embodiment when the target image of FIG. 9 and the reference image of FIG. 10 are used.

図12と図13を比較すればわかるように、実施の形態1による動き推定結果の方が、比較例に比べて高精度にラベル割り当てが行われていることがわかる。   As can be seen from a comparison between FIG. 12 and FIG. 13, it can be seen that the motion estimation result according to the first embodiment performs label assignment with higher accuracy than the comparative example.

このように実施の形態1にかかる動き推定装置100では、(36)〜(39)式により最尤推定を行うことにより、領域が大きいときには最尤推定そのものを求め、領域が小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なモデル識別ラベルの割り当てを行って、最適なパラメトリックモデルを適用した動き推定処理を高精度に行うことができる。   As described above, in the motion estimation apparatus 100 according to the first embodiment, by performing maximum likelihood estimation using the equations (36) to (39), when the area is large, the maximum likelihood estimation itself is obtained, and the area becomes small. Since the prior density is gradually influenced, the optimal model identification label is assigned to the entire image, and the motion estimation process using the optimal parametric model is performed with high accuracy. Can do.

(実施の形態2)
実施の形態1では、動き推定処理の過程で、パラメトリックモデルを定義し、モデルパラメータを推定してパラメトリックモデルを生成して動き推定処理を行っていたが、この実施の形態2では、本発明の画像処理装置を背景差分を行う動領域検出装置に適用している。
(Embodiment 2)
In the first embodiment, in the course of the motion estimation process, a parametric model is defined, a model parameter is estimated to generate a parametric model, and the motion estimation process is performed. The image processing apparatus is applied to a moving region detection apparatus that performs background difference.

背景差分法は、あらかじめ撮影された背景画像に対して、動領域が含まれる対象画像との間の差分を取ることにより、動領域を検出するものである。   In the background subtraction method, a moving area is detected by taking a difference between a background image captured in advance and a target image including the moving area.

図14は、実施の形態2にかかる動領域検出装置1400の機能的構成を示すブロック図である。本実施の形態にかかる動領域検出装置は、あらかじめ撮影された動きのない画像である背景画像を用いて入力された対象画像から動きのある領域である動領域を検出するものであり、図14に示すように、領域分割部1412と、ラベル割当部1411と、動領域検出部1401と、フレームメモリ106と、メモリ103とを主に備えている。   FIG. 14 is a block diagram of a functional configuration of the moving region detection apparatus 1400 according to the second embodiment. The moving region detection apparatus according to the present embodiment detects a moving region that is a moving region from a target image that is input using a background image that is a pre-captured image. FIG. As shown in FIG. 3, the image processing apparatus mainly includes an area dividing unit 1412, a label assigning unit 1411, a moving area detecting unit 1401, a frame memory 106, and a memory 103.

本実施の形態の領域分割部1412は、実施の形態1と同様に、対象画像を複数の領域に分割する。   Similar to the first embodiment, the region dividing unit 1412 according to the present embodiment divides the target image into a plurality of regions.

ラベル割当部1411は、領域分割部112によって分割された領域(クラスタ)に領域種別ラベルを割り当てる処理部である。ここで、領域種別ラベルは、各領域が背景領域であるか動領域であるかを識別するためのラベルであり、本実施の形態では、背景領域の旨を示す領域種別ラベルαをα=0、動領域の旨を示す領域種別ラベルαをα=1としている。ただし、領域種別ラベルの値はこれに限定されるものはない。   The label assigning unit 1411 is a processing unit that assigns region type labels to the regions (clusters) divided by the region dividing unit 112. Here, the area type label is a label for identifying whether each area is a background area or a moving area. In this embodiment, an area type label α indicating a background area is set to α = 0. The area type label α indicating the moving area is set to α = 1. However, the value of the area type label is not limited to this.

より具体的には、ラベル割当部1411は、対象画像の点nの画素値と背景画像の点nの画素の差分値d(n)が予め定められた閾値T以下の場合に、分割された領域に背景領域の領域種別ラベルを割り当てており、この際に、領域の周囲の全ての領域が背景領域を示す領域種別ラベルが割り当てられている場合には閾値Tを増加し、領域の周囲の全ての領域が動領域を示す領域種別ラベルが割り当てられている場合には閾値Tを減少している。そして、ラベル割当部1411は、このような領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行している。   More specifically, the label assigning unit 1411 is divided when the difference value d (n) between the pixel value of the point n of the target image and the pixel of the point n of the background image is equal to or less than a predetermined threshold T. The area type label of the background area is assigned to the area. At this time, if the area type label indicating the background area is assigned to all the areas around the area, the threshold T is increased, When the area type label indicating the moving area is assigned to all the areas, the threshold value T is decreased. Then, the label allocation unit 1411 executes label allocation processing for allocating such area type labels to the pixels in the area in order from the largest number of pixels in the plurality of areas.

以下、ラベル割当部1411によるラベル割り当て処理の詳細について説明する。対象画像の点nの画素値をg1(n)、背景画像の点nの画素値をg2(n)とする。このとき、背景領域の差分値d(n)は、(41)式で表される。そして、ノイズがガウス分布N(0,σ2)に従うとすると、背景領域の差分値d(n)もガウス分布に従う。 Hereinafter, details of the label allocation processing by the label allocation unit 1411 will be described. The pixel value of the point n of the target image is g 1 (n), and the pixel value of the point n of the background image is g 2 (n). At this time, the difference value d (n) of the background region is expressed by equation (41). If the noise follows a Gaussian distribution N (0, σ 2 ), the background area difference value d (n) also follows the Gaussian distribution.

これに対し、動領域の差分値は上記ガウス分布には従わない。点nが(42)式を満たせば、閾値T=1.96σ(σは定数)のときに95%の確率で背景領域であると考えられる。一方、点nが(42)式を満たさない場合には、動領域であると考えられる。 On the other hand, the difference value of the moving area does not follow the Gaussian distribution. If the point n satisfies the equation (42), it is considered to be a background region with a probability of 95% when the threshold value T = 1.96σ (σ is a constant). On the other hand, when the point n does not satisfy the equation (42), it is considered to be a moving region.

領域Kk内の平均差分値を(43)式で定義する。 The average difference value in the region K k is defined by equation (43).

ここで、N(k)は、領域内の画素数である。領域Kkが背景領域に属する場合には、中心極限定理より平均差分値は(44)式のガウス分布に従う。すなわち、精度が(45)式で示す倍率だけ向上することになる。従って、面積の大きい領域はそれだけラベリング精度が高くなることがわかる。 Here, N (k) is the number of pixels in the region. When the region K k belongs to the background region, the average difference value follows the Gaussian distribution of Equation (44) from the central limit theorem. That is, the accuracy is improved by the magnification indicated by the equation (45). Therefore, it can be seen that the region with a large area has higher labeling accuracy.

しかし、面積の小さい領域はそれほど精度が向上しない。そこで本実施の形態では、実施の形態1と同様に空間的な拘束条件を導入したラベル割り当て処理を行う。なお、本実施の形態では、実施の形態1と異なる手法のラベル割り当て処理を行う。 However, the accuracy of a region having a small area is not improved so much. Therefore, in the present embodiment, a label allocation process in which a spatial constraint condition is introduced is performed as in the first embodiment. In the present embodiment, label allocation processing is performed by a method different from that in the first embodiment.

任意の領域の周囲がすべて背景領域であり領域種別ラベルα=0とラベル割り当てされている場合には、この領域も背景領域になると考えた方がラベル割り当てはより安定すると考えられる。一方、任意の領域の周囲がすべて動領域であり領域種別ラベルα=1とラベル割り当てされている場合には、この領域も動領域になると考えた方がラベル割り当てはより安定すると考えられる。以下ではこの概念を定式化する。   If the surroundings of an arbitrary area are all the background area and the area type label α = 0 is assigned, the label assignment is considered to be more stable if it is considered that this area also becomes the background area. On the other hand, if the area around the arbitrary area is all a moving area and the area type label α = 1 is assigned, the label allocation is considered to be more stable if it is considered that this area also becomes a moving area. In the following, this concept is formulated.

判定対象とする領域の周囲の領域が背景領域と判定されている場合には、任意の定数η>0に対して、(46)式を満たすようにすることによって、対象とする領域も背景領域と判定しやすくなる。すなわち、(46)式により、閾値Tの値が増加するので、(42)式により、判定対象の領域の画素の差分値d(n)が背景領域と判定される可能性が高くなる。   When the area around the determination target area is determined as the background area, the target area is also determined as the background area by satisfying the expression (46) for an arbitrary constant η> 0. It becomes easy to judge. That is, since the value of the threshold value T is increased by the equation (46), there is a high possibility that the difference value d (n) of the pixels in the determination target region is determined as the background region by the equation (42).

同様に、対象とする領域の周囲の領域が動領域と判定されている場合には、任意の定数β>0に対して、(47)式を満たすようにすることによって、対象とする領域も動領域と判定しやすくなる。すなわち、(46)式により、閾値Tの値が減少するので、(42)式により、判定対象の領域の画素の差分値d(n)が動領域と判定される可能性が高くなる。 Similarly, when the region around the target region is determined to be a moving region, the target region can be determined by satisfying the expression (47) for an arbitrary constant β> 0. It becomes easy to determine the moving area. That is, since the value of the threshold value T is reduced according to the equation (46), there is a high possibility that the difference value d (n) of the pixel in the determination target region is determined as the moving region according to the equation (42).

ここで、η,βは、判定の対象とする領域の周囲の領域の状況によって決定されるべきである。従って、(46)、(47)式をまとめ、領域Kkに対する閾値Tを定義すると(48)式のようになる。 Here, η and β should be determined according to the situation of the area around the area to be determined. Therefore, when the expressions (46) and (47) are combined and the threshold T for the region K k is defined, the expression (48) is obtained.

ここで、γ(k)は、領域Kkの周囲の領域に背景領域が多ければγ(k)>0、動領域が多ければγ(k)<0となるように定める。例えば、γ(k)の値の範囲を−σ≦γ
(k)≦σとすると、(49)式のように設計することができる。
Here, γ (k) is determined so that γ (k)> 0 if there are many background regions around the region K k , and γ (k) <0 if there are many moving regions. For example, the value range of γ (k) is −σ ≦ γ
If (k) ≦ σ, it can be designed as shown in equation (49).

判定対象の領域に隣接する領域の領域種別ラベルがすべて背景領域(α=0)の場合には、N(α=0)=B(k)、N(α=1)=0が成立するため、γ(k)=σとなる。 When all the region type labels of the regions adjacent to the determination target region are background regions (α = 0), N (α = 0) = B (k) and N (α = 1) = 0 are satisfied. , Γ (k) = σ.

一方、判定対象の領域に隣接する領域の領域種別ラベルがすべて動領域(α=1)の場合には、N(α=1)=B(k)、N(α=0)=0でが成立するため、γ(k)=−σとなる。さらに、領域の隣接する領域において背景領域と動領域とが同数の場合には、N(α=0)=N(α=1)が成立するため、γ(k)=0となる。   On the other hand, when the region type labels of the regions adjacent to the determination target region are all moving regions (α = 1), N (α = 1) = B (k) and N (α = 0) = 0. Therefore, γ (k) = − σ. Further, when the number of background regions and moving regions is the same in the adjacent regions, N (α = 0) = N (α = 1) is established, and therefore γ (k) = 0.

従って、各領域に割り当てる領域種別ラベルをz(n)で示すと、実施の形態2にかかるラベル割当部1411は、(50)式により各領域に割り当てる領域種別ラベルz(n)を初期化し、領域の画素数が大きい順に以下の処理を行う。境界領域の数B(k)、判定対象の領域に隣接する領域の領域種別ラベルが背景領域である数N(α=0)、判定対象の領域に隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出し、(51)式によりγ(k)を算出し、(52)式の計算を行って、(53)式によりラベル値を求める。そして、(54)式により、求めたラベル値で領域に割り当てる領域種別ラベルz(n)を更新する。   Therefore, when the area type label assigned to each area is indicated by z (n), the label assigning unit 1411 according to the second embodiment initializes the area type label z (n) assigned to each area according to the equation (50), The following processing is performed in descending order of the number of pixels in the area. The number of boundary areas B (k), the area type label of the area adjacent to the determination target area is the number N (α = 0), and the area type label of the area adjacent to the determination target area is the moving area. A certain number N (α = 1) is calculated, γ (k) is calculated from equation (51), equation (52) is calculated, and a label value is obtained from equation (53). Then, the region type label z (n) assigned to the region is updated with the obtained label value according to the equation (54).

動領域検出部1401は、ラベル割当部1411の結果、すなわち各領域に割り当てられた領域種別ラベルz(n)によって、対象画像の各領域の中から領域種別ラベルz(n)=0である動領域を検出する処理部である。 Based on the result of the label assigning unit 1411, that is, the region type label z (n) assigned to each region, the moving region detection unit 1401 uses the region type label z (n) = 0 among the regions of the target image. A processing unit for detecting an area.

次に、以上のように構成された実施の形態2にかかる動領域検出処理について説明する。図15は、実施の形態2の動領域検出処理の手順を示すフローチャートである。   Next, the moving area detection process according to the second embodiment configured as described above will be described. FIG. 15 is a flowchart illustrating the procedure of the moving region detection process according to the second embodiment.

まず、カウント回数Lを1に初期化する(ステップS51)。そして、領域分割部1412によって、領域分割処理を行い(ステップS52)、対象画像のフレームを画素値に基づいた領域に分割(クラスタリング)する。   First, the count number L is initialized to 1 (step S51). Then, the region dividing unit 1412 performs region dividing processing (step S52), and divides the frame of the target image into regions based on the pixel values (clustering).

次いで、ラベル割当部1411によって、分割された領域に領域種別ラベルを割り当てるラベル割り当て処理を行う(ステップS53)。そして、カウント回数Lを1増加して(ステップS54)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS55)。   Next, the label allocation unit 1411 performs label allocation processing for allocating area type labels to the divided areas (step S53). Then, the count number L is increased by 1 (step S54), and it is checked whether or not the count number L exceeds a predetermined number of times (step S55).

カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS55:No)、ステップS52からS54までの処理を繰り返す。   When the count number L does not exceed the predetermined number of times (step S55: No), the processing from step S52 to S54 is repeated.

一方、ステップS55において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS55:Yes)、領域に領域種別ラベルが割り当てられたことになり、動領域検出部1401によって、領域種別ラベルが0である領域を動領域として検出して(ステップS56)、検出結果を出力する。   On the other hand, if the count number L exceeds a predetermined number in step S55 (step S55: Yes), an area type label has been assigned to the area, and the moving area detecting unit 1401 An area where the type label is 0 is detected as a moving area (step S56), and the detection result is output.

次に、ステップS53によるラベル割り当て処理について説明する。図16は、実施の形態2にかかるラベル割り当て処理の手順を示すフローチャートである。   Next, the label allocation process in step S53 will be described. FIG. 16 is a flowchart of a label assignment process according to the second embodiment.

まず、ラベル割当部1411は、(50)式のように、領域に割り当てる領域種別ラベルz(n)を−1に初期化する(ステップS61)。そして、領域が大きい順、すなわち領域の画素数が大きい順に、領域Kを選択する(ステップS62)。このとき、同一画素数の領域が複数存在する場合には、領域の境界における画素数が小さい順にクラスタを選択する。   First, the label assigning unit 1411 initializes an area type label z (n) to be assigned to an area to −1 as shown in Expression (50) (step S61). Then, the region K is selected in the order from the largest region, that is, from the largest number of pixels in the region (step S62). At this time, when there are a plurality of regions having the same number of pixels, clusters are selected in ascending order of the number of pixels at the boundary of the region.

そして、境界領域の数B(k)、クラスタの隣接ラベルが背景領域である数N(α=0)、判定対象の領域の隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出する(ステップS63)。次に、(51)式によりγ(k)を算出し(ステップS64)、(52)式により平均差分値を算出する(ステップS65)。そして、(53)式によりラベル値を求めて(ステップS66)、(54)式により、求めたラベル値で領域種別ラベルz(n)を更新する(ステップS67)。   Then, the number B (k) of boundary regions, the number N (α = 0) where the adjacent label of the cluster is the background region, and the number N (α = number of region type labels of the adjacent regions of the determination target region) 1) is calculated (step S63). Next, γ (k) is calculated from equation (51) (step S64), and an average difference value is calculated from equation (52) (step S65). Then, a label value is obtained from the equation (53) (step S66), and the region type label z (n) is updated with the obtained label value from the equation (54) (step S67).

次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS68)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS68:No)、次に画素数が大きい領域を選択して(ステップS69)、ステップS63からS47までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。   Next, it is determined whether or not the label allocation process has been completed for all areas (step S68). If the label allocation processing has not been completed for all the regions (step S68: No), the region with the next largest number of pixels is selected (step S69), and the processing from steps S63 to S47 is repeated. Do. As a result, label assignment is performed.

このように実施の形態2にかかる動領域検出装置では、(51)〜(53)式により背景領域か動領域かを識別する領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行しているので、ノイズなどによらず、画像の領域毎に安定して背景領域と動領域のラベル割り当てをおこなうことが可能となり、画像全体に亘って最適なラベル割り当てをして画像処理を高精度に行うことができる。   As described above, in the moving region detection apparatus according to the second embodiment, a plurality of label allocation processes for assigning region type labels that identify the background region or the moving region to the pixels in the region using the equations (51) to (53) are performed. Since the processing is performed in the order from the largest number of pixels, the background region and the moving region can be stably assigned to each region of the image regardless of noise and the like over the entire image. Thus, it is possible to perform image processing with high accuracy by assigning the optimum label.

(実施の形態3)
実施の形態3は、本発明の画像処理装置をステレオマッチング装置に適用したものである。
(Embodiment 3)
In the third embodiment, the image processing apparatus of the present invention is applied to a stereo matching apparatus.

図17は、実施の形態3にかかるステレオマッチング装置1700の機能的構成図である。本実施の形態にかかるステレオマッチング装置1700は、左目用の第1視差画像と右目用の第2視差画像を入力し、2枚の視差画像を撮影し画像間の対応点から空間の奥行きを推定するものである。   FIG. 17 is a functional configuration diagram of the stereo matching device 1700 according to the third embodiment. The stereo matching device 1700 according to the present embodiment inputs the first parallax image for the left eye and the second parallax image for the right eye, captures the two parallax images, and estimates the depth of the space from the corresponding points between the images. To do.

本実施の形態にかかるステレオマッチング装置1700は、図17に示すように、領域分割部112と、ラベル割当部111と、対応点推定部1701と、フレームメモリ106と、メモリ103とを主に備えている。   As shown in FIG. 17, stereo matching apparatus 1700 according to the present embodiment mainly includes region dividing unit 112, label allocation unit 111, corresponding point estimation unit 1701, frame memory 106, and memory 103. ing.

本実施の形態では、メモリ103に予め複数のパラメトリックモデルが記憶されている。本実施の形態では、(55)式に示すパラメトリックモデルを予め記憶し、ラベル割当部111では、(55)式のパラメトリックモデルを用いてラベル割り当てを行っている点が実施の形態1と異なり、その他の処理については実施の形態と同様である。   In the present embodiment, a plurality of parametric models are stored in the memory 103 in advance. In the present embodiment, the parametric model shown in Equation (55) is stored in advance, and the label assignment unit 111 differs from Embodiment 1 in that label assignment is performed using the parametric model of Equation (55). Other processes are the same as those in the embodiment.

ここで、n1は第1視差画像上の点の座標、n2は第2視差画像上の点の座標である。また、αはモデルパラメータであるとともに、パラメトリックモデルを識別するためのモデル識別ラベルである。すなわち、本実施の形態では、モデルパラメータとモデル識別ラベルとを同一のαとしている。
ステレオマッチングにおける空間の奥行きを推定するために、視差画像間の対応点(動き)を推定する。この場合、対応点の関係は左右の平行移動のみで近似できる場合が多い。例えば、左右の平行移動が0〜16の範囲で行われると予めわかっている場合には、平行移動量を{0,・・・,16}の範囲で設定することができる。本実施の形態では、モデルパラメータおよびモデル識別ラベルであるαを平行移動量として{0,・・・,16}の範囲で設定している。
Here, n 1 is the coordinates of a point on the first parallax image, and n 2 is the coordinates of a point on the second parallax image. Α is a model parameter and a model identification label for identifying a parametric model. That is, in the present embodiment, the model parameter and the model identification label are the same α.
In order to estimate the depth of the space in stereo matching, corresponding points (motion) between parallax images are estimated. In this case, the relationship between corresponding points can often be approximated only by left and right translation. For example, when it is known in advance that the left-right translation is performed in the range of 0 to 16, the translation amount can be set in the range of {0,..., 16}. In the present embodiment, α, which is a model parameter and a model identification label, is set as a translation amount in a range of {0,..., 16}.

対応点推定部1701は、ラベル割り当て処理の結果に基づいて視差画像間の対応点(動き)を推定する処理部である。   The corresponding point estimation unit 1701 is a processing unit that estimates a corresponding point (motion) between parallax images based on the result of the label assignment process.

次に、以上のように構成された本実施の形態にかかるステレオマッチング処理について説明する。図18は、実施の形態3にかかるステレオマッチング処理の手順を示すフローチャートである。   Next, stereo matching processing according to the present embodiment configured as described above will be described. FIG. 18 is a flowchart of a stereo matching process according to the third embodiment.

まず、カウント回数Lを1に初期化する(ステップS71)。そして、領域分割部11
2によって、領域分割処理を行い(ステップS72)、第1視差画像のフレームを画素値に基づいた領域に分割(クラスタリング)し、各領域に領域ラベルを割り当てる。
First, the count number L is initialized to 1 (step S71). Then, the area dividing unit 11
2 is performed (step S72), the frame of the first parallax image is divided into regions based on pixel values (clustering), and region labels are assigned to the regions.

次いで、ラベル割り当て部111によって、ラベル割り当て処理を行い(ステップS73)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS74)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS75)。   Next, label allocation processing is performed by the label allocation unit 111 (step S73), a parametric model to be allocated to the area (cluster) divided by the area division unit 112 is selected, and the model identification label of the selected parametric model is stored in the area. Assigned to the pixels. Then, the count number L is increased by 1 (step S74), and it is checked whether or not the count number L exceeds a predetermined number of times (step S75).

カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS75:No)、ステップS72からS74までの処理を繰り返す。   When the count number L does not exceed the predetermined number of times (step S75: No), the processing from step S72 to S74 is repeated.

一方、ステップS75において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS75:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、最適なパラメトリックモデルにより対応点を検出して(ステップS76)、対応点推定部1701によって空間の奥行きを推定する。   On the other hand, when the count number L exceeds a predetermined number in step S75 (step S75: Yes), the optimum parametric model is selected for each region, and is handled by the optimum parametric model. A point is detected (step S76), and the corresponding point estimation unit 1701 estimates the depth of the space.

ここで、ステップS73におけるラベル割り当て処理については、(55)式のパラメトリックモデルを使用して実施の形態1と同様に行われる。   Here, the label allocation processing in step S73 is performed in the same manner as in the first embodiment using the parametric model of equation (55).

このように実施の形態3にかかるステレオマッチング装置1700では、(55)式のパラメトリックモデルを用い、(36)〜(39)式により最尤推定を行うことにより、クラスタが大きいときには最尤推定そのものを求め、クラスタが小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なラベル割り当てを行って、高精度に対応点を推定することでき、高精度に奥行きを推定可能となり、パラメトリックモデルを適用したステレオマッチング処理を高精度に行うことができる。   As described above, in the stereo matching device 1700 according to the third embodiment, the maximum likelihood estimation itself is performed when the cluster is large by using the parametric model of the equation (55) and performing the maximum likelihood estimation by the equations (36) to (39). Since the prior density gradually affects as the cluster gets smaller, optimal label allocation is performed over the entire image, and corresponding points are estimated with high accuracy. Therefore, the depth can be estimated with high accuracy, and stereo matching processing using the parametric model can be performed with high accuracy.

実施の形態1〜3の各装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。   Each of the first to third embodiments includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, and a display device such as a display device. And an input device such as a keyboard and a mouse, and has a hardware configuration using a normal computer.

本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   Each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment is an installable or executable file, a CD-ROM, a flexible disk (FD), The program is recorded on a computer-readable recording medium such as a CD-R or a DVD (Digital Versatile Disk).

また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)をインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Also, each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment is stored on a computer connected to a network such as the Internet and downloaded via the network. You may comprise so that it may provide. Further, each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment may be provided or distributed via a network such as the Internet.

また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、ROM等に予め組み込んで提供するように構成してもよい。   In addition, each program (motion estimation program, motion area detection program, stereo matching program) executed by each device of the present embodiment may be provided by being incorporated in advance in a ROM or the like.

本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、上述した各部(局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部が主記憶装置上に生成されるようになっている。   Each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment includes the above-described units (local motion estimation unit, model definition unit, clustering processing unit, parameter estimation unit, The module configuration includes an area dividing unit, a label assigning unit, a moving region detecting unit, and a corresponding point estimating unit). As actual hardware, a CPU (processor) reads and executes a program from the storage medium. Are loaded onto the main memory, and the local motion estimation unit, model definition unit, clustering processing unit, parameter estimation unit, region division unit, label allocation unit, motion region detection unit, and corresponding point estimation unit are stored in the main memory. It is generated on the device.

なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。   It should be noted that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。1 is a block diagram showing a functional configuration of a motion estimation apparatus according to a first embodiment. 一辺rの正方形クラスタ、4周辺クリークを示す模式図である。It is a schematic diagram which shows the square cluster of 1 side r, and 4 periphery cliques. クラスタの内部、境界のクリークの各個数とクラスタ内の全クリーク数に対する割合で示したグラフである。It is the graph shown by the ratio with respect to the number of each clique of the inside of a cluster, and a boundary, and the total number of cliques in a cluster. クラスタと正則化エネルギーの関係を示す模式図である。It is a schematic diagram which shows the relationship between a cluster and regularization energy. 実施の形態1にかかる動き推定処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of motion estimation processing according to the first exemplary embodiment; 動きクラスタリング処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a motion clustering process. モデルパラメータ推定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a model parameter estimation process. ラベル割り当て処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a label allocation process. 対象画像の例を示す説明図である。It is explanatory drawing which shows the example of a target image. 参照画像の例を示す説明図である。It is explanatory drawing which shows the example of a reference image. 領域分割の結果を示す説明図である。It is explanatory drawing which shows the result of an area | region division. 比較例としての従来の手法によるラベル割り当て処理結果を示す説明図である。It is explanatory drawing which shows the label allocation process result by the conventional method as a comparative example. 実施の形態1のラベル割り当て処理結果を示す説明図である。6 is an explanatory diagram illustrating a label allocation process result according to Embodiment 1. FIG. 実施の形態2にかかる動領域検出装置1400の機能的構成図である。It is a functional block diagram of the moving region detection apparatus 1400 concerning Embodiment 2. FIG. 実施の形態2の動領域検出処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of moving region detection processing according to the second embodiment. 実施の形態2にかかるラベル割り当て処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of label allocation processing according to the second exemplary embodiment. 実施の形態3にかかるステレオマッチング装置の機能的構成図である。FIG. 6 is a functional configuration diagram of a stereo matching device according to a third embodiment. 実施の形態3にかかるステレオマッチング処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of stereo matching processing according to the third embodiment;

符号の説明Explanation of symbols

100 動き推定装置
101 局所動き推定部
103 メモリ
106 フレームメモリ
107 モデル生成部
108 モデル定義部
109 クラスタリング処理部
110 パラメータ推定部
111,1411 ラベル割当部
112,1412 領域分割部
113 画像処理部
1400 動領域検出装置
1401 動領域検出部
1700 ステレオマッチング装置
1701 対応点推定部
DESCRIPTION OF SYMBOLS 100 Motion estimation apparatus 101 Local motion estimation part 103 Memory 106 Frame memory 107 Model generation part 108 Model definition part 109 Clustering process part 110 Parameter estimation part 111,1411 Label assignment part 112,1412 Area division part 113 Image processing part 1400 Motion area detection Device 1401 Moving Region Detection Unit 1700 Stereo Matching Device 1701 Corresponding Point Estimation Unit

Claims (14)

第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、
を備えたことを特徴とする画像処理装置。
A region dividing unit that divides the first image into a plurality of regions each including a plurality of pixels;
A model for associating a point on the first image with a point on the second image, and a plurality of parametric models including a plurality of model parameters and a model identification label for identifying the model Selecting the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the parametric model and the smoothness indicating whether the model identification label changes between adjacent pixels. A label allocating unit that executes a process of label allocation for allocating the model identification label of a model to a pixel in the region, in order from the largest number of pixels in the plurality of regions;
An image processing unit for obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel;
An image processing apparatus comprising:
前記第1の画像の特徴に基づいて前記パラメトリックモデルを生成するモデル生成部を更に備えたことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a model generation unit that generates the parametric model based on characteristics of the first image. 前記モデル生成部は、
前記パラメトリックモデルを定義するモデル定義部と、
前記第1の画像における各点の前記第2の画像上の対応点を分類して、分類した前記対応点ごとに、前記ラベル割り当ての初期値を付与するクラスタリング処理部と、
前記モデル識別ラベルごとに、前記第1の画像上の各点と当該各点に対応する第2の画像上の対応点を最小の誤差で表すことのできる前記モデルパラメータを最小二乗法によって推定するパラメータ推定部と、
を更に備えたことを特徴とする請求項2に記載の画像処理装置。
The model generation unit
A model definition section for defining the parametric model;
A clustering processing unit that classifies corresponding points on the second image of each point in the first image, and assigns an initial value of the label assignment to each of the classified corresponding points;
For each model identification label, the model parameter that can represent each point on the first image and the corresponding point on the second image corresponding to each point with a minimum error is estimated by the least square method. A parameter estimator;
The image processing apparatus according to claim 2, further comprising:
前記モデル定義部は、前記第1の画像から前記第2の画像への平面から平面への幾何変換を定義することにより前記パラメトリックモデルを定義すること特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the model definition unit defines the parametric model by defining a plane-to-plane geometric transformation from the first image to the second image. . 前記第1の画像と前記第2の画像の間の動き推定を行って、各点の対応点から前記第1の画像における各点の前記第2の画像上との点の動きベクトルを求める局所動き推定部をさらに備え、
前記パラメトリックモデルは、前記モデル識別ラベルの領域における第1の画像における各点の前記第2の画像上との点の動きベクトルを求めるためのモデルであり、
前記クラスタリング処理部は、前記局所動き推定部で求められた動きベクトルを分類して、分類した前記動きベクトルごとに前記ラベル割り当ての初期値を付与し、
前記パラメータ推定部は、前記モデル識別ラベルごとに、前記パラメトリックモデルによって定められる前記動きベクトルと前記局所動き推定部によって求められた前記動きベクトルとに基づいて、前記モデルパラメータを推定し、
前記画像処理部は、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像の前記第2の画像に対する動きを推定することを特徴とする請求項4に記載の画像処理装置。
Local estimation of motion between the first image and the second image to obtain a motion vector of the point on the second image of each point in the first image from the corresponding point of each point A motion estimation unit;
The parametric model is a model for obtaining a motion vector of a point on the second image of each point in the first image in the area of the model identification label,
The clustering processing unit classifies the motion vector obtained by the local motion estimation unit, and assigns an initial value of the label assignment for each classified motion vector,
The parameter estimation unit estimates the model parameter for each model identification label based on the motion vector determined by the parametric model and the motion vector obtained by the local motion estimation unit,
The said image processing part estimates the motion with respect to the said 2nd image of the said 1st image based on the said parametric model corresponding to the said model identification label allocated to each pixel. An image processing apparatus according to 1.
前記ラベル割当部は、前記画素数が同一の前記領域が複数存在する場合には、前記領域の境界における画素数が小さい順に前記ラベル割り当ての処理を実行することを特徴とする請求項1に記載の画像処理装置。   2. The label allocation unit according to claim 1, wherein when there are a plurality of the regions having the same number of pixels, the label allocation unit performs the label allocation processing in ascending order of the number of pixels at the boundary of the region. Image processing apparatus. 前記パラメトリックモデルを記憶する記憶部をさらに備え、
前記モデルパラメータはあらかじめ問題に応じて設定されていることを特徴とする請求
項1に記載の画像処理装置。
A storage unit for storing the parametric model;
The image processing apparatus according to claim 1, wherein the model parameter is set in advance according to a problem.
前記パラメトリックモデルは、前記第1の画像としての第1視差画像上の点に対して前記第2の画像としての第2視差画像上の点を求めるためのモデルであり、前記第1視差画像の点と当該点に対応する前記第2視差画像の点の水平移動量を前記モデルパラメータおよび前記モデル識別ラベルとして含むことを特徴とする請求項1に記載の画像処理装置。   The parametric model is a model for obtaining a point on the second parallax image as the second image with respect to a point on the first parallax image as the first image. The image processing apparatus according to claim 1, comprising a point and a horizontal movement amount of the point of the second parallax image corresponding to the point as the model parameter and the model identification label. 動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、
を備えたことを特徴とする画像処理装置。
An area dividing unit that divides a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels;
A label allocating unit that executes a process of label allocation for allocating a region type label for identifying a background region or a moving region to pixels in the region, in order from the largest number of pixels in the plurality of regions;
Based on the region type label assigned to each pixel, a moving region detector that detects the moving region from the target image;
An image processing apparatus comprising:
前記ラベル割当部は、前記対象画像の画素と前記背景画像の画素の差分値が予め定められた閾値以下の場合に、前記領域に前記背景領域の前記領域種別ラベルを割り当て、前記領域の周囲の全ての領域が前記背景領域を示す前記領域種別ラベルが割り当てられている場合には前記閾値を増加し、前記領域の周囲の全ての領域が前記動領域を示す前記領域種別ラベルが割り当てられている場合には前記閾値を増加することを特徴とする請求項9に記載の画像処理装置。   The label allocation unit allocates the area type label of the background area to the area when a difference value between the pixel of the target image and the pixel of the background image is equal to or less than a predetermined threshold, When the area type label indicating the background area is assigned to all areas, the threshold value is increased, and the area type label indicating the moving area is assigned to all areas around the area. The image processing apparatus according to claim 9, wherein in the case, the threshold value is increased. 第1の画像を、それぞれが複数の画素を含む複数の領域に分割する工程と、
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める工程と、
を含むことを特徴とする画像処理方法。
Dividing the first image into a plurality of regions each including a plurality of pixels;
A model for associating a point on the first image with a point on the second image, and a plurality of parametric models including a plurality of model parameters and a model identification label for identifying the model Selecting the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the parametric model and the smoothness indicating whether or not the model identification label changes between adjacent pixels. Performing a process of assigning a label for assigning the model identification label of a model to a pixel in the region in order from the largest number of pixels in the plurality of regions;
Obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel;
An image processing method comprising:
動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する工程と、
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する工程と、
を含むことを特徴とする画像処理方法。
Dividing a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels;
A step of performing label assignment processing for assigning a region type label for identifying a background region or a moving region to pixels in the region in order from the largest number of pixels in the plurality of regions;
Detecting the moving region from the target image based on the region type label assigned to each pixel;
An image processing method comprising:
第1の画像を、それぞれが複数の画素を含む複数の領域に分割する手順と、
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のう
ち画素数が多いものから順に実行する手順と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める手順と、
をコンピュータに実行させる画像処理プログラム。
Dividing the first image into a plurality of regions each including a plurality of pixels;
A model for associating a point on the first image with a point on the second image, and a plurality of parametric models including a plurality of model parameters and a model identification label for identifying the model Selecting the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the parametric model and the smoothness indicating whether the model identification label changes between adjacent pixels. A procedure for performing label assignment processing for assigning the model identification label of a model to pixels in the region in order from the largest number of pixels in the plurality of regions;
Obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel;
An image processing program for causing a computer to execute.
動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する手順と、
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する手順と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する手順と、
をコンピュータに実行させる画像処理プログラム。
Dividing a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels;
A procedure of executing label assignment processing for assigning an area type label for identifying a background area or a moving area to pixels in the area in order from the largest number of pixels in the plurality of areas;
A procedure for detecting the moving area from the target image based on the area type label assigned to each pixel;
An image processing program for causing a computer to execute.
JP2006264359A 2006-09-28 2006-09-28 Image processor, method, and program Pending JP2008084076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006264359A JP2008084076A (en) 2006-09-28 2006-09-28 Image processor, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006264359A JP2008084076A (en) 2006-09-28 2006-09-28 Image processor, method, and program

Publications (1)

Publication Number Publication Date
JP2008084076A true JP2008084076A (en) 2008-04-10

Family

ID=39354881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006264359A Pending JP2008084076A (en) 2006-09-28 2006-09-28 Image processor, method, and program

Country Status (1)

Country Link
JP (1) JP2008084076A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277431A (en) * 2009-05-29 2010-12-09 Secom Co Ltd Object detection device
JP2010277296A (en) * 2009-05-28 2010-12-09 Secom Co Ltd Object detection device
WO2013073167A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
JP2017174414A (en) * 2016-03-22 2017-09-28 株式会社東芝 Image adjustment
CN110490027A (en) * 2018-05-15 2019-11-22 触景无限科技(北京)有限公司 A kind of face characteristic extraction training method and system for recognition of face
KR20200075094A (en) * 2018-12-10 2020-06-26 울산과학기술원 Apparatus and method for generating object classifier

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277296A (en) * 2009-05-28 2010-12-09 Secom Co Ltd Object detection device
JP2010277431A (en) * 2009-05-29 2010-12-09 Secom Co Ltd Object detection device
WO2013073167A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
CN103493093A (en) * 2011-11-17 2014-01-01 松下电器产业株式会社 Image processing device, imaging device, and image processing method
JPWO2013073167A1 (en) * 2011-11-17 2015-04-02 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging apparatus, and image processing method
US9153066B2 (en) 2011-11-17 2015-10-06 Panasonic Intellectual Property Management Co. Ltd. Image processing device, imaging device, and image processing method
JP2017174414A (en) * 2016-03-22 2017-09-28 株式会社東芝 Image adjustment
CN110490027A (en) * 2018-05-15 2019-11-22 触景无限科技(北京)有限公司 A kind of face characteristic extraction training method and system for recognition of face
CN110490027B (en) * 2018-05-15 2023-06-16 触景无限科技(北京)有限公司 Face feature extraction training method and system
KR20200075094A (en) * 2018-12-10 2020-06-26 울산과학기술원 Apparatus and method for generating object classifier
KR102180054B1 (en) * 2018-12-10 2020-11-17 울산과학기술원 Apparatus and method for generating object classifier

Similar Documents

Publication Publication Date Title
US8948448B2 (en) Method and apparatus for trajectory estimation, and method for segmentation
Wang et al. Saliency-aware video object segmentation
JP4740657B2 (en) Stereo 3D reconstruction system and process based on color segmentation
WO2011013579A1 (en) Image processing device, image processing method, and program
JP2020516427A (en) RECIST assessment of tumor progression
US8605795B2 (en) Video editing methods and systems
US7522749B2 (en) Simultaneous optical flow estimation and image segmentation
US20060193535A1 (en) Image matching method and image interpolation method using the same
JP2016095849A (en) Method and device for dividing foreground image, program, and recording medium
CN109598735A (en) Method using the target object in Markov D-chain trace and segmented image and the equipment using this method
JP2012032370A (en) Defect detection method, defect detection apparatus, learning method, program, and recording medium
JP6100300B2 (en) Method and system for image matting and foreground estimation based on hierarchical graph
JP2010218051A (en) System, method and program for selecting feature point
US20160117573A1 (en) Method and apparatus for extracting feature correspondences from multiple images
JP2008084076A (en) Image processor, method, and program
CN111931603B (en) Human body action recognition system and method of double-flow convolution network based on competitive network
Lu et al. Coherent parametric contours for interactive video object segmentation
Wehrwein et al. Video segmentation with background motion models.
CN110930413A (en) Image segmentation method based on weak supervision multi-core classification optimization merging
Chlebus et al. Robust segmentation models using an uncertainty slice sampling-based annotation workflow
US10580127B2 (en) Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium
JP3716455B2 (en) Region extraction method and region extraction device
US8478032B2 (en) Segmenting an image
JP2018206260A (en) Image processing system, evaluation model construction method, image processing method, and program
JP5896661B2 (en) Information processing apparatus, information processing apparatus control method, and program