JP2008084076A - Image processor, method, and program - Google Patents
Image processor, method, and program Download PDFInfo
- Publication number
- JP2008084076A JP2008084076A JP2006264359A JP2006264359A JP2008084076A JP 2008084076 A JP2008084076 A JP 2008084076A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2006264359 A JP2006264359 A JP 2006264359A JP 2008084076 A JP2008084076 A JP 2008084076A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- label
- region
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
Description
本発明は、入力された画像に関する複数のパラメータモデルを導入して、入力された画像の領域ごとにパラメータモデルを割り当てて画像処理を行う画像処理装置、方法およびプログラムに関する。 The present invention relates to an image processing apparatus, method, and program for introducing a plurality of parameter models related to an input image and performing image processing by assigning the parameter model to each region of the input image.
画像の領域ごとに予め定められたパラメトリックモデルを適用し、画像処理を行う技術としては、例えば、非特許文献1の技術が知られている。非特許文献1の技術では、画像の動きを推定する問題に対して、2つの画像間の局所的な動きをオプティカルフローなどの手法で推定し、推定された局所的な動きの集合から複数のモデルパラメータをアフィン変換と最小二乗法の手法により抽出し、k-means法、watershed法などの手法により画像を複数の領域に分割して、分割された領域ごとに最適なパラメータを選択するラベリングを行う技術が開示されている。このような技術によれば、画像の領域ごとに適切な動きモデルが選択される。 As a technique for performing image processing by applying a predetermined parametric model for each region of an image, for example, the technique of Non-Patent Document 1 is known. In the technique of Non-Patent Document 1, with respect to the problem of estimating the motion of an image, a local motion between two images is estimated by a technique such as an optical flow, and a plurality of local motions are estimated from a set of estimated local motions. The model parameters are extracted by the affine transformation and least square method, and the image is divided into multiple regions using the k-means method, watershed method, etc., and labeling is performed to select the optimal parameters for each divided region. Techniques to do are disclosed. According to such a technique, an appropriate motion model is selected for each region of the image.
このような従来技術では、ラベリングは領域ごとにモデルパラメータの適合度のみを用いた最尤推定がおこなわれ、ラベリングが動き推定の結果の精度に大きな影響を与える。このため、サンプリング数が多いサイズの大きい領域では高精度となる一方、サイズの小さい領域に関してはサンプリング数が少なくなるので、最適なラベリングを行うことができず、動き推定の精度が低くなるという問題がある。 In such a conventional technique, labeling is performed by maximum likelihood estimation using only the fitness of model parameters for each region, and the labeling greatly affects the accuracy of the motion estimation result. For this reason, while high accuracy is obtained in a large area with a large number of samplings, the number of samplings is reduced in an area with a small size, so that optimal labeling cannot be performed and the accuracy of motion estimation is reduced. There is.
本発明は、上記に鑑みてなされたものであって、画像全体に亘って最適なラベル割り当てを行って、パラメータモデルを適用した画像処理を高精度に行うことができる画像処理装置、方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above, and is an image processing apparatus, method, and program capable of performing image processing using a parameter model with high accuracy by performing optimal label allocation over the entire image. The purpose is to provide.
上述した課題を解決し、目的を達成するために、本発明にかかる画像処理装置は、第1の画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、を備えたことを特徴とする。 In order to solve the above-described problem and achieve the object, an image processing apparatus according to the present invention includes a region dividing unit that divides a first image into a plurality of regions each including a plurality of pixels, A model for associating a point on the second image with a point on the second image, the parametric model including a plurality of model parameters and a model identification label for identifying the model. Select the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the model and the smoothness indicating whether the model identification label changes between adjacent pixels, and the parametric model of the selected parametric model A label that executes a process of assigning a label for assigning a model identification label to a pixel in the region in order from the largest number of pixels in the plurality of regions. And an image processing unit for obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel. It is characterized by.
また、本発明は、動きのない画像である背景画像に対して動きのある領域である動領域を含む対象画像を、それぞれが複数の画素を含む複数の領域に分割する領域分割部と、背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り
当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、を備えたことを特徴とする。
本発明は、上記画像処理装置に対応する画像処理方法およびプログラムである。
The present invention also provides an area dividing unit that divides a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels, and a background A label allocating unit that executes a process of allocating a label for allocating an area type label for identifying an area or a moving area to a pixel in the area in order from the largest number of pixels in the plurality of areas; And a moving area detecting unit that detects the moving area from the target image based on the area type label.
The present invention is an image processing method and program corresponding to the image processing apparatus.
本発明によれば、画像全体に亘って最適なラベル割り当てを行って、画像処理を高精度に行うことができるという効果を奏する。 According to the present invention, there is an effect that image processing can be performed with high accuracy by performing optimal label allocation over the entire image.
以下に添付図面を参照して、この発明にかかる画像処理装置、画像処理方法およびプログラムの最良な実施の形態を詳細に説明する。 Exemplary embodiments of an image processing apparatus, an image processing method, and a program according to the present invention are explained in detail below with reference to the accompanying drawings.
(実施の形態1)
図1は、実施の形態1にかかる動き推定装置の機能的構成を示すブロック図である。実施の形態1にかかる動き推定装置は、対象画像と参照画像の各点の動きを推定するものであり、図1に示すように、局所動き推定部101と、モデル生成部107と、領域分割部112と、ラベル割当部111と、画像処理部113と、フレームメモリ106と、メモリ103とを主に備えている。
(Embodiment 1)
FIG. 1 is a block diagram of a functional configuration of the motion estimation apparatus according to the first embodiment. The motion estimation apparatus according to the first embodiment estimates the motion of each point of the target image and the reference image. As illustrated in FIG. 1, the local motion estimation unit 101, the model generation unit 107, and the region division Mainly includes a unit 112, a label allocation unit 111, an image processing unit 113, a frame memory 106, and a memory 103.
局所動き推定部101は、対象画像と参照画像から、ブロックマッチングの手法により2つ画像間の動き推定を行って、各点の動きベクトルを求める処理部である。 The local motion estimation unit 101 is a processing unit that performs motion estimation between two images from a target image and a reference image using a block matching technique, and obtains a motion vector at each point.
モデル生成部107は、局所動き推定の結果から、対象画像上の点と参照画像上の点とを対応付けるためパラメトリックモデルを生成するものである。パラメトリックモデルは、パラメトリックモデルを規定する複数のモデルパラメータ及びモデルを識別するためのモデル識別ラベルを含み、このモデル識別ラベルによりラベル付けされている。本実施の形態では、パラメトリックモデルは、モデルパラメータにより、モデル識別ラベルの領域における第1の画像における各点の第2の画像上との点の動きベクトルを求めるためのモデルである。モデル生成部107は、モデル定義部108と、クラスタリング処理部109と、パラメータ推定部110とを備えている。 The model generation unit 107 generates a parametric model for associating a point on the target image with a point on the reference image from the result of local motion estimation. The parametric model includes a plurality of model parameters defining the parametric model and a model identification label for identifying the model, and is labeled with the model identification label. In the present embodiment, the parametric model is a model for obtaining a motion vector of a point on the second image of each point in the first image in the region of the model identification label based on the model parameter. The model generation unit 107 includes a model definition unit 108, a clustering processing unit 109, and a parameter estimation unit 110.
モデル定義部108は、上記パラメトリックモデルを定義し生成してメモリ103に保存する処理部である。 The model definition unit 108 is a processing unit that defines and generates the parametric model and stores it in the memory 103.
クラスタリング処理部109は、局所動き推定部101で求めた対象画像上の各点の動きベクトルを分類して(クラスタリングして)、ラベル割り当ての初期値を付与する処理部である。 The clustering processing unit 109 is a processing unit that classifies (clusters) the motion vectors of each point on the target image obtained by the local motion estimation unit 101 and assigns an initial value for label allocation.
パラメータ推定部110は、モデル識別ラベルごとに、同一のモデル識別ラベル内において、パラメトリックモデルによって定められる動きベクトルと各点の局所動き推定部101によって求めた動きベクトルとの誤差から求められる誤差エネルギーを最小にするモデルパラメータを最小二乗法によって推定する処理部である。 For each model identification label, the parameter estimation unit 110 calculates error energy obtained from the error between the motion vector determined by the parametric model and the motion vector obtained by the local motion estimation unit 101 at each point within the same model identification label. It is a processing unit for estimating the model parameter to be minimized by the least square method.
領域分割部112は、対象画像のフレームを画素値に基づいた領域に分割する(クラスタリングする)処理部である。領域分割部112は、さらに分割された各領域に領域(クラスタ)を識別するための領域ラベルを割り当てる。 The region dividing unit 112 is a processing unit that divides (clusters) the frame of the target image into regions based on pixel values. The area dividing unit 112 assigns an area label for identifying an area (cluster) to each further divided area.
ラベル割当部111は、複数のパラメトリックモデルの中から、パラメトリックモデルとの適合度及び隣接する画素間でモデル識別ラベルが変化するか否かを表す円滑度を示す
評価関数の値が最小になるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域分割部112によって分割された領域(クラスタ)内の画素に割り当てるラベル割り当てを行う処理部である。
具体的には、ラベル割当部111は、分割された領域(クラスタ)内の画素に対して、対象画像の画素と参照画像の画素と各画素の動きベクトルに基づいた尤度エネルギーU1と正則化エネルギーU2とに基づいた上記評価関数が最小にするパラメトリックモデルを選択してラベル割り当ての処理を行っている。また、ラベル割当部111は、このようなラベル割り当ての処理を、複数の領域(クラスタ)のうち画素数が多い(クラスタサイズの大きい)ものから順に領域を選択して評価関数の値を計算して実行している。
画像処理部113は、各画素に割り当てられたモデル識別ラベルに対応するパラメトリックモデルに基づいて、対象画像と参照との対応関係を求めて動き推定を行い、その結果を動き推定結果として出力する処理部である。
なお、上記各部の詳細については後述する。
The label allocating unit 111 is a parametric that minimizes the value of an evaluation function indicating the degree of conformity between the parametric model and the smoothness indicating whether or not the model identification label changes between adjacent pixels from among a plurality of parametric models. This is a processing unit that selects a model and assigns a label to assign a model identification label of the selected parametric model to pixels in a region (cluster) divided by the region dividing unit 112.
Specifically, the label allocating unit 111 performs regularity on the likelihood energy U 1 based on the pixel of the target image, the pixel of the reference image, and the motion vector of each pixel for the pixels in the divided region (cluster). A labeling process is performed by selecting a parametric model that the evaluation function based on the conversion energy U 2 minimizes. Further, the label allocation unit 111 calculates the value of the evaluation function by selecting a region in order from the largest number of pixels (cluster size) from among a plurality of regions (clusters). Running.
The image processing unit 113 performs motion estimation by obtaining the correspondence between the target image and the reference based on the parametric model corresponding to the model identification label assigned to each pixel, and outputs the result as a motion estimation result Part.
The details of each of the above parts will be described later.
フレームメモリ106は、入力された対象画像と参照画像と保存する記憶媒体である。メモリは、各部で求めた計算結果やパラメータ、モデル定義部107で生成したパラメトリックモデル等を保存する記憶媒体である。 The frame memory 106 is a storage medium that stores the input target image and reference image. The memory is a storage medium that stores calculation results and parameters obtained by each unit, a parametric model generated by the model definition unit 107, and the like.
次に、各部の詳細について説明する。本実施の形態では、処理対象の2枚の画像を対象画像、参照画像とし、対象画像から参照画像への動きを求めている。 Next, the detail of each part is demonstrated. In this embodiment, two images to be processed are set as a target image and a reference image, and a motion from the target image to the reference image is obtained.
対象画像、参照画像の点n∈Λ2の画素値をそれぞれg1(n),g2(n)とする。 Let g 1 (n) and g 2 (n) be the pixel values of the point n∈Λ 2 of the target image and the reference image, respectively.
局所動き推定部101では、対象画像と参照画像から、ブロックマッチングの手法を用いて以下のように2つの画像間の動きを推定している。ここで、本実施の形態では、ブロックマッチングの手法を採用しているが、これに限定されるものではなく、例えば、オプティカルフロー推定、勾配法、ベイジアンメソッドなどの各手法を用いて動き推定を行ってもよい。 The local motion estimation unit 101 estimates a motion between two images from the target image and the reference image using a block matching technique as follows. Here, in this embodiment, a block matching method is adopted, but the present invention is not limited to this, and for example, motion estimation is performed using each method such as an optical flow estimation method, a gradient method, and a Bayesian method. You may go.
ブロックマッチングでは、対象画像を(1)式であらかじめ設定された矩形領域のブロックに分割する。 In block matching, the target image is divided into blocks of a rectangular area set in advance by equation (1).
次に、モデル定義部108の詳細について説明する。モデル定義部108は、パラメトリックモデルを規定してメモリ103に保存する。パラメトリックモデルは、推定したい動きの数だけ用意される。各パラメトリックモデルは、推定したい動きの数分の任意の数のモデル識別ラベルα∈L⊂Zによって、一意に識別される。点nのラベルをz(n)∈Lとし、モデル識別ラベルαが割り当てられている領域の集合、すなわち各動き領域Nαを(4)式で示す。 Next, details of the model definition unit 108 will be described. The model definition unit 108 defines a parametric model and stores it in the memory 103. As many parametric models as the number of motions to be estimated are prepared. Each parametric model is uniquely identified by an arbitrary number of model identification labels α∈L⊂Z corresponding to the number of motions to be estimated. The label of the point n is set to z (n) εL, and a set of regions to which the model identification label α is assigned, that is, each motion region Nα is represented by equation (4).
モデル定義部108は、(5)、(6)、(7)式で定義されるパラメトリックモデル、若しくは、(5)、(8)、(9)式で定義されるパラメトリックモデルを生成してメモリ103に保存している。 The model definition unit 108 generates a parametric model defined by the equations (5), (6), and (7) or a parametric model defined by the equations (5), (8), and (9) and stores the memory. 103.
次に、パラメータ推定部110の詳細について説明する。パラメトリックモデルによって定まる動きベクトルは、(10)式で示されるので、これと(5)式を用いると、パラメトリックモデルによって定まる動きベクトルは(11)式で示される。 Next, details of the parameter estimation unit 110 will be described. Since the motion vector determined by the parametric model is expressed by equation (10), using this and equation (5), the motion vector determined by the parametric model is expressed by equation (11).
次に、クラスタリング処理部109の詳細について説明する。局所動き推定処理を終了した時点では、ラベル割り当て処理が行われていないため、モデルパラメータの推定を行うことができない。最初にモデルパラメータの推定処理を行う場合には、モデルパラメータの推定処理の実行前に、クラスタリング処理部109によって、局所動き推定部101によって求めた動きベクトルd(n)をクラスタリングすることによりラベル割り当ての初期値として付与している。ここで、動きクラスタリング処理としては、輝度等の画素値に基づいて画像をk−Means法によって複数個にクラスタリングを行って画像を分割し、そのクラスタリング結果によって複数個のモデルパラメータを求め、求めたモデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのラベルを求める。 Next, details of the clustering processing unit 109 will be described. When the local motion estimation process is completed, the model parameter cannot be estimated because the label allocation process is not performed. When the model parameter estimation process is performed first, before the model parameter estimation process is executed, the clustering processing unit 109 clusters the motion vectors d (n) obtained by the local motion estimation unit 101 to assign labels. Is given as the initial value. Here, as motion clustering processing, an image is clustered into a plurality of images by the k-Means method based on pixel values such as luminance, and the image is divided, and a plurality of model parameters are obtained based on the clustering result. The model parameter label is obtained by numerical analysis processing by the k-Means method using the model parameter as an initial value.
次に、領域分割部112の詳細について説明する。領域分割部112では、例えばk−means法やwatershed法等の手法を用いて、対象画像のフレームを画素値の情報に基づいた領域に分割する。 Next, details of the region dividing unit 112 will be described. The region dividing unit 112 divides the frame of the target image into regions based on pixel value information using a technique such as the k-means method or the watershed method.
すなわち、領域分割部112は、対象画像g1を画素値に応じてk個に分割(クラスタリング)する。そして、各領域(クラスタ)に各領域を一意に識別するための領域ラベルw(n)∈K⊂Zを割り当てる。このとき、各領域(クラスタ)は、(22)式で表される。 That is, the area dividing unit 112 divides (clusters) the target image g 1 into k pieces according to the pixel values. Then, a region label w (n) εK⊂Z for uniquely identifying each region is assigned to each region (cluster). At this time, each region (cluster) is expressed by equation (22).
ここで、対象画像g1(n)、参照画像g2(n)、動きベクトルd(n)が与えられた場合のモデル識別ラベルz(n)の確率密度関数は(23)式で与えられる。 Here, the probability density function of the model identification label z (n) when the target image g 1 (n), the reference image g 2 (n), and the motion vector d (n) are given is given by Equation (23). .
ここで、非特許文献1の技術では、(31)式を尤度エネルギーU1のみで解法しており、正則化エネルギーの項U2がないため、ラベル割り当ての精度が安定しない。 Here, in the technique of Non-Patent Document 1, the equation (31) is solved only by the likelihood energy U 1 , and since there is no regularization energy term U 2 , the accuracy of label allocation is not stable.
本実施の形態では、ラベル割当部111によって正則化エネルギーの項U2を考慮した(31)式を解法することにより、安定した精度でラベル割り当てを行うことができる。 In the present embodiment, label allocation can be performed with stable accuracy by solving the equation (31) in consideration of the regularization energy term U 2 by the label allocation unit 111.
次に、ラベル割当部111による(31)式の解法について説明する。すなわち、ラベル割当部111は、(32)式を解法して各領域(クラスタ)KKに対して、λU1+U2が最小となるモデル識別ラベルαを求める。 Next, the solution of equation (31) by the label allocating unit 111 will be described. That is, the label assigning unit 111 solves the equation (32) to obtain a model identification label α that minimizes λU 1 + U 2 for each region (cluster) K K.
リーク(自画素と隣接画素の対)と内部のクリークに着目すると正則化エネルギーU2は(33)式のように変形することができる。
図2は、一辺rの正方形クラスタ、4周辺クリークを示す模式図である。図2のクラスタにおけるC1の数を数えると以下のようになる。 FIG. 2 is a schematic diagram showing a square cluster of one side r, and four peripheral cliques. The number of C 1 in the cluster of FIG. 2 is counted as follows.
頂点では2クリーク。頂点は4個。
辺上の点では3クリーク。辺上の点は4(r−2)個。
内部の点では4クリーク。内部の点は(r−2)2個。
それぞれ点の数を考慮すれば(34)式を導くことができる。
2 creeks at the top. There are 4 vertices.
There are 3 creeks on the side. There are 4 (r-2) points on the side.
4 creeks inside. Inside the point (r-2) 2 pieces.
If the number of points is taken into consideration, the equation (34) can be derived.
頂点では2クリーク。頂点は4個。
辺上の点では1クリーク。辺上の点は4(r−2)個
内部の点では0クリーク。内部の点は(r−2)2個
従って、(35)式が導かれる。
2 creeks at the top. There are 4 vertices.
One creek at the point on the side. There are 4 (r-2) points on the side. The number of internal points is (r-2) 2. Accordingly, the equation (35) is derived.
このことから、辺rが大きくなると正則化エネルギーU2に対するC2の影響が下がりC1が支配的になることが分かり、つまり領域のラベルをどのように選択しても正則化エネルギーU2は大きく変化しなくなることがわかる。従って、辺rが大きいときには、全体エネルギーに対して相対的に正則化エネルギーU2の与える影響は小さくなり、正則化エネルギーU2の影響が大きくなり、エネルギー最小化問題はU1に対する最尤推定の結果に近くなる。 From this, it can be seen that as the side r increases, the influence of C 2 on the regularization energy U 2 decreases and C 1 becomes dominant, that is, the regularization energy U 2 is no matter how the region label is selected. It turns out that it does not change greatly. Therefore, when the edge r is large, the influence of the regularization energy U 2 is relatively small relative to the total energy, the influence of the regularization energy U 2 is large, and the energy minimization problem is the maximum likelihood estimation for U 1 . Close to the result.
一方、辺rが大きいときには大数の法則から、最尤エネルギーU1のラベル選択に対する精度は高くなる。よって辺rが大きいときには最尤エネルギーU1に対する最尤推定で
十分であるということが言える。
On the other hand, when the side r is large, the accuracy for the label selection of the maximum likelihood energy U 1 is high due to the law of large numbers. Therefore, it can be said that the maximum likelihood estimation for the maximum likelihood energy U 1 is sufficient when the side r is large.
なお、図3では正方形の領域で例を示しているが、これに限定されるものではなく、正方形以外の領域に対しても同様である。これは、領域が大きくなるほど、外周が占める割合が同様に急激に低下するためである。 Although FIG. 3 shows an example with a square area, the present invention is not limited to this, and the same applies to areas other than the square. This is because the proportion of the outer circumference decreases rapidly as the area increases.
ただし、領域が例えばゴマ塩状で非常に数が多い場合には上述したとおりにならない可能性が高いが、これは領域の作り方で回避することができる。 However, if the region is, for example, sesame salt and has a very large number, there is a high possibility that it will not be as described above, but this can be avoided by making the region.
図4は、辺rが大きい領域では正則化エネルギーU2を考慮せず、辺rが小さい領域では正則化エネルギーU2を考慮することを示す模式図である。図4に示すように、辺rの小さい領域である境界の領域で正則化エネルギーU2を考慮していることがわかる。 FIG. 4 is a schematic diagram showing that the regularization energy U 2 is not considered in the region where the side r is large, and the regularization energy U 2 is considered in the region where the side r is small. As shown in FIG. 4, it can be seen that the regularization energy U 2 is considered in the boundary region which is a region having a small side r.
具体的には、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化して、領域が大きい順、すなわち領域内の画素数が大きい順に、領域(クラスタ)Kを選択する。そして、(38)式により尤度エネルギーを算出し、(39)式により正則化エネルギーを算出し、(37)式によりラベル値を算出して、算出したラベル値でモデル識別ラベルz(n)を(40)式のように更新する。かかる算出処理およびモデル識別ラベルの更新をすべての領域について繰り返すことにより、モデル識別ラベルの割り当てを行っている。 Specifically, the label allocating unit 111 initializes the model identification label z (n) to −1 as shown in Equation (36), and sets the region (in order from the largest region, that is, from the largest number of pixels in the region). Cluster) K is selected. Then, the likelihood energy is calculated by the equation (38), the regularization energy is calculated by the equation (39), the label value is calculated by the equation (37), and the model identification label z (n) is calculated by the calculated label value. Is updated as shown in equation (40). The model identification label is assigned by repeating the calculation process and the update of the model identification label for all regions.
ここで、同一サイズの領域(すなわち、画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択することとしている。 Here, when there are a plurality of regions of the same size (that is, regions having the same number of pixels), the regions are selected in ascending order of the number of pixels at the boundary of the region.
次に、このように構成された実施の形態1にかかる動き推定装置による動き推定処理について説明する。図5は、実施の形態1にかかる動き推定処理の手順を示すフローチャートである。 Next, a motion estimation process performed by the motion estimation apparatus according to the first embodiment configured as described above will be described. FIG. 5 is a flowchart of a motion estimation process procedure according to the first embodiment.
まず、カウント回数Lを1に初期化し(ステップS11)、(2)、(3)式により局所動き推定処理を行う(ステップS12)。 First, the count number L is initialized to 1 (step S11), and local motion estimation processing is performed using equations (2) and (3) (step S12).
局所動き推定処理が完了したら、モデル定義部108によりパラメトリックモデルを定義する(ステップS13)。そして、クラスタリング処理部109によって動きクラスタリング処理を行い(ステップS14)、対象画像上の各点の動きベクトルをクラスタリングしてラベル割り当ての初期値を求める。 When the local motion estimation process is completed, a parametric model is defined by the model definition unit 108 (step S13). Then, motion clustering processing is performed by the clustering processing unit 109 (step S14), and a motion vector of each point on the target image is clustered to obtain an initial value of label assignment.
次に、パラメータ推定部110によるモデルパラメータ推定処理を行い(ステップS15)、各ラベルの領域に対するモデルパラメータを推定する。そして、領域分割部112によって、領域分割処理を行い(ステップS16)、対象画像のフレームを画素値に基づいた領域にクラスタリングし、各領域に領域ラベルを割り当てる。 Next, model parameter estimation processing is performed by the parameter estimation unit 110 (step S15), and model parameters for each label area are estimated. Then, the region dividing unit 112 performs region dividing processing (step S16), clusters the frames of the target image into regions based on the pixel values, and assigns region labels to each region.
次いで、ラベル割当部111によって、ラベル割り当て処理を行い(ステップS17)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS18)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS19)。 Next, label allocation processing is performed by the label allocation unit 111 (step S17), the parametric model to be allocated to the area (cluster) divided by the area division unit 112 is selected, and the model identification label of the selected parametric model is stored in the area. Assigned to the pixels. Then, the count number L is increased by 1 (step S18), and it is checked whether or not the count number L exceeds a predetermined number of times (step S19).
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS19:No)、ステップS15からS18までの処理を繰り返す。 When the count number L does not exceed the predetermined number of times (step S19: No), the processing from step S15 to S18 is repeated.
一方、ステップS19において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS19:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、画像処理部113によって、最適なパラメトリックモデルにより動き推定を行って動き推定結果を出力する(ステップS20)。 On the other hand, when the count number L exceeds a predetermined number in step S19 (step S19: Yes), the optimum parametric model is selected for each region, and the image processing unit 113 Motion estimation is performed using an optimal parametric model, and a motion estimation result is output (step S20).
次に、ステップS14における動きクラスタリング処理について説明する。図6は、動きクラスタリング処理の手順を示すフローチャートである。 Next, the motion clustering process in step S14 will be described. FIG. 6 is a flowchart showing the procedure of the motion clustering process.
まず、クラスタリング処理部109は、輝度等の画素値に基づいて、対象画像をk−Means法によって複数個にクラスタリングを行って画像を分割しモデル識別ラベルを求める(ステップS21)。 First, the clustering processing unit 109 performs clustering on the target image into a plurality of images by the k-Means method based on pixel values such as luminance and divides the image to obtain a model identification label (step S21).
そして、そのクラスタリング結果によるモデル識別ラベルに基づき、初期モデルパラメータを推定し、複数個の初期モデルパラメータを求める(ステップS22)。次に、求めた初期モデルパラメータを初期値としてk−Means法による数値解析処理によりモデルパラメータのモデル識別ラベルαを求める(ステップS23)。ここで、モデル識別ラベルαは、複数個の初期モデルパラメータに対応して複数個求められる。かかる動きクラスタリング処理は、図5に示すように、局所的な動的マッチング処理が完了した直後に1回だけ実行される。 And based on the model identification label by the clustering result, an initial model parameter is estimated and several initial model parameters are calculated | required (step S22). Next, the model identification label α of the model parameter is obtained by numerical analysis processing by the k-Means method using the obtained initial model parameter as an initial value (step S23). Here, a plurality of model identification labels α are obtained corresponding to a plurality of initial model parameters. Such motion clustering processing is executed only once immediately after the local dynamic matching processing is completed, as shown in FIG.
次に、ステップS15におけるモデルパラメータ推定処理について説明する。図7は、モデルパラメータ推定処理の手順を示すフローチャートである。 Next, the model parameter estimation process in step S15 will be described. FIG. 7 is a flowchart showing a procedure of model parameter estimation processing.
まず、パラメータ推定部110は、クラスタリング処理部109によって求めたモデル識別ラベルαに対して、全ての格子点nに対して、(19)式によりAを、(20)式によりbを計算する(ステップS31)。そして、(21)式を特異値分解法(もしくはLU法)による数値解析により解法処理を行う(ステップS32)。そして、全てのモデル識別ラベルαに対して、上記ステップS31およびS32の処理を繰り返して実行する(
ステップS33)。
First, the parameter estimation unit 110 calculates A by equation (19) and b by equation (20) for all lattice points n for the model identification label α obtained by the clustering processing unit 109 ( Step S31). Then, the equation (21) is solved by numerical analysis using the singular value decomposition method (or LU method) (step S32). And the process of said step S31 and S32 is repeatedly performed with respect to all the model identification labels (alpha) (
Step S33).
次に、ステップS17におけるラベル割り当て処理について説明する。図8は、ラベル割り当て処理の手順を示すフローチャートである。 Next, the label allocation process in step S17 will be described. FIG. 8 is a flowchart showing the procedure of label allocation processing.
まず、ラベル割当部111は、(36)式のようにモデル識別ラベルz(n)を−1に初期化する(ステップS41)。そして、領域が大きい順、すなわち領域内の画素数が大きい順に、領域Kを選択する(ステップS42)。このとき、同一サイズの領域(画素数が同一の領域)が複数存在する場合には、領域の境界における画素数が小さい順に領域を選択する。 First, the label assigning unit 111 initializes the model identification label z (n) to −1 as shown in the equation (36) (step S41). Then, the region K is selected in the descending order of the region, that is, in the descending order of the number of pixels in the region (step S42). At this time, if there are a plurality of regions of the same size (regions having the same number of pixels), the regions are selected in ascending order of the number of pixels at the boundary of the region.
そして、(38)式により尤度エネルギーを算出し(ステップS43)、(39)式により正則化エネルギーを算出する(ステップS44)。そして、(37)式により最尤推定を行ってラベル値を算出する(ステップS45)。そして、算出したラベル値でモデル識別ラベルz(n)を(40)式により更新する(ステップS46)。 Then, likelihood energy is calculated from the equation (38) (step S43), and regularization energy is calculated from the equation (39) (step S44). Then, the maximum likelihood estimation is performed by the equation (37) to calculate the label value (step S45). Then, the model identification label z (n) is updated with the calculated label value according to the equation (40) (step S46).
次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS47)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS47:No)、次にサイズの大きい領域(すなわち、次に画素数の大きい領域)を選択して(ステップS48)、ステップS43からS46までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。 Next, it is determined whether or not the label allocation process has been completed for all areas (step S47). If the label allocation process has not been completed for all the areas (step S47: No), the next largest area (that is, the next largest pixel number) is selected (step S48). The processes from step S43 to S46 are repeated. As a result, label assignment is performed.
図9は対象画像の例、図10は参照画像の例、図11は、領域分割の結果を示す。また、図12は、図9の対象画像、図10の参照画像を用いた場合の比較例としての従来の手法によるラベル割り当て処理結果を示す。図13は、図9の対象画像、図10の参照画像を用いた場合の実施の形態1のラベル割り当て処理結果を示す。 FIG. 9 shows an example of the target image, FIG. 10 shows an example of the reference image, and FIG. 11 shows the result of area division. FIG. 12 shows the result of label allocation processing by a conventional method as a comparative example when the target image of FIG. 9 and the reference image of FIG. 10 are used. FIG. 13 shows the result of label assignment processing in the first embodiment when the target image of FIG. 9 and the reference image of FIG. 10 are used.
図12と図13を比較すればわかるように、実施の形態1による動き推定結果の方が、比較例に比べて高精度にラベル割り当てが行われていることがわかる。 As can be seen from a comparison between FIG. 12 and FIG. 13, it can be seen that the motion estimation result according to the first embodiment performs label assignment with higher accuracy than the comparative example.
このように実施の形態1にかかる動き推定装置100では、(36)〜(39)式により最尤推定を行うことにより、領域が大きいときには最尤推定そのものを求め、領域が小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なモデル識別ラベルの割り当てを行って、最適なパラメトリックモデルを適用した動き推定処理を高精度に行うことができる。 As described above, in the motion estimation apparatus 100 according to the first embodiment, by performing maximum likelihood estimation using the equations (36) to (39), when the area is large, the maximum likelihood estimation itself is obtained, and the area becomes small. Since the prior density is gradually influenced, the optimal model identification label is assigned to the entire image, and the motion estimation process using the optimal parametric model is performed with high accuracy. Can do.
(実施の形態2)
実施の形態1では、動き推定処理の過程で、パラメトリックモデルを定義し、モデルパラメータを推定してパラメトリックモデルを生成して動き推定処理を行っていたが、この実施の形態2では、本発明の画像処理装置を背景差分を行う動領域検出装置に適用している。
(Embodiment 2)
In the first embodiment, in the course of the motion estimation process, a parametric model is defined, a model parameter is estimated to generate a parametric model, and the motion estimation process is performed. The image processing apparatus is applied to a moving region detection apparatus that performs background difference.
背景差分法は、あらかじめ撮影された背景画像に対して、動領域が含まれる対象画像との間の差分を取ることにより、動領域を検出するものである。 In the background subtraction method, a moving area is detected by taking a difference between a background image captured in advance and a target image including the moving area.
図14は、実施の形態2にかかる動領域検出装置1400の機能的構成を示すブロック図である。本実施の形態にかかる動領域検出装置は、あらかじめ撮影された動きのない画像である背景画像を用いて入力された対象画像から動きのある領域である動領域を検出するものであり、図14に示すように、領域分割部1412と、ラベル割当部1411と、動領域検出部1401と、フレームメモリ106と、メモリ103とを主に備えている。 FIG. 14 is a block diagram of a functional configuration of the moving region detection apparatus 1400 according to the second embodiment. The moving region detection apparatus according to the present embodiment detects a moving region that is a moving region from a target image that is input using a background image that is a pre-captured image. FIG. As shown in FIG. 3, the image processing apparatus mainly includes an area dividing unit 1412, a label assigning unit 1411, a moving area detecting unit 1401, a frame memory 106, and a memory 103.
本実施の形態の領域分割部1412は、実施の形態1と同様に、対象画像を複数の領域に分割する。 Similar to the first embodiment, the region dividing unit 1412 according to the present embodiment divides the target image into a plurality of regions.
ラベル割当部1411は、領域分割部112によって分割された領域(クラスタ)に領域種別ラベルを割り当てる処理部である。ここで、領域種別ラベルは、各領域が背景領域であるか動領域であるかを識別するためのラベルであり、本実施の形態では、背景領域の旨を示す領域種別ラベルαをα=0、動領域の旨を示す領域種別ラベルαをα=1としている。ただし、領域種別ラベルの値はこれに限定されるものはない。 The label assigning unit 1411 is a processing unit that assigns region type labels to the regions (clusters) divided by the region dividing unit 112. Here, the area type label is a label for identifying whether each area is a background area or a moving area. In this embodiment, an area type label α indicating a background area is set to α = 0. The area type label α indicating the moving area is set to α = 1. However, the value of the area type label is not limited to this.
より具体的には、ラベル割当部1411は、対象画像の点nの画素値と背景画像の点nの画素の差分値d(n)が予め定められた閾値T以下の場合に、分割された領域に背景領域の領域種別ラベルを割り当てており、この際に、領域の周囲の全ての領域が背景領域を示す領域種別ラベルが割り当てられている場合には閾値Tを増加し、領域の周囲の全ての領域が動領域を示す領域種別ラベルが割り当てられている場合には閾値Tを減少している。そして、ラベル割当部1411は、このような領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行している。 More specifically, the label assigning unit 1411 is divided when the difference value d (n) between the pixel value of the point n of the target image and the pixel of the point n of the background image is equal to or less than a predetermined threshold T. The area type label of the background area is assigned to the area. At this time, if the area type label indicating the background area is assigned to all the areas around the area, the threshold T is increased, When the area type label indicating the moving area is assigned to all the areas, the threshold value T is decreased. Then, the label allocation unit 1411 executes label allocation processing for allocating such area type labels to the pixels in the area in order from the largest number of pixels in the plurality of areas.
以下、ラベル割当部1411によるラベル割り当て処理の詳細について説明する。対象画像の点nの画素値をg1(n)、背景画像の点nの画素値をg2(n)とする。このとき、背景領域の差分値d(n)は、(41)式で表される。そして、ノイズがガウス分布N(0,σ2)に従うとすると、背景領域の差分値d(n)もガウス分布に従う。 Hereinafter, details of the label allocation processing by the label allocation unit 1411 will be described. The pixel value of the point n of the target image is g 1 (n), and the pixel value of the point n of the background image is g 2 (n). At this time, the difference value d (n) of the background region is expressed by equation (41). If the noise follows a Gaussian distribution N (0, σ 2 ), the background area difference value d (n) also follows the Gaussian distribution.
任意の領域の周囲がすべて背景領域であり領域種別ラベルα=0とラベル割り当てされている場合には、この領域も背景領域になると考えた方がラベル割り当てはより安定すると考えられる。一方、任意の領域の周囲がすべて動領域であり領域種別ラベルα=1とラベル割り当てされている場合には、この領域も動領域になると考えた方がラベル割り当てはより安定すると考えられる。以下ではこの概念を定式化する。 If the surroundings of an arbitrary area are all the background area and the area type label α = 0 is assigned, the label assignment is considered to be more stable if it is considered that this area also becomes the background area. On the other hand, if the area around the arbitrary area is all a moving area and the area type label α = 1 is assigned, the label allocation is considered to be more stable if it is considered that this area also becomes a moving area. In the following, this concept is formulated.
判定対象とする領域の周囲の領域が背景領域と判定されている場合には、任意の定数η>0に対して、(46)式を満たすようにすることによって、対象とする領域も背景領域と判定しやすくなる。すなわち、(46)式により、閾値Tの値が増加するので、(42)式により、判定対象の領域の画素の差分値d(n)が背景領域と判定される可能性が高くなる。 When the area around the determination target area is determined as the background area, the target area is also determined as the background area by satisfying the expression (46) for an arbitrary constant η> 0. It becomes easy to judge. That is, since the value of the threshold value T is increased by the equation (46), there is a high possibility that the difference value d (n) of the pixels in the determination target region is determined as the background region by the equation (42).
(k)≦σとすると、(49)式のように設計することができる。
If (k) ≦ σ, it can be designed as shown in equation (49).
一方、判定対象の領域に隣接する領域の領域種別ラベルがすべて動領域(α=1)の場合には、N(α=1)=B(k)、N(α=0)=0でが成立するため、γ(k)=−σとなる。さらに、領域の隣接する領域において背景領域と動領域とが同数の場合には、N(α=0)=N(α=1)が成立するため、γ(k)=0となる。 On the other hand, when the region type labels of the regions adjacent to the determination target region are all moving regions (α = 1), N (α = 1) = B (k) and N (α = 0) = 0. Therefore, γ (k) = − σ. Further, when the number of background regions and moving regions is the same in the adjacent regions, N (α = 0) = N (α = 1) is established, and therefore γ (k) = 0.
従って、各領域に割り当てる領域種別ラベルをz(n)で示すと、実施の形態2にかかるラベル割当部1411は、(50)式により各領域に割り当てる領域種別ラベルz(n)を初期化し、領域の画素数が大きい順に以下の処理を行う。境界領域の数B(k)、判定対象の領域に隣接する領域の領域種別ラベルが背景領域である数N(α=0)、判定対象の領域に隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出し、(51)式によりγ(k)を算出し、(52)式の計算を行って、(53)式によりラベル値を求める。そして、(54)式により、求めたラベル値で領域に割り当てる領域種別ラベルz(n)を更新する。 Therefore, when the area type label assigned to each area is indicated by z (n), the label assigning unit 1411 according to the second embodiment initializes the area type label z (n) assigned to each area according to the equation (50), The following processing is performed in descending order of the number of pixels in the area. The number of boundary areas B (k), the area type label of the area adjacent to the determination target area is the number N (α = 0), and the area type label of the area adjacent to the determination target area is the moving area. A certain number N (α = 1) is calculated, γ (k) is calculated from equation (51), equation (52) is calculated, and a label value is obtained from equation (53). Then, the region type label z (n) assigned to the region is updated with the obtained label value according to the equation (54).
次に、以上のように構成された実施の形態2にかかる動領域検出処理について説明する。図15は、実施の形態2の動領域検出処理の手順を示すフローチャートである。 Next, the moving area detection process according to the second embodiment configured as described above will be described. FIG. 15 is a flowchart illustrating the procedure of the moving region detection process according to the second embodiment.
まず、カウント回数Lを1に初期化する(ステップS51)。そして、領域分割部1412によって、領域分割処理を行い(ステップS52)、対象画像のフレームを画素値に基づいた領域に分割(クラスタリング)する。 First, the count number L is initialized to 1 (step S51). Then, the region dividing unit 1412 performs region dividing processing (step S52), and divides the frame of the target image into regions based on the pixel values (clustering).
次いで、ラベル割当部1411によって、分割された領域に領域種別ラベルを割り当てるラベル割り当て処理を行う(ステップS53)。そして、カウント回数Lを1増加して(ステップS54)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS55)。 Next, the label allocation unit 1411 performs label allocation processing for allocating area type labels to the divided areas (step S53). Then, the count number L is increased by 1 (step S54), and it is checked whether or not the count number L exceeds a predetermined number of times (step S55).
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS55:No)、ステップS52からS54までの処理を繰り返す。 When the count number L does not exceed the predetermined number of times (step S55: No), the processing from step S52 to S54 is repeated.
一方、ステップS55において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS55:Yes)、領域に領域種別ラベルが割り当てられたことになり、動領域検出部1401によって、領域種別ラベルが0である領域を動領域として検出して(ステップS56)、検出結果を出力する。 On the other hand, if the count number L exceeds a predetermined number in step S55 (step S55: Yes), an area type label has been assigned to the area, and the moving area detecting unit 1401 An area where the type label is 0 is detected as a moving area (step S56), and the detection result is output.
次に、ステップS53によるラベル割り当て処理について説明する。図16は、実施の形態2にかかるラベル割り当て処理の手順を示すフローチャートである。 Next, the label allocation process in step S53 will be described. FIG. 16 is a flowchart of a label assignment process according to the second embodiment.
まず、ラベル割当部1411は、(50)式のように、領域に割り当てる領域種別ラベルz(n)を−1に初期化する(ステップS61)。そして、領域が大きい順、すなわち領域の画素数が大きい順に、領域Kを選択する(ステップS62)。このとき、同一画素数の領域が複数存在する場合には、領域の境界における画素数が小さい順にクラスタを選択する。 First, the label assigning unit 1411 initializes an area type label z (n) to be assigned to an area to −1 as shown in Expression (50) (step S61). Then, the region K is selected in the order from the largest region, that is, from the largest number of pixels in the region (step S62). At this time, when there are a plurality of regions having the same number of pixels, clusters are selected in ascending order of the number of pixels at the boundary of the region.
そして、境界領域の数B(k)、クラスタの隣接ラベルが背景領域である数N(α=0)、判定対象の領域の隣接する領域の領域種別ラベルが動領域である数N(α=1)を算出する(ステップS63)。次に、(51)式によりγ(k)を算出し(ステップS64)、(52)式により平均差分値を算出する(ステップS65)。そして、(53)式によりラベル値を求めて(ステップS66)、(54)式により、求めたラベル値で領域種別ラベルz(n)を更新する(ステップS67)。 Then, the number B (k) of boundary regions, the number N (α = 0) where the adjacent label of the cluster is the background region, and the number N (α = number of region type labels of the adjacent regions of the determination target region) 1) is calculated (step S63). Next, γ (k) is calculated from equation (51) (step S64), and an average difference value is calculated from equation (52) (step S65). Then, a label value is obtained from the equation (53) (step S66), and the region type label z (n) is updated with the obtained label value from the equation (54) (step S67).
次に、全ての領域についてラベル割り当て処理が完了した否かを判断する(ステップS68)。そして、まだ全ての領域についてラベル割り当て処理が完了していない場合には(ステップS68:No)、次に画素数が大きい領域を選択して(ステップS69)、ステップS63からS47までの処理を繰り返し行う。これにより、ラベルの割り当てが行われる。 Next, it is determined whether or not the label allocation process has been completed for all areas (step S68). If the label allocation processing has not been completed for all the regions (step S68: No), the region with the next largest number of pixels is selected (step S69), and the processing from steps S63 to S47 is repeated. Do. As a result, label assignment is performed.
このように実施の形態2にかかる動領域検出装置では、(51)〜(53)式により背景領域か動領域かを識別する領域種別ラベルを領域内の画素に割り当てるラベル割り当ての処理を、複数の領域のうち画素数が多いものから順に実行しているので、ノイズなどによらず、画像の領域毎に安定して背景領域と動領域のラベル割り当てをおこなうことが可能となり、画像全体に亘って最適なラベル割り当てをして画像処理を高精度に行うことができる。 As described above, in the moving region detection apparatus according to the second embodiment, a plurality of label allocation processes for assigning region type labels that identify the background region or the moving region to the pixels in the region using the equations (51) to (53) are performed. Since the processing is performed in the order from the largest number of pixels, the background region and the moving region can be stably assigned to each region of the image regardless of noise and the like over the entire image. Thus, it is possible to perform image processing with high accuracy by assigning the optimum label.
(実施の形態3)
実施の形態3は、本発明の画像処理装置をステレオマッチング装置に適用したものである。
(Embodiment 3)
In the third embodiment, the image processing apparatus of the present invention is applied to a stereo matching apparatus.
図17は、実施の形態3にかかるステレオマッチング装置1700の機能的構成図である。本実施の形態にかかるステレオマッチング装置1700は、左目用の第1視差画像と右目用の第2視差画像を入力し、2枚の視差画像を撮影し画像間の対応点から空間の奥行きを推定するものである。 FIG. 17 is a functional configuration diagram of the stereo matching device 1700 according to the third embodiment. The stereo matching device 1700 according to the present embodiment inputs the first parallax image for the left eye and the second parallax image for the right eye, captures the two parallax images, and estimates the depth of the space from the corresponding points between the images. To do.
本実施の形態にかかるステレオマッチング装置1700は、図17に示すように、領域分割部112と、ラベル割当部111と、対応点推定部1701と、フレームメモリ106と、メモリ103とを主に備えている。 As shown in FIG. 17, stereo matching apparatus 1700 according to the present embodiment mainly includes region dividing unit 112, label allocation unit 111, corresponding point estimation unit 1701, frame memory 106, and memory 103. ing.
本実施の形態では、メモリ103に予め複数のパラメトリックモデルが記憶されている。本実施の形態では、(55)式に示すパラメトリックモデルを予め記憶し、ラベル割当部111では、(55)式のパラメトリックモデルを用いてラベル割り当てを行っている点が実施の形態1と異なり、その他の処理については実施の形態と同様である。 In the present embodiment, a plurality of parametric models are stored in the memory 103 in advance. In the present embodiment, the parametric model shown in Equation (55) is stored in advance, and the label assignment unit 111 differs from Embodiment 1 in that label assignment is performed using the parametric model of Equation (55). Other processes are the same as those in the embodiment.
ステレオマッチングにおける空間の奥行きを推定するために、視差画像間の対応点(動き)を推定する。この場合、対応点の関係は左右の平行移動のみで近似できる場合が多い。例えば、左右の平行移動が0〜16の範囲で行われると予めわかっている場合には、平行移動量を{0,・・・,16}の範囲で設定することができる。本実施の形態では、モデルパラメータおよびモデル識別ラベルであるαを平行移動量として{0,・・・,16}の範囲で設定している。
In order to estimate the depth of the space in stereo matching, corresponding points (motion) between parallax images are estimated. In this case, the relationship between corresponding points can often be approximated only by left and right translation. For example, when it is known in advance that the left-right translation is performed in the range of 0 to 16, the translation amount can be set in the range of {0,..., 16}. In the present embodiment, α, which is a model parameter and a model identification label, is set as a translation amount in a range of {0,..., 16}.
対応点推定部1701は、ラベル割り当て処理の結果に基づいて視差画像間の対応点(動き)を推定する処理部である。 The corresponding point estimation unit 1701 is a processing unit that estimates a corresponding point (motion) between parallax images based on the result of the label assignment process.
次に、以上のように構成された本実施の形態にかかるステレオマッチング処理について説明する。図18は、実施の形態3にかかるステレオマッチング処理の手順を示すフローチャートである。 Next, stereo matching processing according to the present embodiment configured as described above will be described. FIG. 18 is a flowchart of a stereo matching process according to the third embodiment.
まず、カウント回数Lを1に初期化する(ステップS71)。そして、領域分割部11
2によって、領域分割処理を行い(ステップS72)、第1視差画像のフレームを画素値に基づいた領域に分割(クラスタリング)し、各領域に領域ラベルを割り当てる。
First, the count number L is initialized to 1 (step S71). Then, the area dividing unit 11
2 is performed (step S72), the frame of the first parallax image is divided into regions based on pixel values (clustering), and region labels are assigned to the regions.
次いで、ラベル割り当て部111によって、ラベル割り当て処理を行い(ステップS73)、領域分割部112によって分割された領域(クラスタ)に割り当てるパラメトリックモデルを選択し、選択されたパラメトリックモデルのモデル識別ラベルを領域内の画素に割り当てる。そして、カウント回数Lを1増加して(ステップS74)、カウント回数Lが予め定められた所定回数を超えたか否かを調べる(ステップS75)。 Next, label allocation processing is performed by the label allocation unit 111 (step S73), a parametric model to be allocated to the area (cluster) divided by the area division unit 112 is selected, and the model identification label of the selected parametric model is stored in the area. Assigned to the pixels. Then, the count number L is increased by 1 (step S74), and it is checked whether or not the count number L exceeds a predetermined number of times (step S75).
カウント回数Lが予め定められた所定回数を超えていない場合には(ステップS75:No)、ステップS72からS74までの処理を繰り返す。 When the count number L does not exceed the predetermined number of times (step S75: No), the processing from step S72 to S74 is repeated.
一方、ステップS75において、カウント回数Lが予め定められた所定回数を超えた場合には(ステップS75:Yes)、領域ごとに最適なパラメトリックモデルが選択されたことになり、最適なパラメトリックモデルにより対応点を検出して(ステップS76)、対応点推定部1701によって空間の奥行きを推定する。 On the other hand, when the count number L exceeds a predetermined number in step S75 (step S75: Yes), the optimum parametric model is selected for each region, and is handled by the optimum parametric model. A point is detected (step S76), and the corresponding point estimation unit 1701 estimates the depth of the space.
ここで、ステップS73におけるラベル割り当て処理については、(55)式のパラメトリックモデルを使用して実施の形態1と同様に行われる。 Here, the label allocation processing in step S73 is performed in the same manner as in the first embodiment using the parametric model of equation (55).
このように実施の形態3にかかるステレオマッチング装置1700では、(55)式のパラメトリックモデルを用い、(36)〜(39)式により最尤推定を行うことにより、クラスタが大きいときには最尤推定そのものを求め、クラスタが小さくなってくると徐々に事前密度が影響を及ぼしてくるように構成しているので、画像全体に亘って最適なラベル割り当てを行って、高精度に対応点を推定することでき、高精度に奥行きを推定可能となり、パラメトリックモデルを適用したステレオマッチング処理を高精度に行うことができる。 As described above, in the stereo matching device 1700 according to the third embodiment, the maximum likelihood estimation itself is performed when the cluster is large by using the parametric model of the equation (55) and performing the maximum likelihood estimation by the equations (36) to (39). Since the prior density gradually affects as the cluster gets smaller, optimal label allocation is performed over the entire image, and corresponding points are estimated with high accuracy. Therefore, the depth can be estimated with high accuracy, and stereo matching processing using the parametric model can be performed with high accuracy.
実施の形態1〜3の各装置は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。 Each of the first to third embodiments includes a control device such as a CPU, a storage device such as a ROM (Read Only Memory) and a RAM, an external storage device such as an HDD and a CD drive device, and a display device such as a display device. And an input device such as a keyboard and a mouse, and has a hardware configuration using a normal computer.
本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 Each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment is an installable or executable file, a CD-ROM, a flexible disk (FD), The program is recorded on a computer-readable recording medium such as a CD-R or a DVD (Digital Versatile Disk).
また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)をインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Also, each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment is stored on a computer connected to a network such as the Internet and downloaded via the network. You may comprise so that it may provide. Further, each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment may be provided or distributed via a network such as the Internet.
また、本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)を、ROM等に予め組み込んで提供するように構成してもよい。 In addition, each program (motion estimation program, motion area detection program, stereo matching program) executed by each device of the present embodiment may be provided by being incorporated in advance in a ROM or the like.
本実施形態の各装置で実行される各プログラム(動き推定プログラム、動領域検出プログラム、ステレオマッチングプログラム)は、上述した各部(局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体から〜プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、局所動き推定部と、モデル定義部、クラスタリング処理部、パラメータ推定部、領域分割部、ラベル割り当て部、動領域検出部、対応点推定部が主記憶装置上に生成されるようになっている。 Each program (motion estimation program, motion region detection program, stereo matching program) executed by each device of the present embodiment includes the above-described units (local motion estimation unit, model definition unit, clustering processing unit, parameter estimation unit, The module configuration includes an area dividing unit, a label assigning unit, a moving region detecting unit, and a corresponding point estimating unit). As actual hardware, a CPU (processor) reads and executes a program from the storage medium. Are loaded onto the main memory, and the local motion estimation unit, model definition unit, clustering processing unit, parameter estimation unit, region division unit, label allocation unit, motion region detection unit, and corresponding point estimation unit are stored in the main memory. It is generated on the device.
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。 It should be noted that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
100 動き推定装置
101 局所動き推定部
103 メモリ
106 フレームメモリ
107 モデル生成部
108 モデル定義部
109 クラスタリング処理部
110 パラメータ推定部
111,1411 ラベル割当部
112,1412 領域分割部
113 画像処理部
1400 動領域検出装置
1401 動領域検出部
1700 ステレオマッチング装置
1701 対応点推定部
DESCRIPTION OF SYMBOLS 100 Motion estimation apparatus 101 Local motion estimation part 103 Memory 106 Frame memory 107 Model generation part 108 Model definition part 109 Clustering process part 110 Parameter estimation part 111,1411 Label assignment part 112,1412 Area division part 113 Image processing part 1400 Motion area detection Device 1401 Moving Region Detection Unit 1700 Stereo Matching Device 1701 Corresponding Point Estimation Unit
Claims (14)
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める画像処理部と、
を備えたことを特徴とする画像処理装置。 A region dividing unit that divides the first image into a plurality of regions each including a plurality of pixels;
A model for associating a point on the first image with a point on the second image, and a plurality of parametric models including a plurality of model parameters and a model identification label for identifying the model Selecting the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the parametric model and the smoothness indicating whether the model identification label changes between adjacent pixels. A label allocating unit that executes a process of label allocation for allocating the model identification label of a model to a pixel in the region, in order from the largest number of pixels in the plurality of regions;
An image processing unit for obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel;
An image processing apparatus comprising:
前記パラメトリックモデルを定義するモデル定義部と、
前記第1の画像における各点の前記第2の画像上の対応点を分類して、分類した前記対応点ごとに、前記ラベル割り当ての初期値を付与するクラスタリング処理部と、
前記モデル識別ラベルごとに、前記第1の画像上の各点と当該各点に対応する第2の画像上の対応点を最小の誤差で表すことのできる前記モデルパラメータを最小二乗法によって推定するパラメータ推定部と、
を更に備えたことを特徴とする請求項2に記載の画像処理装置。 The model generation unit
A model definition section for defining the parametric model;
A clustering processing unit that classifies corresponding points on the second image of each point in the first image, and assigns an initial value of the label assignment to each of the classified corresponding points;
For each model identification label, the model parameter that can represent each point on the first image and the corresponding point on the second image corresponding to each point with a minimum error is estimated by the least square method. A parameter estimator;
The image processing apparatus according to claim 2, further comprising:
前記パラメトリックモデルは、前記モデル識別ラベルの領域における第1の画像における各点の前記第2の画像上との点の動きベクトルを求めるためのモデルであり、
前記クラスタリング処理部は、前記局所動き推定部で求められた動きベクトルを分類して、分類した前記動きベクトルごとに前記ラベル割り当ての初期値を付与し、
前記パラメータ推定部は、前記モデル識別ラベルごとに、前記パラメトリックモデルによって定められる前記動きベクトルと前記局所動き推定部によって求められた前記動きベクトルとに基づいて、前記モデルパラメータを推定し、
前記画像処理部は、各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像の前記第2の画像に対する動きを推定することを特徴とする請求項4に記載の画像処理装置。 Local estimation of motion between the first image and the second image to obtain a motion vector of the point on the second image of each point in the first image from the corresponding point of each point A motion estimation unit;
The parametric model is a model for obtaining a motion vector of a point on the second image of each point in the first image in the area of the model identification label,
The clustering processing unit classifies the motion vector obtained by the local motion estimation unit, and assigns an initial value of the label assignment for each classified motion vector,
The parameter estimation unit estimates the model parameter for each model identification label based on the motion vector determined by the parametric model and the motion vector obtained by the local motion estimation unit,
The said image processing part estimates the motion with respect to the said 2nd image of the said 1st image based on the said parametric model corresponding to the said model identification label allocated to each pixel. An image processing apparatus according to 1.
前記モデルパラメータはあらかじめ問題に応じて設定されていることを特徴とする請求
項1に記載の画像処理装置。 A storage unit for storing the parametric model;
The image processing apparatus according to claim 1, wherein the model parameter is set in advance according to a problem.
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行するラベル割当部と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する動領域検出部と、
を備えたことを特徴とする画像処理装置。 An area dividing unit that divides a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels;
A label allocating unit that executes a process of label allocation for allocating a region type label for identifying a background region or a moving region to pixels in the region, in order from the largest number of pixels in the plurality of regions;
Based on the region type label assigned to each pixel, a moving region detector that detects the moving region from the target image;
An image processing apparatus comprising:
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める工程と、
を含むことを特徴とする画像処理方法。 Dividing the first image into a plurality of regions each including a plurality of pixels;
A model for associating a point on the first image with a point on the second image, and a plurality of parametric models including a plurality of model parameters and a model identification label for identifying the model Selecting the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the parametric model and the smoothness indicating whether or not the model identification label changes between adjacent pixels. Performing a process of assigning a label for assigning the model identification label of a model to a pixel in the region in order from the largest number of pixels in the plurality of regions;
Obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel;
An image processing method comprising:
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する工程と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する工程と、
を含むことを特徴とする画像処理方法。 Dividing a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels;
A step of performing label assignment processing for assigning a region type label for identifying a background region or a moving region to pixels in the region in order from the largest number of pixels in the plurality of regions;
Detecting the moving region from the target image based on the region type label assigned to each pixel;
An image processing method comprising:
前記第1の画像上の点と第2の画像上の点とを対応付けるためのモデルであって、複数のモデルパラメータ及び前記モデルを識別するためのモデル識別ラベルを含む複数のパラメトリックモデルの中から、前記パラメトリックモデルとの適合度及び隣接する画素間で前記モデル識別ラベルが変化するか否かを表す円滑度を示す評価関数の値が最小になる前記パラメトリックモデルを選択し、選択された前記パラメトリックモデルの前記モデル識別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のう
ち画素数が多いものから順に実行する手順と、
各画素に割り当てられた前記モデル識別ラベルに対応する前記パラメトリックモデルに基づいて、前記第1の画像と前記第2の画像との対応関係を求める手順と、
をコンピュータに実行させる画像処理プログラム。 Dividing the first image into a plurality of regions each including a plurality of pixels;
A model for associating a point on the first image with a point on the second image, and a plurality of parametric models including a plurality of model parameters and a model identification label for identifying the model Selecting the parametric model that minimizes the value of the evaluation function indicating the degree of fitness with the parametric model and the smoothness indicating whether the model identification label changes between adjacent pixels. A procedure for performing label assignment processing for assigning the model identification label of a model to pixels in the region in order from the largest number of pixels in the plurality of regions;
Obtaining a correspondence relationship between the first image and the second image based on the parametric model corresponding to the model identification label assigned to each pixel;
An image processing program for causing a computer to execute.
背景領域か動領域かを識別する領域種別ラベルを前記領域内の画素に割り当てるラベル割り当ての処理を、前記複数の領域のうち画素数が多いものから順に実行する手順と、
各画素に割り当てられた前記領域種別ラベルに基づいて、前記対象画像から前記動領域を検出する手順と、
をコンピュータに実行させる画像処理プログラム。 Dividing a target image including a moving area that is a moving area with respect to a background image that is an image without movement into a plurality of areas each including a plurality of pixels;
A procedure of executing label assignment processing for assigning an area type label for identifying a background area or a moving area to pixels in the area in order from the largest number of pixels in the plurality of areas;
A procedure for detecting the moving area from the target image based on the area type label assigned to each pixel;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006264359A JP2008084076A (en) | 2006-09-28 | 2006-09-28 | Image processor, method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006264359A JP2008084076A (en) | 2006-09-28 | 2006-09-28 | Image processor, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008084076A true JP2008084076A (en) | 2008-04-10 |
Family
ID=39354881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006264359A Pending JP2008084076A (en) | 2006-09-28 | 2006-09-28 | Image processor, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008084076A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010277431A (en) * | 2009-05-29 | 2010-12-09 | Secom Co Ltd | Object detection device |
JP2010277296A (en) * | 2009-05-28 | 2010-12-09 | Secom Co Ltd | Object detection device |
WO2013073167A1 (en) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | Image processing device, imaging device, and image processing method |
JP2017174414A (en) * | 2016-03-22 | 2017-09-28 | 株式会社東芝 | Image adjustment |
CN110490027A (en) * | 2018-05-15 | 2019-11-22 | 触景无限科技(北京)有限公司 | A kind of face characteristic extraction training method and system for recognition of face |
KR20200075094A (en) * | 2018-12-10 | 2020-06-26 | 울산과학기술원 | Apparatus and method for generating object classifier |
-
2006
- 2006-09-28 JP JP2006264359A patent/JP2008084076A/en active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010277296A (en) * | 2009-05-28 | 2010-12-09 | Secom Co Ltd | Object detection device |
JP2010277431A (en) * | 2009-05-29 | 2010-12-09 | Secom Co Ltd | Object detection device |
WO2013073167A1 (en) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | Image processing device, imaging device, and image processing method |
CN103493093A (en) * | 2011-11-17 | 2014-01-01 | 松下电器产业株式会社 | Image processing device, imaging device, and image processing method |
JPWO2013073167A1 (en) * | 2011-11-17 | 2015-04-02 | パナソニックIpマネジメント株式会社 | Image processing apparatus, imaging apparatus, and image processing method |
US9153066B2 (en) | 2011-11-17 | 2015-10-06 | Panasonic Intellectual Property Management Co. Ltd. | Image processing device, imaging device, and image processing method |
JP2017174414A (en) * | 2016-03-22 | 2017-09-28 | 株式会社東芝 | Image adjustment |
CN110490027A (en) * | 2018-05-15 | 2019-11-22 | 触景无限科技(北京)有限公司 | A kind of face characteristic extraction training method and system for recognition of face |
CN110490027B (en) * | 2018-05-15 | 2023-06-16 | 触景无限科技(北京)有限公司 | Face feature extraction training method and system |
KR20200075094A (en) * | 2018-12-10 | 2020-06-26 | 울산과학기술원 | Apparatus and method for generating object classifier |
KR102180054B1 (en) * | 2018-12-10 | 2020-11-17 | 울산과학기술원 | Apparatus and method for generating object classifier |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8948448B2 (en) | Method and apparatus for trajectory estimation, and method for segmentation | |
Wang et al. | Saliency-aware video object segmentation | |
JP4740657B2 (en) | Stereo 3D reconstruction system and process based on color segmentation | |
WO2011013579A1 (en) | Image processing device, image processing method, and program | |
JP2020516427A (en) | RECIST assessment of tumor progression | |
US8605795B2 (en) | Video editing methods and systems | |
US7522749B2 (en) | Simultaneous optical flow estimation and image segmentation | |
US20060193535A1 (en) | Image matching method and image interpolation method using the same | |
JP2016095849A (en) | Method and device for dividing foreground image, program, and recording medium | |
CN109598735A (en) | Method using the target object in Markov D-chain trace and segmented image and the equipment using this method | |
JP2012032370A (en) | Defect detection method, defect detection apparatus, learning method, program, and recording medium | |
JP6100300B2 (en) | Method and system for image matting and foreground estimation based on hierarchical graph | |
JP2010218051A (en) | System, method and program for selecting feature point | |
US20160117573A1 (en) | Method and apparatus for extracting feature correspondences from multiple images | |
JP2008084076A (en) | Image processor, method, and program | |
CN111931603B (en) | Human body action recognition system and method of double-flow convolution network based on competitive network | |
Lu et al. | Coherent parametric contours for interactive video object segmentation | |
Wehrwein et al. | Video segmentation with background motion models. | |
CN110930413A (en) | Image segmentation method based on weak supervision multi-core classification optimization merging | |
Chlebus et al. | Robust segmentation models using an uncertainty slice sampling-based annotation workflow | |
US10580127B2 (en) | Model generation apparatus, evaluation apparatus, model generation method, evaluation method, and storage medium | |
JP3716455B2 (en) | Region extraction method and region extraction device | |
US8478032B2 (en) | Segmenting an image | |
JP2018206260A (en) | Image processing system, evaluation model construction method, image processing method, and program | |
JP5896661B2 (en) | Information processing apparatus, information processing apparatus control method, and program |