JP2017085598A - Image processing apparatus, image processing method, image processing program, and stereoscopic image display device - Google Patents
Image processing apparatus, image processing method, image processing program, and stereoscopic image display device Download PDFInfo
- Publication number
- JP2017085598A JP2017085598A JP2016238375A JP2016238375A JP2017085598A JP 2017085598 A JP2017085598 A JP 2017085598A JP 2016238375 A JP2016238375 A JP 2016238375A JP 2016238375 A JP2016238375 A JP 2016238375A JP 2017085598 A JP2017085598 A JP 2017085598A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vectors
- particle
- target block
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明の実施形態は、画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置に関する。 Embodiments described herein relate generally to an image processing device, an image processing method, an image processing program, and a stereoscopic image display device.
従来、ある画像から他の画像へ相関の高い領域を探索することにより、両画像間の対応付けを行なう対応点検出装置がある。たとえば特許文献1には、過去フレームや空間ですでに計算済みのブロックのベクトルを候補ベクトルとし、候補ベクトルに更新ベクトルを加えた領域だけに限定して探索を行い、画面全体で再帰処理をするものがある。
2. Description of the Related Art Conventionally, there is a corresponding point detection device that associates two images by searching for a region having a high correlation from one image to another. For example, in
以下の実施の形態では、テクスチャの少ない領域などにおいても安定的な対応付けを可能とする画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置を提供する。 In the following embodiments, an image processing device, an image processing method, an image processing program, and a stereoscopic image display device that enable stable association even in a region with a small texture are provided.
実施形態にかかる画像処理装置は、第1画像上の対象ブロックから前記第1画像とは異なる第2画像上の対応ブロックへの対応付けを示す対応ベクトルを求める画像処理装置であって、前記対象ブロック近傍の複数の候補ブロックそれぞれに関して既に計算済みの対応ベクトルから複数の候補ベクトルを取得する取得部と、取得された前記複数の候補ベクトルそれぞれが前記対象ブロックを基準として指し示す複数の候補対応ブロックそれぞれの近傍に前記第2画像上の位置を示すパーティクルを1つ以上ずつ設定し、前記対象ブロックを基準として前記パーティクルそれぞれを指し示す複数の粒子ベクトルを配置する配置部と、前記第1画像上の前記対象ブロックの画素値と前記パーティクルそれぞれで規定される前記第2画像上の複数のブロックそれぞれの画素値との差分に基づいて重みを計算し、計算された前記重みを前記複数の粒子ベクトルにそれぞれ付与する算出部と、前記複数の粒子ベクトルそれぞれに付与された前記重み基づいて前記複数の粒子ベクトルを統計処理することで、前記対象ブロックに関する対応ベクトルの解を求める処理部とを備える。 An image processing apparatus according to an embodiment is an image processing apparatus that obtains a correspondence vector indicating a correspondence from a target block on a first image to a corresponding block on a second image different from the first image, and An acquisition unit that acquires a plurality of candidate vectors from already calculated corresponding vectors for each of a plurality of candidate blocks in the vicinity of the block, and a plurality of candidate corresponding blocks that each of the acquired candidate vectors points to with respect to the target block One or more particles indicating the position on the second image in the vicinity of each other, an arrangement unit for arranging a plurality of particle vectors indicating the particles with reference to the target block, and the first image on the first image A plurality of pixel values on the second image defined by the pixel value of the target block and each of the particles A weight is calculated based on a difference between each pixel value of each lock, a calculation unit that assigns the calculated weight to each of the plurality of particle vectors, and the weight based on the weight assigned to each of the plurality of particle vectors A processor that statistically processes a plurality of particle vectors to obtain a solution of a corresponding vector related to the target block.
以下、例示する実施の形態にかかる画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置について、図面を参照して詳細に説明する。以下で例示する実施形態は、対象画像内の部分領域と相関の高い部分領域を参照画像から求める問題を解決するためのものである。例えばこれは、動画像のある1フレームから別のフレームへの動きベクトルを求める問題(動き推定ともいう)、動画像に含まれるオブジェクトの追跡、動画像のフレーム補間、および、裸眼による立体映像を実現するステレオ画像の左目用画像から右目用画像への対応付けを求める問題などに適用することができる。 Hereinafter, an image processing device, an image processing method, an image processing program, and a stereoscopic image display device according to exemplary embodiments will be described in detail with reference to the drawings. The embodiment illustrated below is for solving the problem of obtaining a partial region having a high correlation with the partial region in the target image from the reference image. For example, this is a problem of obtaining a motion vector from one frame of a moving image to another frame (also referred to as motion estimation), tracking of an object included in the moving image, frame interpolation of the moving image, and stereoscopic video by the naked eye. The present invention can be applied to the problem of obtaining the correspondence of the stereo image to be realized from the left-eye image to the right-eye image.
(実施形態1)
まず、実施形態1にかかる画像処理装置、画像処理方法および画像処理プログラムについて、図面を参照して詳細に説明する。なお、実施形態1では、動画像のある1フレーム(対象画像)から別のフレーム(参照画像)への動きベクトルを求める問題(動き推定ともいう)を解決する場合を例示する。
(Embodiment 1)
First, an image processing apparatus, an image processing method, and an image processing program according to the first embodiment will be described in detail with reference to the drawings. In the first embodiment, a case where a problem (also referred to as motion estimation) for obtaining a motion vector from one frame (target image) of a moving image to another frame (reference image) is illustrated.
図1は、実施形態1にかかる画像処理装置の概略構成例を示すブロック図である。図1に示される画像処理装置10は、動画像に対する動き推定処理において、対象画像100上の部分領域から参照画像200上の部分領域への対応付けを示す対応ベクトルVを求める。以下の説明では、1つ以上の画素を含む部分領域をブロックという。また、対象画像100上の処理対象のブロックを対象ブロックといい、対象ブロックと対応づけられる参照画像200上のブロックを対応ブロックという。
FIG. 1 is a block diagram illustrating a schematic configuration example of the image processing apparatus according to the first embodiment. The
対象画像100は、動画像におけるある1フレームに相当し、参照画像200は、動画像における別の1フレームに相当する。この画像処理装置10は、図1に示すように、候補ベクトル取得部11と、粒子ベクトル配置部12と、粒子ベクトル重み算出部13と、粒子ベクトル処理部14と、を備える。
The
候補ベクトル取得部11には、たとえば外部の上位装置から対象画像100が入力される。候補ベクトル取得部11は、入力された対象画像100上の対象ブロックに対して、その近傍の1つ以上のブロック(以下、候補ブロック)を特定し、これら候補ブロックそれぞれに関して既に計算済みの対応ベクトルから1つ以上の対応ベクトルを候補ベクトルとして取得する(候補ベクトル取得ステップ)。
Candidate
粒子ベクトル配置部12は、候補ベクトル取得部11によって取得された1つ以上の候補ベクトルそれぞれが対象ブロックを基準として指し示すブロック(以下、候補対応ブロックという)それぞれの近傍に1つ以上のパーティクルを設定し、対象ブロックから各パーティクルを指し示す粒子ベクトルを配置する(粒子ベクトル配置ステップ)。なお、対応ベクトルと候補ベクトルと粒子ベクトルとは、それぞれ基準となるブロックの所定の位置(たとえば左上画素や中央画素など)を始点としている。以下では、説明の簡略化のため、単に「ブロックを基準として」と記述する。
The particle
本説明において、粒子ベクトルとは、画像に対して所定の法則にしたがって配置したパーティクルの位置を指し示すベクトルである。ここで、パーティクルとは、候補ベクトルが指し示す先の画像(参照画像200、または、対象画像100と参照画像200との重畳画像100A(図8参照):ここでは、簡略化のため、参照画像200と重畳画像100Aとを区別しない)上の位置を示す点である。このパーティクルは、処理上、画像中の1画素として扱うこともできる。実施形態1では、候補ベクトルが指し示す候補ブロックの周辺に1つ以上のパーティクルが設定される。したがって、実施形態1では、1つの候補ベクトルに対して1つ以上の粒子ベクトルが配置される。ただし、対象ブロックに対して複数の候補ベクトルが取得された場合、これらの候補ベクトルのうち少なくとも1つの候補ベクトルに対して少なくとも1つの粒子ベクトルが配置されればよい。
In this description, the particle vector is a vector indicating the position of a particle arranged according to a predetermined rule with respect to an image. Here, the particles are the images pointed to by the candidate vector (
実施形態1において配置する粒子ベクトルを、候補ベクトルの位置以外であって候補ベクトルの近傍に少なくとも1つの粒子ベクトルとしたのは、粒子ベクトルを1つも配置しない場合、解が収束せず、対応ベクトルVの値が常に‘0’となってしまう可能性が存在するためである。 The reason why the particle vector to be arranged in the first embodiment is at least one particle vector in the vicinity of the candidate vector other than the position of the candidate vector is that when no particle vector is arranged, the solution does not converge and the corresponding vector This is because there is a possibility that the value of V is always “0”.
粒子ベクトル重み算出部13は、対象ブロックと各パーティクルによって指定される各ブロックとの間の相関をそれぞれ計算し、計算された相関に応じた重みをそれぞれ対応する粒子ベクトルに付与する(粒子ベクトル重み算出ステップ)。なお、相関とは、たとえば輝度、RGBの各色成分の値、YUVなどの色空間の値などの画素値に基づく指標であってよい。その場合、たとえば差(画素値の差)が小さいとは、相関が高いことを意味する。なお、パーティクルは、対応ベクトルや候補ベクトルの始点と同様に、ブロックにおける所定の位置(たとえば左上画素や中央画素など)に位置するものとする。言い換えれば、対象ブロックとの相関が計算される粒子ベクトルが指し示すブロックは、パーティクルによって規定されるブロック(部分領域)である。パーティクルによって規定されるブロックの大きさ(サイズ)は、対象ブロックや候補ブロックと同じであってよい。
The particle vector
粒子ベクトル処理部14は、各粒子ベクトルについて算出された重みにしたがって1つ以上の粒子ベクトルを統計処理することで、対象ブロックに関する対応ベクトルVを求める(粒子ベクトル処理ステップ)。
The particle
つづいて、図1に示す画像処理装置10の動作例を、図2のフローチャートを用いて詳細に説明する。図2に示すように、候補ベクトル取得部11は、上位装置から入力された対象画像100を1階層以上ダウンサンプリングする(ステップS101)。これにより、対象画像100を元に、階層構造を有した対象画像が生成される。
Next, an exemplary operation of the
つぎに、候補ベクトル取得部11は、元の対象画像100およびダウンサンプリングにより得られた対象画像それぞれを複数の対象ブロックに分割する(ステップS102)。つづいて、候補ベクトル取得部11は、複数の対象ブロックのうち1つを所定のスキャン順序に従って選択する(ステップS103)。
Next, the candidate
つぎに、候補ベクトル取得部11は、選択した対象ブロックの近傍に、既に対応ベクトルを算出済みの他のブロック(以下、処理済みブロックという)が存在するか否かを判定する(ステップS104)。この判定の結果、処理済みブロックが存在しない場合(ステップS104;NO)、候補ベクトル取得部11は、選択中の対象ブロックに対する候補ベクトルとして、所定のベクトル(たとえば0(ゼロ)ベクトル)を取得する(ステップS106)。一方、処理済みブロックが存在する場合(ステップS104;YES)、候補ベクトル取得部11は、処理済みブロックのうち少なくとも1つを候補ブロックとして選択し、選択された1つ以上の候補ブロックに関する1つ以上の対応ベクトルから1つ以上の対応ベクトルを候補ベクトルとして取得する候補ベクトル取得ステップを実行する(ステップS105)。たとえば、図3には、対象ブロック101に対して2つの処理済みブロック102および103が存在している場合が例示されている。この場合、ステップS105では、図4に示すように、これら2つの処理済みブロック102および103のうち少なくとも1つ(図4では2つ)が候補ブロックとして選択され、これらに関して既に計算されている対応ベクトル112および113のうち少なくとも1つ(図4では2つ)が候補ベクトルとして取得される。
Next, the candidate
つぎに、粒子ベクトル配置部12が、選択中の対象ブロックに対して1つ以上の粒子ベクトルを配置する粒子ベクトル配置ステップを実行する(ステップS107)。つぎに、粒子ベクトル重み算出部13が、配置された1つ以上の粒子ベクトルに付与する重みを算出する粒子ベクトル重み算出ステップを実行する(ステップS108)。たとえば図5には、候補ベクトル112に関して、その確率分布である重み122が計算された場合が例示されている。
Next, the particle
つぎに、粒子ベクトル処理部14が、各粒子ベクトルについて算出された重みにしたがって1つ以上の粒子ベクトルを統計処理することで、選択中の対象ブロックに関する対応ベクトルを求める粒子ベクトル処理ステップを実行する(ステップS109)。すなわち、図5のように、1つ以上の候補ベクトル112および113それぞれに関して算出された重みに従い1つ以上の粒子ベクトルを統計処理することで、図6に示すような確率分布120を得ることができる。対象ブロック101に関する対応ベクトル111は、図6に示すように、確率分布120(たとえばその重心や中心)に基づいて取得することが可能である。
Next, the particle
その後、画像処理装置10は、全ての対象ブロックに対して対応ベクトルを取得する処理が完了したか否かを判定し(ステップS110)、完了した場合(ステップS110;YES)、本動作を終了する。一方、完了していない場合(ステップS110;NO)、画像処理装置10は、ステップS103へリターンし、所定のスキャン順序に従って次の対象ブロックを選択し、以降の動作を実行する。
Thereafter, the
ここで、階層構造を有した画像におけるある画素(たとえば左下の画素)を基準とした各画素の座標を(X,h)T=(x,y,h)Tとすると、一方の画像(たとえば対象画像100)上の各画素の画素値をAo(X,h)、他方の画像(たとえば参照画像200)上の各画素の画素値をAr(X,h)と記述することができる。なお、Tは行列ベクトルの転置を表す。また、列ベクトルは大文字で表記されている。これらの画素値Ao(X,h)およびAr(X,h)は、それぞれAo(x,y,h)およびAr(x,y,h)と表現することもできる。 Here, if the coordinates of each pixel based on a certain pixel (for example, the lower left pixel) in an image having a hierarchical structure is (X, h) T = (x, y, h) T , one image (for example, The pixel value of each pixel on the target image 100) can be described as A o (X, h), and the pixel value of each pixel on the other image (for example, the reference image 200) can be described as A r (X, h). . T represents transposition of a matrix vector. The column vector is shown in capital letters. These pixel values A o (X, h) and A r (X, h) can also be expressed as A o (x, y, h) and A r (x, y, h), respectively.
また、hは階層を表す。階層とは、画像のピラミッド階層のことである。最もベーシックなピラミッド階層としては、たとえば以下の式(1)で表されるガウシアンピラミッドが存在する。 H represents a hierarchy. A hierarchy is a pyramid hierarchy of images. As the most basic pyramid hierarchy, for example, there is a Gaussian pyramid represented by the following formula (1).
式(1)において、上向き矢印はダウンサンプリングを表し、G( )はガウシアンフィルタを表す。つまり、ガウシアンピラミッドとは、画像をガウシアンフィルタにより平滑化しながらダウンサンプリングにより縮小することで得られた1つ以上の画像と元の画像とで構成されるピラミッド階層を指す。したがって、h=0は元の画像を指し、h=1は元の画像に対してダウンサンプリングを1回行うことで得られた画像を指す。 In Expression (1), the upward arrow represents downsampling, and G () represents a Gaussian filter. That is, the Gaussian pyramid refers to a pyramid hierarchy including one or more images obtained by downsampling while smoothing an image with a Gaussian filter and the original image. Therefore, h = 0 indicates an original image, and h = 1 indicates an image obtained by performing downsampling once on the original image.
また、以下の説明において、ダウンサンプリングのスケール、つまり元の画像に対して何分の一にダウンサンプリングしたかをρで表す。たとえば、元の画像に対して縦横2分の1にダウンサンプリングした場合、ρ=2となる。 Further, in the following description, the downsampling scale, that is, the fraction of downsampling with respect to the original image is represented by ρ. For example, if the original image is down-sampled to half the length and breadth, ρ = 2.
なお、実施形態1は、ピラミッド階層を用いるものに限定されない。すなわち、h=0のみを使用するように構成されてもよい。 The first embodiment is not limited to the one using a pyramid hierarchy. That is, it may be configured to use only h = 0.
対象画像100上の対象ブロックと、この対象ブロック101と相関の高い参照画像200上の対応ブロック201との対応付けは、対応ベクトルを用いて定義される。ここで、対象画像100上の対象ブロック101と相関の高い参照画像200上の対応ブロック201を求める問題は、たとえば図7に示すような定義とすることができる。図7において、ベクトル111は、対象画像100内の対象ブロック101における基準画素から、対象ブロック101と相関の高い参照画像200上の対応ブロック201における対応画素までを指し示すベクトルである。図7に示される関係を2次元平面上に射影すると、図8のようになる。本説明では、対象画像100と参照画像200との重畳画像100Aにおける対象ブロック101の基準画素から対応ブロック201の対応画素までを指し示すベクトル111を対応ベクトルと定義する。これは、動画像に対する動きベクトルの算出や多視差画像に対するステレオ対応付けにおける対応点の算出の際に用いる定義と同じである。
The association between the target block on the
ここで、画像がピラミッド階層を持つ場合、対応ベクトルV(図1参照)も画像と同じ階層数のピラミッド階層を持っているとする。その場合、座標Xで階層hの対応ベクトルV(X,h)は、以下の式(2)で記述することができる。
また、画像に付与された時刻tをさらに考慮すると、つまり時系列も考慮しつつ処理を実行する場合、対応ベクトルV(X,h,t)は、以下の式(3)で記述することができる。
なお、動画像を処理する場合には、異なる時刻tでは対象画像100および参照画像200が変わるが、静止画を処理する場合には、異なる時刻tであっても対象画像100および参照画像200は変わらない。
Note that when processing a moving image, the
一回の処理で取り扱う処理対象は、図9に示すように、1つ以上画素をまとめたブロック単位としている。これらのブロックは、1つの画像を縦方向および横方向それぞれに予め定めておいた分割数で分割することで得られてもよいし、画像に対して縦横それぞれの画素数が予め定められたサイズの区画を所定位置(たとえば左上)から充填(配列)させることで得られてもよい。 As shown in FIG. 9, the processing target handled in one process is a block unit in which one or more pixels are collected. These blocks may be obtained by dividing one image by a predetermined number of divisions in the vertical direction and the horizontal direction, or a size in which the number of pixels in the vertical and horizontal directions is determined in advance for the image. May be obtained by filling (arranging) these sections from a predetermined position (for example, upper left).
ブロックが画像の左上から充填されているとし、且つ、各ブロックの横と縦のサイズを(Bx,By)とし、処理対象のブロックをI=(i,j)Tとした場合、Iブロック内の左上の座標XLは、以下の式(4)で表すことができる。
また、Iブロックの中心座標XCは、以下の式(5)で表すことができる。
ここで、ブロックの中心座標を計算する演算子c(I)は、以下の式(6)と定義することができる。なお、演算子c(I)は、c(i,j)と記述することもできる。
<各ステップの詳細>
以上のような定義に従って、図2に示す各ステップの詳細を、以下に図面を用いて詳細に説明する。
<Details of each step>
The details of each step shown in FIG. 2 will be described below in detail with reference to the drawings in accordance with the above definitions.
・ステップS103:処理のスキャン順序
図10は、図2のステップS103において用いた処理のスキャン順序の一例を示す図である。図11は、図10に示すスキャン順序で処理した場合の処理済みのブロックを示す。図10および図11に示す例では、時刻t−1の元の対象画像を100(t−1)とし、時刻tの元の対象画像を100tとしている。また、対象画像100(t−1)をρ=2で1度ダウンサンプリングした画像を対象画像10(t−1)とし、対象画像100tをρ=2で1度ダウンサンプリングした画像を対象画像10tとしている。
Step S103: Process Scan Order FIG. 10 is a diagram showing an example of the process scan order used in step S103 of FIG. FIG. 11 shows processed blocks when processed in the scan order shown in FIG. In the example shown in FIGS. 10 and 11, the original target image at time t−1 is 100 (t−1), and the original target image at time t is 100 t. An image obtained by down-sampling the target image 100 (t−1) once at ρ = 2 is set as the target image 10 (t−1), and an image obtained by down-sampling the
図10に示された例に示すように、たとえばスキャン順序では、時間は過去から未来へ、階層は上から下へ、の順番に随時ブロックが選択される。また、同じ平面(画像)上では、例えば左上から右下に向かって処理をしていくことが考えられる。ただし、これらに限定されず、時間を未来から過去へ、階層を下層から上層へ、または、同一平面での選択順を右下から左上へなど、種々変形可能である。なお、以下の説明では、図10に示すように、スキャン順序を同一平面での選択順を左上から右下とし、より上側にあって左側にあるブロックを空間的に上位にあるという。 As shown in the example shown in FIG. 10, for example, in the scan order, blocks are selected as needed in the order of time from the past to the future and hierarchy from top to bottom. Further, on the same plane (image), for example, it is conceivable to perform processing from the upper left to the lower right. However, the present invention is not limited to these, and various modifications are possible such as changing the time from the future to the past, the hierarchy from the lower layer to the upper layer, or the selection order on the same plane from the lower right to the upper left. In the following description, as shown in FIG. 10, the scanning order in the same plane is from the upper left to the lower right, and the block on the upper side and on the left is spatially higher.
また、図10に示すスキャン順序でブロックを選択することで、図11に示すように、処理対象である対象ブロックよりも時間的に過去で、階層的および空間的に上位にあるブロックは、既に対応ベクトルが算出された処理済みブロックとなる。 Further, by selecting the blocks in the scan order shown in FIG. 10, as shown in FIG. 11, blocks that are temporally past and hierarchically and spatially higher than the target block to be processed are already present. This is the processed block for which the correspondence vector has been calculated.
・ステップS105:候補ベクトル取得ステップ
図2のステップS105に示す候補ベクトル取得ステップについて説明する。候補ベクトル取得ステップは、処理済みブロックのうち、対象ブロックに対して時間的、階層的および空間的に近傍に位置するブロックの対応ベクトルが候補ベクトルとして取得される。図12は、対象ブロックに対して時間的、階層的または空間的に隣接する処理済みブロック(時間的候補ブロック、階層的候補ブロック、空間的候補ブロック)の対応ベクトルが候補ベクトルとして取得される例を示す。ただし、図12は、あくまでも一例であって、対象ブロックの近傍に位置する処理済みブロックであればよい。なお、近傍に位置するブロックとは、対象ブロックに対して時間的、階層的または空間的に隣接するブロックに限定されず、対象ブロックに対して時間的、階層的または空間的に斜めの位置にあるブロックや対象ブロックから隣接ブロックを辿って2番目や3番目に位置するブロックなどが含まれていてもよい。
Step S105: Candidate Vector Acquisition Step The candidate vector acquisition step shown in step S105 of FIG. 2 will be described. In the candidate vector acquisition step, a correspondence vector of a block located in the temporally, hierarchically, and spatially vicinity of the target block among the processed blocks is acquired as a candidate vector. FIG. 12 shows an example in which correspondence vectors of processed blocks (temporal candidate blocks, hierarchical candidate blocks, spatial candidate blocks) that are temporally, hierarchically or spatially adjacent to the target block are acquired as candidate vectors. Indicates. However, FIG. 12 is merely an example, and any processed block located in the vicinity of the target block may be used. A block located in the vicinity is not limited to a block that is temporally, hierarchically, or spatially adjacent to the target block, and is located at an oblique position temporally, hierarchically, or spatially with respect to the target block. A block that is located second or third by tracing an adjacent block from a certain block or target block may be included.
図12に示す例では、以下の式(7)に示すような候補ベクトルの集合(候補ベクトル群)が取得される。
ここで、候補ベクトル群は集合であるので、これを以下の式(8)に示すような候補ベクトル集合Wとして定義する。
なお、ここでは時間的要素、階層的要素および空間的要素のすべてを候補として用いたが、これに限られるものではない。すなわち、時間的要素、階層的要素および空間的要素のうち少なくとも1つの要素を候補として用いればよい。 Here, all of the temporal element, the hierarchical element, and the spatial element are used as candidates, but the present invention is not limited to this. That is, at least one element among temporal elements, hierarchical elements, and spatial elements may be used as a candidate.
・ステップS107:粒子ベクトル配置ステップ
図2のステップS107に示す粒子ベクトル配置ステップについて説明する。粒子ベクトル配置ステップでは、上述のように、1つ以上の候補ベクトルそれぞれが対象ブロックを基準として指し示す1つ以上の候補対応ブロックそれぞれの近傍に1つ以上のパーティクルを設定し、1つ以上のパーティクルそれぞれについて対象ブロックを基準とした粒子ベクトルを配置する。言い換えれば、各候補ベクトルの近傍に、各候補ベクトルが指し示す候補対応ブロック近傍の1つ以上のパーティクルを指し示す1つ以上の粒子ベクトルが配置される。
Step S107: Particle Vector Placement Step The particle vector placement step shown in step S107 in FIG. 2 will be described. In the particle vector arrangement step, as described above, one or more particles are set in the vicinity of each of one or more candidate corresponding blocks each of which one or more candidate vectors indicate with reference to the target block, and one or more particles A particle vector based on the target block is arranged for each. In other words, one or more particle vectors indicating one or more particles in the vicinity of the candidate corresponding block indicated by each candidate vector are arranged in the vicinity of each candidate vector.
粒子ベクトルは、候補ベクトルと重ならないようにして、候補ベクトルの近傍に少なくとも1つ以上配置される必要がある。ただし、必ずしもすべての候補ベクトルに対して1つ以上の粒子ベクトルを配置する必要はなく、少なくとも1つの候補ベクトルの近傍に少なくとも1つの粒子ベクトルが配置されればよい。 At least one particle vector needs to be arranged in the vicinity of the candidate vector so as not to overlap the candidate vector. However, it is not always necessary to arrange one or more particle vectors for all candidate vectors, and it is sufficient that at least one particle vector is arranged in the vicinity of at least one candidate vector.
図13に、1つの候補ベクトルに対して配置された粒子ベクトルの例を示す。図13に示す例では、候補ベクトル112が指し示す点142を中心として所定半径(たとえば1)の円内に属する1つ以上(図13では4つ)のパーティクル131を設定し、これらを指し示す粒子ベクトル132を候補ベクトル112に対して配置した例が示されている。なお、点142は、パーティクル131と同様であってよい。
FIG. 13 shows an example of particle vectors arranged for one candidate vector. In the example shown in FIG. 13, one or more (four in FIG. 13)
半径1の円内のパーティクル131(点142を含む)は、以下の式(9)に示すような近傍集合Nとして表すことができる。
ここで、‖ ‖は長さを表す。したがって、以下の式(10)に示すように、nが整数1の場合は、近傍集合Nに属するパーティクル131(点142を含む)の数は、5つとなる。
その場合、候補ベクトル112をw∈Wとすると、粒子ベクトルp(132)は以下の式(11)であり、また、全ての粒子ベクトルp(132)を集めた粒子ベクトル集合Pは、以下の式(12)と表現することができる。ここで∀は、集合に属する全ての要素を表す。
なお、各候補ベクトル112に対して設定される粒子ベクトル132は、図13に示す例に限られるものではない。たとえば図14(a)に示すように、候補ベクトル112が指し示す点142を囲む合計8つのパーティクルが設定されてそれぞれにパーティクル131を設定し、これらを指し示す粒子ベクトル132を配置してもよい。また、図14(b)に示すように、候補ベクトル112が指し示す点142を中心としてたとえば半径2の円内に属する合計12のパーティクル131を設定し、これらを指し示す粒子ベクトル132を配置してもよい。もしくは、図14(c)に示すように、候補ベクトル112が指し示す点142を中心とした所定半径の円内にランダムに設定された1つ以上のパーティクル131に対して粒子ベクトル132が配置されてもよい。なお、説明の都合上、図14では、粒子ベクトル132については図示を省略している。
The
・ステップS108:粒子ベクトル重み算出ステップ
図2のステップS108に示す粒子ベクトル重み算出ステップについて説明する。粒子ベクトル重み算出ステップでは、全ての粒子ベクトルに対して重みが計算される。各粒子ベクトルに対する重み算出の根拠には、変位ブロック差分(Displaced Block Difference:DBD)を用いることができる。変位ブロック差分DBDの1つとしては、図15に示すような、MSE(二乗差分平均:Mean Squared Error)が存在する。
Step S108: Particle Vector Weight Calculation Step The particle vector weight calculation step shown in step S108 in FIG. 2 will be described. In the particle vector weight calculation step, weights are calculated for all particle vectors. A displacement block difference (DBD) can be used as the basis for calculating the weight for each particle vector. As one of the displacement block difference DBDs, there is an MSE (Mean Squared Error) as shown in FIG.
ここで、粒子ベクトルをp∈Pとすると、MSEは以下の式(13)と定義することができる。
式(13)によれば、ブロックI=(i,j)T内の対象画像の画素値と、粒子ベクトルで変位させたブロック内の参照画像の画素値との二乗差分の平均を求めることができる。 According to the equation (13), the average of the square difference between the pixel value of the target image in the block I = (i, j) T and the pixel value of the reference image in the block displaced by the particle vector is obtained. it can.
また、MSEの他にも、絶対値差分平均MAD(Mean Absolute Difference)が存在する。同様に粒子ベクトルをp∈Pとすると、MADは以下の式(14)と定義することができる。
つぎに、MSEまたはMADを用いて各粒子ベクトルの重みを算出する処理について説明する。変位ブロック差分DBDは、MSEを用いた場合とMADを用いた場合との両方で、値が小さいほど、誤差が小さくなる。これは、粒子ベクトルが真の対応ベクトルに近いことを意味する。したがって、各粒子ベクトルの重みとしては、変位ブロック差分DBDが小さいほど重みが大きく、大きいほど重みが小さくなるようなものとするべきである。 Next, processing for calculating the weight of each particle vector using MSE or MAD will be described. The displacement block difference DBD has a smaller error as the value is smaller in both the case where the MSE is used and the case where the MAD is used. This means that the particle vector is close to the true corresponding vector. Therefore, the weight of each particle vector should be such that the smaller the displacement block difference DBD is, the larger the weight is, and the larger the weight is, the smaller the weight is.
このような重みを与える関数(重み関数)としては、たとえば図16に示すようなガウス関数を用いることができる。MSEの場合、ガウス関数を使った重みは以下の式(15)のように計算できる。
一方、MADの場合、以下の式(16)のように計算できる。
ここで、σはガウス関数の標準偏差、すなわちノイズの強度を表す。そこで、画像にノイズが多い場合や、対応付ける画像同士が似ていない場合には、この値σを大きくする。これは、対象とする画像などに応じて事前に設定してもよいし、入力画像に応じて設定してもよい。 Here, σ represents the standard deviation of the Gaussian function, that is, the noise intensity. Therefore, if the image has a lot of noise or the images to be associated are not similar, this value σ is increased. This may be set in advance according to the target image or the like, or may be set according to the input image.
また、図17に示すような関数を用いてもよい。この場合、MSEを用いた重みは、以下の式(17)のように計算できる。
一方、MADを用いた重みは、以下の式(18)のように計算できる。
ここで、εは、‘0(ゼロ)’除算を防止するための定数である。εには、0.1や1.0などの適当な定数を事前に設定すればよい。なお、特性としては、εが大きいほどなだらかな重み関数となり、εが小さいほど急峻な重み関数となる。 Here, ε is a constant for preventing '0 (zero)' division. An appropriate constant such as 0.1 or 1.0 may be set in advance for ε. As a characteristic, the larger the ε, the smoother the weight function, and the smaller the ε, the steeper weight function.
・ステップS109:粒子ベクトル処理ステップ
図2のステップS109に示す粒子ベクトル処理ステップでは、粒子ベクトルを対応する重みに応じて統計処理を行うことで、対象ブロックの対応ベクトルを求める。
Step S109: Particle Vector Processing Step In the particle vector processing step shown in Step S109 of FIG. 2, the corresponding vector of the target block is obtained by performing statistical processing according to the weight corresponding to the particle vector.
統計処理では、たとえば以下の式(19)に示すような重み平均が用いられてもよい。
式(19)を用いて求められる対応ベクトルは、対象ブロックに代表される対応ベクトルである。そこで、これらを対象ブロック内の対応ベクトルとして以下の式(20)のように割り当てる。
また、式(19)に示す重み平均の代わりに、以下の式(21)に示す重み付きメディアン(中央値)が用いられてもよい。なお、式(21)において、arg minxE(ただし、xはarg minの下)とは、Eを最小にするxの値を示す。
以上のようなステップを図2に示す流れにしたがって再帰的に実行することで、テクスチャの少ない領域などにおいても安定して対応ベクトルを取得することが可能となる。 By executing the above steps recursively according to the flow shown in FIG. 2, it is possible to stably acquire the corresponding vector even in a region with a small texture.
たとえば特許文献1では、過去フレームや空間で既に計算済みのブロックのベクトルを候補ベクトルとし、候補ベクトルに更新ベクトルを加えた領域だけに限定して探索を行い、画面全体で再帰処理をする。これにより、少ない計算量で安定して対応付けを行うことが可能である。これは、物体が一定以上の大きさを持っていると仮定すると、対象ブロックの解ベクトルは空間的に隣接するブロックや、時間的に過去の隣接ブロックに近いもので与えられる、という根拠に基づいている。これらの処理が画面全体を通して再帰的に行われることで、少ない計算量でも大きな動きを対応づけることが可能である。
For example, in
しかしながら、特許文献1では、少数の候補ベクトルを元にして解を選択的に選んでしまうため、テクスチャの少ない領域などにおいて対応付けが不安定になり易いという課題が存在した。
However, in
そこで実施形態1では、上述のように、候補ベクトル近傍に粒子ベクトルを配置し、各粒子ベクトルの重み(確率密度ともいう)を算出し、それぞれの重みに従い統計処理を行って対応ベクトルを求める。これにより、テクスチャの少ない領域で解が1つに安定して定まらないとしても、統計的な分布を元に真の対応ベクトルを推定することが可能となるため、安定した対応ベクトルを求めることが可能となる。 Therefore, in the first embodiment, as described above, a particle vector is arranged in the vicinity of a candidate vector, a weight (also referred to as probability density) of each particle vector is calculated, and statistical processing is performed according to each weight to obtain a corresponding vector. This makes it possible to estimate a true corresponding vector based on a statistical distribution even if a single solution is not determined stably in a region with less texture. It becomes possible.
(実施形態2)
つぎに、実施形態2にかかる画像処理装置、画像処理方法、画像処理プログラム、および立体画像表示装置について、図面を参照して詳細に説明する。なお、実施形態2では、立体映像をなすステレオ画像の左目用画像から右目用画像への対応付けを求める問題を解決する場合を例示する。また、以下の説明において、上述した実施形態と同様の構成および動作については、それを引用することで重複する説明を省略する。また、実施形態1における対象画像100および参照画像200は、実施形態2において左目画像および右目画像とすることが可能であるため、以下の説明では左目画像100および右目画像200として説明する。ただし、これに限らず、右目画像と左目画像とを入れ換えてもよい。また、以下の説明では、実施形態1における対応ベクトルを視差ベクトルと読み替えるものとする。
(Embodiment 2)
Next, an image processing device, an image processing method, an image processing program, and a stereoscopic image display device according to
図18は、実施形態2にかかる立体画像表示装置20の概略構成例を示すブロック図である。図18に示される立体画像表示装置20は、ステレオ映像から裸眼3Dなどで使用される多視差映像を生成するものである。図18と図1とを比較すると明らかなように、立体画像表示装置20は、画像処理装置10と同様の構成に加え、粒子ベクトル処理部14から出力された対応ベクトルVに基づいて多視差画像を生成する視差画像生成部21と、視差画像生成部21により生成された多視差画像を表示する多視差画像表示部22とをさらに備える。
FIG. 18 is a block diagram illustrating a schematic configuration example of the stereoscopic
図19に、図18に示す立体画像表示装置20の動作例を示す。図19と図2とを比較すると明らかなように、立体画像表示装置20は、図2に示す動作と同様の動作(ステップS101〜S110)を実行して対象ブロックに対する視差ベクトルを算出する。その後、視差画像生成部21が、生成したい視差画像の枚数分、左目画像100と視差ベクトルVとから視差画像を生成する(ステップS201)。これにより、裸眼3Dなどで使用される多視差画像が生成される。
FIG. 19 shows an operation example of the stereoscopic
ここで、図20に示すように、左目画像100は左目と右目との中間の視点から得られたものだとすると、各視差番号は、両目の中心をOとして右側をマイナス、左側をプラスのkとすることができる。その場合、多視差画像は、視差ベクトルdをk倍した視差ベクトルV20から、式(22)を用いて生成することができる。
また、各視差画像は、左目画像100の画素値Io(x)をdkに従って移動させることにより生成できる。ただし、単純に移動しただけでは穴が空いてしまう可能性もある。その場合、穴の領域を周辺の視差ベクトルVから補間して映像を埋めるとよい。その他の構成、動作及び効果は、実施形態1と同様であるため、ここでは詳細な説明を省略する。
Each parallax image can be generated by moving the pixel value I o (x) of the
また、上記実施の形態およびその変形例は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、仕様等に応じて種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施の形態が可能であることは上記記載から自明である。例えば各実施の形態に対して適宜例示した変形例は、他の実施の形態に対して適用することも可能であることは言うまでもない。 In addition, the above-described embodiment and its modifications are merely examples for carrying out the present invention, and the present invention is not limited to these, and various modifications according to specifications and the like are within the scope of the present invention. Furthermore, it is obvious from the above description that various other embodiments are possible within the scope of the present invention. For example, it is needless to say that the modification examples illustrated as appropriate for each embodiment can be applied to other embodiments.
10 画像処理装置
11 候補ベクトル取得部
12 粒子ベクトル配置部
13 粒子ベクトル重み算出部
14 粒子ベクトル処理部
20 立体画像表示装置
21 視差画像生成部
22 多視差画像表示部
100 対象画像(左目画像)
100A 重畳画像
101 対象ブロック
102、103 処理済みブロック
111 対応ベクトル
112、113 候補ベクトル
120 確率分布
122 重み
131 パーティクル
132 粒子ベクトル
142 点
200 参照画像(右目画像)
DESCRIPTION OF
100A superimposed
Claims (13)
前記対象ブロック近傍の複数の候補ブロックそれぞれに関して既に計算済みの対応ベクトルから複数の候補ベクトルを取得する取得部と、
取得された前記複数の候補ベクトルそれぞれが前記対象ブロックを基準として指し示す複数の候補対応ブロックそれぞれの近傍に前記第2画像上の位置を示すパーティクルを1つ以上ずつ設定し、前記対象ブロックを基準として前記パーティクルそれぞれを指し示す複数の粒子ベクトルを配置する配置部と、
前記第1画像上の前記対象ブロックの画素値と前記パーティクルそれぞれで規定される前記第2画像上の複数のブロックそれぞれの画素値との差分に基づいて重みを計算し、計算された前記重みを前記複数の粒子ベクトルにそれぞれ付与する算出部と、
前記複数の粒子ベクトルそれぞれに付与された前記重み基づいて前記複数の粒子ベクトルを統計処理することで、前記対象ブロックに関する対応ベクトルの解を求める処理部と
を備える画像処理装置。 An image processing apparatus for obtaining a correspondence vector indicating a correspondence from a target block on a first image to a corresponding block on a second image different from the first image,
An acquisition unit for acquiring a plurality of candidate vectors from corresponding vectors already calculated for each of a plurality of candidate blocks in the vicinity of the target block;
One or more particles indicating positions on the second image are set in the vicinity of each of the plurality of candidate corresponding blocks each of which the obtained candidate vectors point to with respect to the target block, and the target block is set as a reference An arrangement unit for arranging a plurality of particle vectors indicating the particles;
A weight is calculated based on a difference between a pixel value of the target block on the first image and a pixel value of each of a plurality of blocks on the second image defined by each of the particles, and the calculated weight is A calculation unit for assigning each of the plurality of particle vectors;
An image processing apparatus comprising: a processor that statistically processes the plurality of particle vectors based on the weights assigned to each of the plurality of particle vectors to obtain a solution of a corresponding vector related to the target block.
前記対象ブロック近傍の複数の候補ブロックそれぞれに関して既に計算済みの対応ベクトルから複数の候補ベクトルを取得し、
取得された前記複数の候補ベクトルそれぞれが前記対象ブロックを基準として指し示す候補対応ブロックそれぞれの近傍に前記第2画像上の位置を示すパーティクルを1つ以上ずつ設定し、
前記対象ブロックを基準として前記パーティクルそれぞれを指し示す複数の粒子ベクトルを配置し、
前記第1画像上の前記対象ブロックの画素値と前記パーティクルそれぞれで規定される前記第2画像上の複数のブロックそれぞれの画素値との差分に基づいて重みを計算し、
計算された前記重みを前記複数の粒子ベクトルにそれぞれ付与し、
前記複数の粒子ベクトルそれぞれに付与された前記重みに基づいて前記複数の粒子ベクトルを統計処理することで、前記対象ブロックに関する対応ベクトルの解を求める
ことを含む、画像処理方法。 An image processing method for obtaining a correspondence vector indicating a correspondence from a target block on a first image to a corresponding block on a second image different from the first image,
Obtaining a plurality of candidate vectors from corresponding vectors already calculated for each of a plurality of candidate blocks in the vicinity of the target block;
One or more particles each indicating a position on the second image are set in the vicinity of each candidate corresponding block to which each of the obtained candidate vectors points to the target block as a reference;
Arranging a plurality of particle vectors indicating each of the particles with respect to the target block;
Calculating a weight based on a difference between a pixel value of the target block on the first image and a pixel value of each of the plurality of blocks on the second image defined by each of the particles;
Assign each of the calculated weights to the plurality of particle vectors;
An image processing method comprising: obtaining a solution of a corresponding vector related to the target block by statistically processing the plurality of particle vectors based on the weights assigned to the plurality of particle vectors.
前記対象ブロック近傍の複数の候補ブロックそれぞれに関して既に計算済みの対応ベクトルから複数の候補ベクトルを取得する処理と、
取得された前記複数の候補ベクトルそれぞれが前記対象ブロックを基準として指し示す候補対応ブロックそれぞれの近傍に前記第2画像上の位置を示すパーティクルを1つ以上ずつ設定し、前記対象ブロックを基準として前記パーティクルそれぞれを指し示す複数の粒子ベクトルを配置する処理と、
前記第1画像上の前記対象ブロックの画素値と前記パーティクルそれぞれで規定される前記第2画像上の複数のブロックそれぞれの画素値との差分に基づいて重みを計算し、計算された前記重みを前記複数の粒子ベクトルにそれぞれ付与する処理と、
前記複数の粒子ベクトルそれぞれに付与された前記重みに基づいて前記複数の粒子ベクトルを統計処理することで、前記対象ブロックに関する対応ベクトルの解を求める処理と
を前記コンピュータに実行させるための画像処理プログラム。 An image processing program for causing a computer to obtain a correspondence vector indicating a correspondence from a target block on a first image to a corresponding block on a second image different from the first image,
A process of obtaining a plurality of candidate vectors from corresponding vectors already calculated for each of a plurality of candidate blocks in the vicinity of the target block;
One or more particles each indicating a position on the second image are set in the vicinity of each candidate corresponding block in which each of the acquired candidate vectors points to the target block as a reference, and the particle is set based on the target block. A process of arranging a plurality of particle vectors pointing to each,
A weight is calculated based on a difference between a pixel value of the target block on the first image and a pixel value of each of a plurality of blocks on the second image defined by each of the particles, and the calculated weight is A process of assigning each of the plurality of particle vectors;
An image processing program for causing the computer to execute processing for obtaining a solution of a corresponding vector related to the target block by statistically processing the plurality of particle vectors based on the weights assigned to each of the plurality of particle vectors .
前記対象ブロック近傍の複数の候補ブロックそれぞれに関して既に計算済みの視差ベクトルから複数の候補ベクトルを取得する取得部と、
取得された前記複数の候補ベクトルそれぞれが前記対象ブロックを基準として指し示す候補対応ブロックそれぞれの近傍に前記第2画像上の位置を示すパーティクルを1つ以上ずつ設定し、前記対象ブロックを基準として前記パーティクルそれぞれを指し示す複数の粒子ベクトルを配置する配置部と、
前記第1画像上の前記対象ブロックの画素値と前記パーティクルそれぞれで規定される前記第2画像上の複数のブロックそれぞれの画素値との差分に基づいて重みを計算し、計算された前記重みを前記複数の粒子ベクトルにそれぞれ付与する算出部と、
前記1つ以上の粒子ベクトルそれぞれに付与された前記重みに基づいて前記複数の粒子ベクトルを統計処理することで、前記対象ブロックに関する視差ベクトルの解を求める処理部と、
前記処理部により求められた視差ベクトルを用いて、前記第1画像から1つ以上の視差画像を生成する生成部と、
前記生成部で生成された前記1つ以上の視差画像を表示する表示部と
を備える立体画像表示装置。 A stereoscopic image display device for obtaining a disparity vector indicating a correspondence from a target block on a first image to a corresponding block on a second image different from the first image,
An acquisition unit that acquires a plurality of candidate vectors from disparity vectors that have already been calculated for each of a plurality of candidate blocks in the vicinity of the target block;
One or more particles each indicating a position on the second image are set in the vicinity of each candidate corresponding block in which each of the acquired candidate vectors points to the target block as a reference, and the particle is set based on the target block. An arrangement part for arranging a plurality of particle vectors pointing to each;
A weight is calculated based on a difference between a pixel value of the target block on the first image and a pixel value of each of a plurality of blocks on the second image defined by each of the particles, and the calculated weight is A calculation unit for assigning each of the plurality of particle vectors;
A processor that statistically processes the plurality of particle vectors based on the weights assigned to each of the one or more particle vectors to obtain a parallax vector solution for the target block;
A generation unit that generates one or more parallax images from the first image using the parallax vector obtained by the processing unit;
A stereoscopic image display device comprising: a display unit that displays the one or more parallax images generated by the generation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238375A JP6453837B2 (en) | 2016-12-08 | 2016-12-08 | Image processing apparatus, image processing method, image processing program, and stereoscopic image display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238375A JP6453837B2 (en) | 2016-12-08 | 2016-12-08 | Image processing apparatus, image processing method, image processing program, and stereoscopic image display apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012242038A Division JP2014093602A (en) | 2012-11-01 | 2012-11-01 | Image processing device, image processing method, image processing program, and stereoscopic image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017085598A true JP2017085598A (en) | 2017-05-18 |
JP6453837B2 JP6453837B2 (en) | 2019-01-16 |
Family
ID=58711423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238375A Active JP6453837B2 (en) | 2016-12-08 | 2016-12-08 | Image processing apparatus, image processing method, image processing program, and stereoscopic image display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6453837B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012798A (en) * | 2003-06-16 | 2005-01-13 | Samsung Electronics Co Ltd | Motion vector generation apparatus and method |
WO2006075394A1 (en) * | 2005-01-14 | 2006-07-20 | Morhpo, Inc. | Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device |
JP2006279917A (en) * | 2005-03-04 | 2006-10-12 | Mitsubishi Electric Corp | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system |
JP2007018098A (en) * | 2005-07-05 | 2007-01-25 | Advanced Telecommunication Research Institute International | Text division processor and computer program |
JP2007228400A (en) * | 2006-02-24 | 2007-09-06 | Mitsubishi Electric Corp | Moving image converter |
JP2007334583A (en) * | 2006-06-14 | 2007-12-27 | Kddi Corp | Method, device and program for generating free viewpoint image using multi-viewpoint image |
JP2008226187A (en) * | 2007-03-15 | 2008-09-25 | Toshiba Corp | Motion estimation apparatus and method thereof |
WO2011074121A1 (en) * | 2009-12-18 | 2011-06-23 | 株式会社 東芝 | Device and method for detecting motion vector |
-
2016
- 2016-12-08 JP JP2016238375A patent/JP6453837B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005012798A (en) * | 2003-06-16 | 2005-01-13 | Samsung Electronics Co Ltd | Motion vector generation apparatus and method |
WO2006075394A1 (en) * | 2005-01-14 | 2006-07-20 | Morhpo, Inc. | Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device |
JP2006279917A (en) * | 2005-03-04 | 2006-10-12 | Mitsubishi Electric Corp | Dynamic image encoding device, dynamic image decoding device and dynamic image transmitting system |
JP2007018098A (en) * | 2005-07-05 | 2007-01-25 | Advanced Telecommunication Research Institute International | Text division processor and computer program |
JP2007228400A (en) * | 2006-02-24 | 2007-09-06 | Mitsubishi Electric Corp | Moving image converter |
JP2007334583A (en) * | 2006-06-14 | 2007-12-27 | Kddi Corp | Method, device and program for generating free viewpoint image using multi-viewpoint image |
JP2008226187A (en) * | 2007-03-15 | 2008-09-25 | Toshiba Corp | Motion estimation apparatus and method thereof |
WO2011074121A1 (en) * | 2009-12-18 | 2011-06-23 | 株式会社 東芝 | Device and method for detecting motion vector |
Also Published As
Publication number | Publication date |
---|---|
JP6453837B2 (en) | 2019-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360235B (en) | Hybrid depth estimation method based on light field data | |
US10699476B2 (en) | Generating a merged, fused three-dimensional point cloud based on captured images of a scene | |
JP4958233B2 (en) | Multi-view image creation system and multi-view image creation method | |
US20140348238A1 (en) | Object tracking using graphics engine derived vectors in a motion estimation system | |
US9349073B2 (en) | Apparatus and method for image matching between multiview cameras | |
JP2014078095A (en) | Image processing device, image processing method, and program | |
JP7387434B2 (en) | Image generation method and image generation device | |
JP2013545200A (en) | Depth estimation based on global motion | |
NL2016660B1 (en) | Image stitching method and device. | |
JP7032871B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
JP2014096062A (en) | Image processing method and image processing apparatus | |
JP2014515197A (en) | Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching | |
KR20200078678A (en) | Temporal fobted rendering using motion estimation | |
JP2018036898A (en) | Image processing device and control method of the same | |
JP5492223B2 (en) | Motion vector detection apparatus and method | |
KR20150046810A (en) | Method and apparatus for image processing | |
JP2011039801A (en) | Apparatus and method for processing image | |
JP2014093602A (en) | Image processing device, image processing method, image processing program, and stereoscopic image display device | |
JP7233150B2 (en) | Depth estimation device and its program | |
JP6057629B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP6453837B2 (en) | Image processing apparatus, image processing method, image processing program, and stereoscopic image display apparatus | |
JP2013005025A (en) | Stereoscopic image generating device, stereoscopic image generating method, program, and recording medium | |
WO2017032096A1 (en) | Method for predicting stereoscopic depth and apparatus thereof | |
JP2014014034A (en) | Parallax image generating apparatus and parallax image generating method | |
JP2005339535A (en) | Calculation of dissimilarity measure |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180903 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180912 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6453837 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |