JP2011113527A - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP2011113527A JP2011113527A JP2009272419A JP2009272419A JP2011113527A JP 2011113527 A JP2011113527 A JP 2011113527A JP 2009272419 A JP2009272419 A JP 2009272419A JP 2009272419 A JP2009272419 A JP 2009272419A JP 2011113527 A JP2011113527 A JP 2011113527A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- unit
- resolution image
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、複数の撮像装置によって撮影される被写体の奥行き情報を算出するための技術に関するものである。 The present invention relates to a technique for calculating depth information of a subject photographed by a plurality of imaging devices.
画像認識における特徴抽出や、柔軟且つ効率よく映像を合成、製作、加工、編集するための映像部品データベースの構築においては、撮影された画像データから被写体の奥行き情報を抽出することが行われる。被写体の奥行き情報を得るための方法としては、2つのカメラを平行に配置したステレオマッチング法がよく知られている。 In feature extraction in image recognition and construction of a video component database for synthesizing, producing, processing, and editing video in a flexible and efficient manner, the depth information of the subject is extracted from the captured image data. As a method for obtaining depth information of a subject, a stereo matching method in which two cameras are arranged in parallel is well known.
ここで、図20を用いてステレオマッチング法について簡単に説明する。図20において、1601は被写体であって、1602は被写体1601上にある一点である。被写体表面は波の形になっている。ステレオマッチング法を用いる2台のカメラは全く性能が同じカメラである。カメラは、光学中心を通る光線で投影面への結像を実現する。図20では、1603、1604は左右カメラの光学中心である。1612、1613は左右カメラの投影面である。左の投影面中心を座標原点とする直交座標系は(u,v)である。光学中心と投影面座標原点と連接するラインは投影面に対して垂直に交わっており、その間の距離は焦点距離fである。右の投影面中心を座標原点とする直交座標系は(u´,v´)である。三次元空間の被写体1601上の座標(X,Y,Z)は両カメラの光学中心と連接し、投影面との接点は左右ステレオ画像上の画素になる。図20の1606、1607は左右投影面との接点を示している。1606の座標は(ux,vy)である。1607の座標は(ux´,vy´)である。1611と1609は左右投影面上のライン1610、1608を拡大した画素配列である。両カメラの光学中心を連接したラインは基線と呼ばれ、bはその基線の長さである基線長1605である。被写体1601上の座標(X,Y,Z)は左のカメラ座標系を基準にしている。被写体1601の奥行き値はZとする。Zについて下記の式を用いてステレオマッチング法により計算する。なお、特許文献1には、複数の撮像装置で撮像した画像データを超解像画像データに変換して仮想視点画像データを生成する技術が開示されている。
Here, the stereo matching method will be briefly described with reference to FIG. In FIG. 20,
しかしながら、カメラ、又はビデオカメラ等で取得した画像データはセンササイズの制限等により十分な解像度で表現できない場合がある。画素数が不足すると、ステレオマッチング法による奥行き推定精度が高くても、密で且つシャープな奥行き情報を得ることができない。 However, there are cases where image data acquired by a camera, a video camera, or the like cannot be expressed with a sufficient resolution due to a sensor size limitation or the like. If the number of pixels is insufficient, dense and sharp depth information cannot be obtained even if the depth estimation accuracy by the stereo matching method is high.
図21、図22を用いて上記の課題について詳しく説明する。図21は、拡大表示された画素配列(図20の1611、1609)と撮影対象の対応関係を示す図である。図21の1701は被写体1601の断面図である。1611は左カメラの投影面上にある1ラインの一部であり、左カメラで撮影された画像データを奥行き推定時の基準画像データとして扱う。1609は右カメラの投影面上にある1ラインの一部である。撮影対象に含まれる点A、B、C、Dは基準画像データにある画素a1、b1、c1、d1と、右カメラの投影面上の画素a2、b2、c2、d2とにそれぞれに対応している。画素a1、b1、c1、d1は基準画像データ上に連続して並んでいる画素である。画素a2、b2、c2、d2は右カメラの投影面上にあって、基準画像データ上の画素a1、b1、c1、d1に対応する画素である。画素a2、b2、c2、d2は、右カメラの投影面の1ライン上に配置されるが、必ずしも連続的に配置されるわけではない。1702は上記式1を用いて得られる点A、B、C、Dの奥行き値Zの結果を示している。横軸は点A、B、C、Dの画素位置である。縦軸は奥行き値を示している。画像解像度の制限により、被写体上にある点A、B、C、Dの間の奥行き変化を正確に表現できていないことが確認できる。
The above problem will be described in detail with reference to FIGS. FIG. 21 is a diagram illustrating a correspondence relationship between an enlarged pixel array (1611 and 1609 in FIG. 20) and an imaging target.
図22は、同じく図20の画素1611、1609と被写体1801上の点との対応関係を示す図である。図21と相違する点は、左右カメラの投影面における1ライン上の画素数が増加した点である。図22にある1801は被写体1601の断面図である。1611は基準画像データ上にある1ラインの一部である。撮影対象に含まれる点A、E、B、F、C、G、Dは基準画像データ上にある画素a1、e1、b1、f1、c1、g1、d1と、右カメラの投影面上にある画素a2、e2、b2、f2、c2、g2、d2にそれぞれ対応している。被写体1801上の点E、F、Gはそれぞれ点A、B、C、Dの間に位置する点である。画素a1、e1、b1、f1、c1、g1、d1は基準画像データ上に連続して並んでいる画素である。画素a2、e2、b2、f2、c2、g2、d2は右カメラの投影面上にあって、基準画像データ上の画素a1、e1、b1、f1、c1、g1、d1に対応する画素である。画素a2、e2、b2、f2、c2、g2、d2は、投影面の1ライン上に配置されるが、必ずしも連続的に配置されるわけではない。1802は上記式1を用いて得られる画素A、E、B、F、C、G、Dの奥行き値Zの結果を示している。横軸は点A、E、B、F、C、G、Dに対応する画素位置である。縦軸は奥行き値を示している。取得する画像データの画素数が増えた結果、図21で説明した低画素数の画像データからの奥行き値計算では獲得できなかった点E、F、Gの奥行き値を正確に得ることができ、点A〜Dの間の奥行き変化を表現できるようになる。
FIG. 22 is a diagram showing the correspondence between the
このように、奥行き値の取得数を増加させる手段として、撮像系のセンサ素子の微小化によって、画像データの解像度を向上させることが挙げられる。しかしながら、センサ素子の高密度化は製造コストの向上に直結する。更に、撮像素子を小さくすると、1個の撮像素子が受光できる光量が減少し、画像データ上に印加されるノイズ量が増加する問題点がある。 As described above, as a means for increasing the number of acquired depth values, the resolution of image data can be improved by miniaturizing the sensor elements of the imaging system. However, increasing the density of the sensor element directly leads to an increase in manufacturing cost. Furthermore, when the image sensor is made smaller, the amount of light that can be received by one image sensor decreases, and there is a problem that the amount of noise applied to the image data increases.
そこで、本発明の目的は、より高精度な奥行き推定を可能とすることにある。 Accordingly, an object of the present invention is to enable more accurate depth estimation.
本発明の画像処理装置は、複数の撮像手段より取得される被写体の画像データを高解像画像データに変換する変換手段と、前記変換手段により生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する第1の算出手段とを有することを特徴とする。 The image processing apparatus according to the present invention is based on a conversion unit that converts image data of a subject acquired from a plurality of imaging units into high-resolution image data, and the high-resolution image data generated by the conversion unit. And a first calculating unit that calculates depth information of the subject.
本発明においては、複数の撮像手段より取得される被写体の画像データを高解像画像データに変換し、変換された高解像画像データに基づいて被写体の奥行き情報を算出するようにしている。従って、本発明によれば、より高精度な奥行き推定が可能となる。 In the present invention, subject image data acquired from a plurality of imaging means is converted into high-resolution image data, and subject depth information is calculated based on the converted high-resolution image data. Therefore, according to the present invention, it is possible to estimate the depth with higher accuracy.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。110は、本実施形態に係る画像処理装置であり、画像取得装置(撮像手段)102で撮像された被写体の画像データが入力され、被写体までの奥行き情報マップを出力する。画像取得装置102は複数のカメラ(カメラ1、カメラ2)から構成されるステレオカメラである。画像取得装置102で取得された複数の画像データはメモリ103に一時的に格納される。メモリ103で記憶された複数の画像データは超解像処理ユニット104に入力され、高解像画像データが作成される。また、高解像画像データの生成に必要となる画像取得装置102の劣化条件が劣化条件入力部105から超解像度処理ユニット104に入力される。本実施形態で扱う劣化条件には光学的な劣化を表すPoint Spread Function(PSF、点拡がり関数)とダウンサンプリング処理とがある。ダウンサンプリング処理は、限られた画素数に被写体が収まるように画像データの変換を行う処理である。また、閾値が閾値入力部106より超解像処理ユニット104に入力される。ステレオマッチング部107は、超解像処理ユニット104によって生成された高解像画像データに基づいて、複数の高解像画像データ間の特徴点の対応付けを行い、奥行き計算ユニット108に出力する。奥行き計算ユニット108は奥行き情報マップを算出する。求められた奥行き情報マップは情報出力端子109から出力される。奥行き情報マップとは、撮影された画像データの全ての画素位置における奥行き値が格納されたデータ群や、その奥行き値を利用して作り上げる濃淡画像等である。111はインタフェースである。奥行き情報マップと超解像処理ユニット104で生成された高解像画像データは、インタフェース111を介してメモリカード112に保存される。なお、超解像処理ユニット104は本発明の変換手段の適用例となる構成であり、奥行き計算ユニット108は本発明の第1の算出手段の適用例となる構成である。
First, a first embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention.
図2は、図1の超解像処理ユニット104の詳細を示すブロック図である。以下では、高解像(High Resolution)画像データをHR画像データと、低解像(Low Resolution)画像データをLR画像データと略称する。図2において、画像入力端子201から画像取得装置102で得られた画像データが超解像処理ユニット104に入力される。本実施形態で扱う画像入力端子201から入力される画像データは8ビットのグレイスケール画像データとする。初期HR画像作成部202は、入力された画像データを用いてHR画像データの初期値を作成する。本実施形態では、線形補間手法を使用してHR画像データの初期値を生成する。HR画像生成部205は、後述するMaximum A Posterior(MAP)推定法によって計算される修正量をHR画像データに加えることによりHR画像データを更新する。LR画像作成部206は、劣化条件入力端子209から与えられる劣化条件に従ってHR画像データを劣化させ、LR画像データを生成する。劣化条件は、撮影用カメラの光学系の劣化PSFとセンサ画素数の制限による劣化過程のダウンサンプリングである。本実施形態で扱うダウンサンプリングの劣化条件は、ダウンサンプリング時の縮小倍率(1/M,1/N)で与えられる。尚、M、Nは自然数であるとする。これらの劣化条件は超解像処理に先立って計測されるデータ、あるいは、既知のデータであるとする。差分演算部210は、画像入力端子201から入力された画像データとLR画像作成部206で作成されたLR画像データとの差分演算を実施する。ここでは、画像入力端子201から入力された画像データとLR画像データとの差分の平均値を計算する。終了判定部207は、当該差分の平均値を用いて、HR画像データの生成が十分に実施されたかどうかを判定する。判定に用いられる閾値は閾値入力端子208により与えられ、0から255までの任意の値とする。終了判定部207は差分演算部210の演算結果と閾値とを比較することにより、HR画像データの生成が十分に実施されたかどうかを判定する。差分演算部210の演算結果が閾値以下の場合、終了判定部207は0を出力する。一方、差分演算部210の演算結果が閾値より大きい場合、終了判定部207は1を出力する。また、差分演算部210の演算結果は修正量計算部204にも入力される。
FIG. 2 is a block diagram showing details of the
終了判定部207から1が出力された場合、修正計算部204は修正量を計算し、出力する。一方、終了判定部207から0が出力された場合、修正計算部204は修正量0を出力する。HR画像作成部205は、修正量計算部204から出力された修正量に基づいてHR画像データを更新する。具体的には、修正量計算部204から得た修正量をHR画像データに加算することでHR画像データを更新する。なお、修正量計算の詳細については後述する。修正量計算部204により計算された修正量が0である場合、HR画像生成部205は既に生成しているHR画像データをそのままHR画像出力端子203から出力する。一方、修正量計算部204により計算された修正量が0ではない場合、HR画像生成部205は既に生成しているHR画像データに修正量を加算して更新し、LR画像作成部206による処理に進む。その後、差分演算部210の演算結果が閾値以下となると、HR画像出力端子203よりHR画像データが出力され、HR画像データの生成が完了する。なお、HR画像作成部205は本発明の第1の生成手段の適用例となる構成である。また、LR画像作成部206は第2の生成手段の適用例となる構成である。また、差分演算部210は第2の算出手段の適用例となる構成である。修正量計算部204は本発明の第3の算出手段の適用例となる構成である。
When 1 is output from the
図3は、図1の画像取得装置102の劣化モデルを示す図であり、本実施形態における撮像系の劣化過程を線形モデルで表している。図3において、301は劣化過程前のHR画像データを示している。302は光学系PSFによる劣化過程である光学系処理を示している。303はダウンサンプリングを行うセンサ処理を示している。ダウンサンプリング劣化条件は画像縮小の倍率として提供される。304は劣化過程後のカメラで撮影した画像データを示している。光学PSFの劣化は(2C+1,2C+1)のサイズの線形フィルタFとする。なお、Cは自然数である。本実施形態で扱うPSF劣化された画像データYPSFは、コンボリューション演算により以下の式2にて表現できる。i、jは2次元画像データX、YPSFの画素位置である。
FIG. 3 is a diagram illustrating a deterioration model of the
後述する超解像処理で扱う都合上、式2のコンボリューション演算は式3で定義される線形演算の形式に変更する。式2から式3への変換方法については後述する。線形演算の形式によるとカメラの劣化モデルは、以下の式3で表示できる。
For the convenience of handling in the super-resolution processing described later, the convolution operation of
Xは元となるHR画像データを表すベクトルである。Yは撮影された画像データ(LR画像データ)である。行列Bは光学系劣化処理を行う正方形行列である。行列Dはダウンサンプリング処理の画像縮小の倍率を反映した行列である。行列Bと行列Dのサイズは入力画像サイズによって変化する。入力画像サイズをW(横画素数)、H(縦画素数)とする。ダウンサンプリング条件は画像縮小の倍率を1/M、1/Nとする。その場合、式3に記載した各行列サイズは図16の通りとなる。
X is a vector representing the original HR image data. Y is taken image data (LR image data). The matrix B is a square matrix that performs optical system deterioration processing. The matrix D is a matrix reflecting the image reduction magnification of the downsampling process. The sizes of the matrix B and the matrix D vary depending on the input image size. Let the input image size be W (number of horizontal pixels) and H (number of vertical pixels). The downsampling condition is that the image reduction magnification is 1 / M and 1 / N. In that case, each matrix size described in
図16に示す行列X、行列B及び行列Dの構成を図4、図5及び図6を用いて説明する。図4は、HR画像データと行列Xとの関係を示している。HR画像データの横と縦のサイズはWとHとする。図4(a)はHR画像データを示しており、(i,j)はHR画像データの画素番号である。図4(b)は横から縦へと画素データを一列の行列Xを作成したものである。 The configurations of the matrix X, the matrix B, and the matrix D illustrated in FIG. 16 will be described with reference to FIGS. 4, 5, and 6. FIG. 4 shows the relationship between the HR image data and the matrix X. The horizontal and vertical sizes of the HR image data are W and H. FIG. 4A shows HR image data, and (i, j) is a pixel number of the HR image data. FIG. 4B shows a matrix X in which pixel data is arranged in one column from horizontal to vertical.
図5は、行列Bの構成を示す図である。線形フィルタのサイズは(2N+1,2N+1)になっており、式2を示したように全ての画素について線形フィルタと積和する。図5に示したように、画素(i,j)が線形フィルタの中心にある場合、行列i×j行目にフィルタの値を行列の対応する位置に値を代入する。代入される以外のところは0を代入する。
FIG. 5 is a diagram illustrating the configuration of the matrix B. The size of the linear filter is (2N + 1, 2N + 1), and the product is summed with the linear filter for all pixels as shown in
図6は、行列Dの構成を示す図である。行列Dの作用は、縮小サイズを用いて、画像の画素位置は間引いて画素値を取得するための行列である。行列の値について、画素値が存在する位置に1を代入し、その他の位置には0を代入する。ここで具体的な例を一つ挙げる。サイズ1024×1024の画像データをHR画像データとして、ダウンサンプリング条件による縮小倍率は1/2、1/2とする。そうすると、撮影される画像データのサイズは512×512になる。上記式1に示すX、Y、D、Bの行列サイズを図17に示す。
FIG. 6 is a diagram illustrating the configuration of the matrix D. The function of the matrix D is a matrix for obtaining pixel values by using the reduced size and thinning out the pixel positions of the image. For the matrix value, 1 is substituted into the position where the pixel value exists, and 0 is substituted into the other positions. Here is one specific example. The image data of size 1024 × 1024 is assumed to be HR image data, and the reduction magnification according to the downsampling condition is 1/2 and 1/2. Then, the size of the image data to be shot is 512 × 512. FIG. 17 shows the matrix sizes of X, Y, D, and B shown in
本実施形態では、HR画像データはMAP法(Maximum A Posterior)を使用して求める。MAP法とは、二乗誤差にHR画像データの確率情報を付加した評価関数を最小化することで、HR画像データを推定する方法である。HR画像データに対するある事前情報を利用して、事後確率を最大化する最適化問題としてHR画像データを推定する超解像処理方法である。本実施形態では、下記式4を用いてHR画像データを生成する。なお、MAP法は、IEEE SIGNAL PROCESSING MAGAZINE 2003/03“Super-Resolution Image Reconstruction: A technical Overview”著者 Sung Cheol Park , Min Kyu Park and Moon Gi Kangに記載されている。 In the present embodiment, the HR image data is obtained using a MAP method (Maximum A Posterior). The MAP method is a method for estimating HR image data by minimizing an evaluation function obtained by adding probability information of HR image data to a square error. This is a super-resolution processing method that estimates HR image data as an optimization problem that maximizes the posterior probability by using certain prior information for the HR image data. In the present embodiment, HR image data is generated using the following Equation 4. The MAP method is described in IEEE Signal Processing MAGAZINE 2003/03 “Super-Resolution Image Reconstruction: A technical Overview” author Sung Cheol Park, Min Kyu Park and Moon Gi Kang.
右辺第一項は、隣接画素の画素値は類似した値を持つことが多いという事前情報を加味した拘束項である。右辺第一項によって画像データ全体に平滑化の効果がある。ラプラシアンフィルタを線形フィルタCとして使用する。αは右辺第一項の画像データにおける平滑化度合いを調整するパラメータである。平滑化度合いの高い画像データを得たい場合にはαの値を大きくすることが有効である。右辺第二項は、画像データと劣化過程を経て推定された画像データ(LR画像データ)との差分値を演算する項である。σは画像取得装置102で取得されたLR画像データYのノイズの標準偏差である。式4の右辺部を抽出し、超解像処理時の評価関数として用いる数式が式5である。
The first term on the right side is a constraint term that takes into account prior information that the pixel values of adjacent pixels often have similar values. The first term on the right side has the effect of smoothing the entire image data. A Laplacian filter is used as the linear filter C. α is a parameter for adjusting the degree of smoothing in the image data of the first term on the right side. Increasing the value of α is effective for obtaining image data with a high degree of smoothing. The second term on the right side is a term for calculating a difference value between the image data and the image data (LR image data) estimated through the deterioration process. σ is a standard deviation of noise of the LR image data Y acquired by the
図7は、図1に示す超解像処理ユニット104の処理を示すフローチャートである。ステップS701において、初期HR画像作成部202は、画像入力端子201から画像データYを入力する。ステップS702において、LR画像作成部206は、劣化条件入力端子209からカメラの光学劣化条件である行列Bを入力する。ステップS703において、LR画像作成部206は、劣化条件入力端子209からカメラのダウンサンプリング行列Dを入力する。ステップS704において、初期HR画像作成部202は、HR画像データの初期値を生成する。ここで、HR画像データの初期値は線形補間により横サイズがM倍、縦サイズがN倍に拡大される。ステップS705において、終了判定部207は、超解像処理の達成度合いを判定する際に用いる閾値を閾値入力端子208から入力する。ステップS706において、LR画像作成部206は、初期HR画像作成部202又はHR画像作成部205によって作成されたHR画像データから光学劣化PSFとダウンサンプリングを加味したLR画像データを作成する。ここでは、式6を用いてLR画像データが生成される。
FIG. 7 is a flowchart showing processing of the
ここで、i回目の演算で生成されたHR画像データをXiとする。ステップS707において、差分演算部210は、ステップS706で得られたLR画像データと画像入力端子201から入力された画像データとの全ての画素について差分を計算し、終了判定部207は、その差分の平均値と閾値とを比較する。差分の平均値が閾値以下の場合にはステップS711に進む。差分の平均値が閾値より大きければステップS708に進み、修正量計算部204はHR画像データの修正量を計算する更新項を求める。更新項の求め方は後述する。ステップS709において、HR画像作成部205はループ回数をカウントする。ステップS710において、HR画像作成部205はHR画像データにステップS708で計算された更新項の結果を加えてHR画像データを更新する。ステップS707において計算される差分の平均値が閾値以下となるまで、ステップS706〜S710の処理が繰り返し行われる。
Here, HR image data generated by the i-th calculation is X i . In step S707, the
なお、ステップS710においては、HR画像作成部205は、上記評価関数での評価結果を受けてHR画像データを更新する。本実施形態では最急降下法を用いてHR画像データを更新する。最急降下法は最小化したい関数の一次微分を使用した最適化手法である。最急降下法に必要となる更新項(関数の一次微分)は式7で表すことができる。
In step S710, the HR
図8は、ステレオ撮影によりカメラの配置と撮影された画像データを示す図である。図8において、2台のカメラA802とカメラB801のカメラ光軸は平行である。このような状態にあるカメラを平行カメラと呼ぶ。カメラA802で撮影された画像データは807である。カメラB801で撮影された画像データは806である。画像データ807は後述するステレオマッチング処理時の基準画像データとして扱う。画像データ806は参照画像データとして扱う。基準画像データ807にある点805は、参照画像データ806にある点804と対応している点である。
FIG. 8 is a diagram showing the arrangement of cameras and image data taken by stereo shooting. In FIG. 8, the camera optical axes of the two cameras A802 and B801 are parallel. A camera in such a state is called a parallel camera. The image data captured by the
図9は、上記図8に示した対応点の対応付け方法を説明するための図である。本実施形態では、ステレオマッチング法を使用して対応点の算出を行う。ステレオマッチング法は、一方の画像データを基準画像データとし、その基準画像データの中にある画素に対し、同じ被写体上の点を他方の参照画像データ中から探索して、画素位置を算出する手法である。図9において、左の画像はステレオマッチング時の基準画像データである。右の画像は参照画像データである。図9において、902はステレオマッチングの演算時に使用するブロックである。ブロックの横縦サイズはnxn画素である。ここで、対象点の検出にnxn画素のブロックを用いる理由は、画素kの周囲画素のパターンの特徴と、参照画像対象点k´周囲画素のパターンの特徴との相関性を考慮して、好適な対応点の探索を達成するためである。平行ステレオの場合、基準画像データ上のある点の右画像上の対応点は基準画像データ上のある点と同じ高さの直線上に存在する。対応する直線上にある全ての画素位置において、ブロック902とブロック903で囲まれる画像領域内の相関を算出し、その相関が最大となる組合せを対応点とする。相関値は相関係数を用いる。最も高い相関係数を示す参照画像データのブロックの中心画素が画素kの対応点k´として検出される。
FIG. 9 is a diagram for explaining a method for associating corresponding points shown in FIG. In the present embodiment, the corresponding points are calculated using the stereo matching method. The stereo matching method uses one image data as reference image data, and calculates a pixel position by searching a point on the same subject from the other reference image data for a pixel in the reference image data. It is. In FIG. 9, the left image is reference image data at the time of stereo matching. The right image is reference image data. In FIG. 9,
図10は、奥行き計算処理を示すフローチャートである。基準画像データと参照画像データとの対応点の探索は前述のステレオマッチング法を採用する。図10において、ステップS1001からステップS1006まで基準画像データの全ての画素について、参照画像データ上の対応点を探す。ステップS1002にて、ステレオマッチング部107は、左右ステレオ画像である基準画像データと参照画像データにおいてnxn画素ブロック単位での相関係数を求める。ステップS1003にて、ステレオマッチング部107は、計算された相関係数が最大となる参照画像データ上の対応画素位置を求める。基準画像データ上の画素位置を(xi,yi)、参照画像データ上の対応画素位置を(xr,yr)とすると、両画素間での視差は|xi−xr|で表現できる。ステップS1004において、奥行き計算ユニット108は視差情報を求める。ステップS1005において、奥行き計算ユニット108は、奥行き値を計算する。奥行き値Zは、上記視差|xi−xr|、両カメラ間の距離b及びカメラの焦点距離fにより式8で求められる。
FIG. 10 is a flowchart showing the depth calculation process. The search for corresponding points between the reference image data and the reference image data employs the stereo matching method described above. In FIG. 10, corresponding points on the reference image data are searched for all the pixels of the standard image data from step S1001 to step S1006. In step S1002, the
本実施形態では、MAP法を用いて画像データに対して超解像処理を実施していたが、その他のソフトウェア処理によって画像データの解像度を向上させても差し支えない。例えば、補間処理を行った後にエッジ強調する処理でも構わない。また、本実施形態で扱う画像データはグレイスケール画像データとして説明したが、カラーRGB画像データでも差し支えない。カラーRGB画像データを使用する場合には、任意の1チャンネルを使用して奥行き推定を行っても構わないし、RGB情報から輝度、明度情報に変換した後、奥行き推定を行っても構わない。 In this embodiment, the super-resolution processing is performed on the image data using the MAP method. However, the resolution of the image data may be improved by other software processing. For example, edge enhancement may be performed after interpolation processing. Further, the image data handled in the present embodiment has been described as grayscale image data, but color RGB image data may be used. When color RGB image data is used, depth estimation may be performed using an arbitrary channel, or depth estimation may be performed after converting RGB information into luminance and brightness information.
以上説明したように、本発明の第1の実施形態によれば、ステレオカメラで撮影した左右2枚の画像データから生成されたHR画像データを用いて奥行き値(奥行き情報マップ)を取得するようにしている。従って、空間的に情報量の多い奥行き値(奥行き情報マップ)を得ることが可能である。 As described above, according to the first embodiment of the present invention, the depth value (depth information map) is acquired using the HR image data generated from the left and right image data captured by the stereo camera. I have to. Therefore, it is possible to obtain a depth value (depth information map) having a large amount of information spatially.
次に本発明の第2の実施形態について説明する。上述した第1の実施形態においては、ステレオカメラで撮影した左右2枚の画像データからHR画像データを生成した後、被写体の奥行き値の推定を実施していた。これに対し、第2の実施形態では、各撮像装置から取得される複数の画像データから1枚のHR画像データを生成し、該HR画像データを用いて奥行き値を取得する。ステレオマッチングに用いるHR画像データは複数枚の画像データから構成されることから、情報量の多い、すなわち解像度の高い画像データとなり、より高精度な奥行き値の推定が可能となる。以下、第1の実施形態と異なる点である、複数枚の画像データから1枚のHR画像データを生成する部分についてのみ説明する。 Next, a second embodiment of the present invention will be described. In the first embodiment described above, the HR image data is generated from the left and right image data captured by the stereo camera, and then the depth value of the subject is estimated. On the other hand, in the second embodiment, one HR image data is generated from a plurality of image data acquired from each imaging device, and a depth value is acquired using the HR image data. Since the HR image data used for stereo matching is composed of a plurality of pieces of image data, the image data has a large amount of information, that is, high resolution, and depth values can be estimated with higher accuracy. Hereinafter, only a part that is different from the first embodiment and generates one piece of HR image data from a plurality of pieces of image data will be described.
図11は、第2の実施形態における図1の超解像処理ユニット104の詳細を示すブロック図である。図11において、画像入力端子1101からN枚の画像データが入力される。Nは2以上の整数である。本実施形態で扱う画像データは8ビットのグレイスケール画像データとする。初期HR画像作成部1102において、入力された画像データを用いてHR画像データの初期値を作成する。本実施形態では、線形補間手法を使用してHR画像データの初期値を作成する。図11において、1105はHR画像生成部である。ここでは、前述のMAP推定法によって計算される修正量をHR画像データに加えることによりHR画像データを更新する。1106はLR画像作成部であり、劣化条件入力端子1109から与えられる劣化条件に従ってHR画像データを劣化させ、LR画像データを生成する。劣化条件は撮影用カメラの光学系の劣化PSFとセンサ画素数の制限による劣化過程であるダウンサンプリングである。本実施形態では扱うダウンサンプリングの劣化条件は、ダウンサンプリング時の縮小倍率(1/M,1/N)で与えられる。なお、M、Nは自然数であるとする。更に、劣化条件入力端子1109から複数枚の画像データ間の位置ずれを示す情報が入力される。本実施形態では水平、垂直方向の位置ずれを扱う。取得されるN枚の画像データのうち、1枚目の画像データを基準画像データとし、基準画像データからの相対移動量を位置ずれの情報とする。基準画像データの中央画像位置を原点と定め、原点に対する水平、垂直の位置ずれ量(Δxk,Δyk)を算出する。なお、k=2、3、・・・、Nである。本実施形態では、基準画像データとのフレーム間マッチングにより位置ずれ量(Δxk,Δyk)を算出する。
FIG. 11 is a block diagram showing details of the
本実施形態において、これらの劣化条件は超解像処理に先立って予め計測されるデータ、或いは既知のデータである。差分演算部1110は、画像入力端子1101で入力された画像データとLR画像作成部1106で作成されたLR画像データとの差分を演算する。そして、差分演算部1110は、上記得られた画像データ間の差分情報の和を画素数で割ることで差分の平均値を計算する。終了判定部1107は、その平均値を用いてHR画像データが生成されたのかどうかを判断する。閾値は、閾値入力端子1108により与えられる、0から255までのある値とする。終了判定部1107は差分演算部1110の演算結果を閾値と比較する。差分演算部1110の演算結果が閾値以下の場合、終了判定部1107は0を出力する。一方、差分演算部1110の演算結果が閾値より大きい場合、終了判定部1107は1を出力する。また、差分演算部1110の演算結果は修正量計算部1104に入力される。終了判定部1107から1が出力された場合、修正量計算部1104は修正量を計算し、出力する。一方、終了判定部1107から0が出力された場合、修正量計算部1104は修正量0を出力する。HR画像作成部1105は、修正量計算部1104から出力される修正量に応じてHR画像データを生成する。具体的には、修正量計算部1104で得た修正量をHR画像データに加えることにより、HR画像データを更新する。なお、修正量計算の詳細については後述する。修正量計算部1104により計算された修正量が0である場合、HR画像生成部1105は既に作成しているHR画像データをそのままHR画像出力端子1103から出力する。一方、修正量計算部1104の修正量が0ではない場合、HR画像生成部1105は既に生成しているHR画像データに修正量を加算して更新し、LR画像作成部1106による処理に進む。その後、差分演算部1110の演算結果が閾値以下となると、HR画像出力端子1103よりHR画像データが出力され、HR画像データの生成が完了する。
In the present embodiment, these deterioration conditions are data measured in advance prior to super-resolution processing or known data. The
図12は、図1の画像取得装置102の劣化モデルを示す図であり、本実施形態における撮像系の劣化過程を線形モデルで表している。図12において、1201は劣化過程前のHR画像データを示している。1202は複数枚の画像データ間の位置ずれを示している。1203は光学系PSFによる劣化過程である光学系処理を示している。1204はダウンサンプリングを行うセンサ処理を示している。ダウンサンプリング劣化条件は画像縮小の倍率として提供される。1205はカメラで取得した画像データを示している。光学PSFの劣化は(2N+1,2N+1)のサイズの線形フィルタFとする。なお、Nは自然数である。本実施形態で扱うPSF劣化された画像データYPSFは、コンボリューション演算により以下の式9にて表現できる。i、jは2次元画像データX、YPSFの画素位置である。
FIG. 12 is a diagram illustrating a deterioration model of the
後述する超解像処理で扱う都合上、式9のコンボリューション演算は式10で定義される。線形演算の形式に変更する。式9から式10への変換方法については後述する。線形演算の形式によるとカメラの劣化モデルは下記の式10で表示できる。 For the convenience of handling in the super-resolution processing described later, the convolution operation of Equation 9 is defined by Equation 10. Change to the linear operation format. A conversion method from Equation 9 to Equation 10 will be described later. According to the linear calculation format, the camera deterioration model can be expressed by the following equation (10).
Xは元となるHR画像データを表すベクトルである。Ykは撮影された画像データ(LR画像データ)である。行列Mkは位置ずれ補正を行う正方形行列である。行列Bは光学系劣化処理を行う正方形行列である。行列Dはダウンサンプリング処理の画像縮小の倍率を反映した行列である。行列Mk、行列B、行列Dのサイズは入力画像サイズによって変化する。入力画像サイズをW(横画素数)、H(縦画素数)とする。ダウンサンプリング条件は画像縮小の倍率を1/M、1/Nとする。その場合、式10に記載される各行列サイズは図18に示す通りとなる。 X is a vector representing the original HR image data. Y k is taken image data (LR image data). The matrix M k is a square matrix that performs positional deviation correction. The matrix B is a square matrix that performs optical system deterioration processing. The matrix D is a matrix reflecting the image reduction magnification of the downsampling process. The sizes of the matrix M k , the matrix B, and the matrix D vary depending on the input image size. Let the input image size be W (number of horizontal pixels) and H (number of vertical pixels). The downsampling condition is that the image reduction magnification is 1 / M and 1 / N. In that case, each matrix size described in Equation 10 is as shown in FIG.
Xは元となるHR画像データを表すベクトルであって、横縦サイズはWとHとする。Ykは撮影されたLR画像データである。ダウンサンプリング処理の画像縮小の倍率を1/M、1/Nとする。画像データ間の位置ずれは(Δxk,Δyk)とする。行列のサイズは画像サイズによって変わる。 X is a vector representing the original HR image data, and the horizontal and vertical sizes are W and H, respectively. Y k is taken LR image data. The image reduction magnification of the downsampling process is 1 / M and 1 / N. The positional deviation between the image data is (Δx k , Δy k ). The size of the matrix depends on the image size.
ここで、具体的な例を一つ挙げる。サイズ1024×1024の画像データをHR画像データとして、ダウンサンプリングによる縮小倍率は1/2、1/2とする。そうすると、LR画像データのサイズは512×512になる。位置ずれは(Δxk,Δyk)とする。上記式10に記載されるX、Yk、D、B、Mkの行列サイズは図19に示す。図19に示した行列Mkの構成を図15に示す。本実施形態では、HR画像データはMAP法を使用して求める。すなわち、本実施形態では、下記式11を使ってHR画像データを生成する。 Here is one specific example. The image data of size 1024 × 1024 is assumed to be HR image data, and the reduction magnification by downsampling is 1/2 and 1/2. Then, the size of the LR image data is 512 × 512. The displacement is assumed to be (Δx k , Δy k ). The matrix sizes of X, Y k , D, B, and M k described in Equation 10 are shown in FIG. FIG. 15 shows the configuration of the matrix M k shown in FIG. In the present embodiment, the HR image data is obtained using the MAP method. In other words, in the present embodiment, HR image data is generated using the following Expression 11.
基準画像データとの位置ずれ情報は行列Mkで示す。光学系PSFによる劣化処理は行列Bで表す。ダウンサンプリング処理の画像縮小の倍率を反映した行列は行列Dで表す。式11の右辺第二項は、入力画像データと劣化過程を経て推定されたLR画像データとの差分値を演算する項である。σは画像取得装置102で取得された画像データYのノイズの標準偏差である。式11の右辺部を抽出し、超解像処理時の評価関数として用いる数式が式12である。
The positional deviation information with respect to the reference image data is indicated by a matrix M k . Deterioration processing by the optical system PSF is represented by a matrix B. A matrix reflecting the image reduction magnification of the downsampling process is represented by a matrix D. The second term on the right side of Equation 11 is a term for calculating a difference value between the input image data and the LR image data estimated through the deterioration process. σ is a standard deviation of noise of the image data Y acquired by the
図13は、ステレオ画像について左右画像データを複数枚ずつ取得する場合、画像データ間の位置関係を示す図である。本実施形態においては、基準画像データ及び参照画像データのそれぞれについて1枚目とk枚目の画像データ間の位置ずれは(Δxk,Δyk)の微小なものとし、ステレオカメラの手ぶれなどを想定した、微小制御されないずれを持つ複数の画像データを使う。 FIG. 13 is a diagram illustrating a positional relationship between image data when a plurality of left and right image data are acquired for a stereo image. In the present embodiment, the positional deviation between the first and k-th image data for each of the standard image data and the reference image data is assumed to be as small as (Δx k , Δy k ), and the camera shake of the stereo camera or the like is assumed. A plurality of image data that are assumed to be finely controlled are used.
図14は、図11の超解像処理ユニット1111の処理を示すフローチャートである。ステップS1401において、初期HR画像作成部1102は、画像入力端子201から画像データYkを入力する。Ykは入力画像データを表す。ステップS1402において、LR画像作成部1106は、取得された複数枚の画像データ間の位置ずれ情報を含む行列Mkを劣化条件入力端子1109から入力する。ステップS1403において、LR画像作成部1106は、カメラの光学劣化条件である行列Bを劣化条件入力端子1109から入力する。ステップS1404において、LR画像作成部1106は、カメラのダウンサンプリング行列Dを劣化条件入力端子1109から入力する。ステップS1405において、HR画像作成部205はHR画像データの初期値を生成する。HR画像データの初期値は線形補間により横サイズM倍、縦サイズN倍に拡大される。ステップS1406において、終了判定部1107は閾値入力端子1108から閾値を入力する。ステップS1408において、LR画像作成部1107は式13に従ってLR画像データYk´を作成する。ステップS1408は、ステップS1401で入力された画像データの枚数分だけ繰り返し実行される。従って、ステップS1407からステップS1409では、当該枚数分のLR画像データYk´が生成されることになる。
FIG. 14 is a flowchart showing processing of the
i回目の演算で生成されたHR画像データをXiとし、HR画像データXiは、ステップS1407からの繰り返し演算によってステップS1412で生成される。ステップS1413において、差分演算部1110は、ステップS1408の計算で得られたLR画像データと画像入力端子1101から入力された画像データとの差分の、全ての画素及び全ての入力画像データに対する平均値を求める。そして、終了判定部1107は、その平均値と閾値とを比較する。差分の平均値が閾値以下の場合にはステップS1414に進み、繰り返し演算が終わることになっている。差分の平均値が閾値より大きいのであれば、ステップS1410に進み、修正量計算部1104はHR画像データの修正量を計算する更新項を求める。更新項の求め方については後述する。ステップS1411において、HR画像作成部1105はループ回数をカウントする。ステップS1412において、HR画像作成部1105はHR画像データにステップS1410で計算された更新項の結果を加えてHR画像データを更新する。ステップS1413において計算される差分の平均値が閾値以下となるまで、ステップS1407〜ステップS1413の処理を繰り返し行う。
The HR image data generated by the i-th calculation is X i , and the HR image data X i is generated in step S1412 by repeated calculation from step S1407. In step S1413, the
ステップS1410において、修正量計算部1104は、HR画像データの更新項を計算する。HR画像作成部1105は、上記評価関数での結果を受けてHR画像データを更新する。本実施形態では最急降下法を用いてHR画像データを更新する。最急降下法は最小化する関数の一次微分のみを使用した最適化手法である。最急降下法を評価関数である式12に適応すると、式14によってHR画像データの更新項ΔXiが計算される。
In step S1410, the correction
以上説明したように、本発明の第2の実施形態によれば、各撮像装置から取得される複数の画像データから1枚のHR画像データを生成し、該HR画像データを用いて奥行き値(奥行き情報マップ)を取得することから、より高精度な奥行き推定が可能である。 As described above, according to the second embodiment of the present invention, one piece of HR image data is generated from a plurality of image data acquired from each imaging device, and a depth value ( Since the depth information map) is acquired, more accurate depth estimation is possible.
以上説明したとおり、上述した実施形態では、複数の撮像装置が撮影した複数枚の画像データからHR画像データを生成し、視差情報に基づいてより密な奥行き情報を算出することができる。特に第1実施形態によれば、ステレオカメラで撮影した左右2枚の画像データから生成されたHR画像データを用いて奥行き値(奥行き情報マップ)を取得することにより、空間的に情報量の多い奥行き情報を得ることが可能である。また、第2の実施形態によれば、各撮像装置から取得される複数の画像データから1枚のHR画像データを生成し、該HR画像データを用いて奥行き情報を取得することから、より高精度な奥行き推定が可能である。ステレオ画像の超解像画像と奥行きマップを基に加工することで背景がぼかしたり、3D表示をしたりする効果が得られる。 As described above, in the above-described embodiment, it is possible to generate HR image data from a plurality of pieces of image data captured by a plurality of imaging devices, and to calculate denser depth information based on parallax information. In particular, according to the first embodiment, the depth value (depth information map) is acquired using the HR image data generated from the left and right image data photographed by the stereo camera, so that the amount of information is spatially large. It is possible to obtain depth information. Further, according to the second embodiment, one HR image data is generated from a plurality of image data acquired from each imaging device, and depth information is acquired using the HR image data. Accurate depth estimation is possible. By processing based on the super-resolution image and the depth map of the stereo image, an effect of blurring the background or performing 3D display can be obtained.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
103 メモリ、104 超解像処理ユニット、105 劣化条件入力部、106 閾値入力部、107 ステレオマッチング部、108 奥行き計算ユニット、110 画像処理装置、202 初期HR画像作成部、204 修正計算部、205 HR画像作成部、206 LR画像作成部、207 終了判定部、210 差分演算部 103 Memory, 104 Super-resolution processing unit, 105 Degradation condition input unit, 106 Threshold input unit, 107 Stereo matching unit, 108 Depth calculation unit, 110 Image processing device, 202 Initial HR image creation unit, 204 Correction calculation unit, 205 HR Image creation unit, 206 LR image creation unit, 207 end determination unit, 210 difference calculation unit
Claims (11)
前記変換手段により生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する第1の算出手段とを有することを特徴とする画像処理装置。 Conversion means for converting image data of a subject acquired from a plurality of imaging means into high-resolution image data;
An image processing apparatus comprising: a first calculation unit that calculates depth information of the subject based on high-resolution image data generated by the conversion unit.
前記撮像手段より取得される前記被写体の画像データから高解像画像データを生成する第1の生成手段と、
前記第1の生成手段によって生成される高解像画像データから前記撮像手段の特性を加味して低解像画像データを生成する第2の生成手段と、
前記第2の生成手段により生成される低解像画像データと前記撮像手段により取得される画像データとの差分を算出する第2の算出手段とを有し、
前記第2の算出手段により算出される差分が所定の条件を満たす場合における、前記第1の生成手段により生成された高解像画像データを出力することを特徴とする請求項1又は2に記載の画像処理装置。 The converting means includes
First generation means for generating high-resolution image data from image data of the subject acquired from the imaging means;
Second generation means for generating low-resolution image data in consideration of characteristics of the imaging means from high-resolution image data generated by the first generation means;
Second calculation means for calculating a difference between the low-resolution image data generated by the second generation means and the image data acquired by the imaging means;
The high-resolution image data generated by the first generation unit when the difference calculated by the second calculation unit satisfies a predetermined condition is output. Image processing apparatus.
前記第2の算出手段により算出される差分が所定の条件を満たさない場合、当該差分に応じた修正量を算出する第3の算出手段を更に有し、
前記第1の生成手段は、前記第3の算出手段により算出された修正量に応じて高解像画像データを更新することを特徴とする請求項3に記載の画像処理装置。 The converting means includes
When the difference calculated by the second calculation means does not satisfy a predetermined condition, the apparatus further includes third calculation means for calculating a correction amount according to the difference,
The image processing apparatus according to claim 3, wherein the first generation unit updates high-resolution image data according to the correction amount calculated by the third calculation unit.
前記変換ステップにより生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する算出ステップとを含むことを特徴とする画像処理方法。 A conversion step of converting image data of a subject acquired from a plurality of imaging means into high-resolution image data;
A calculation step of calculating depth information of the subject based on the high-resolution image data generated by the conversion step.
前記変換ステップにより生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する算出ステップとをコンピュータに実行させるためのプログラム。 A conversion step of converting image data of a subject acquired from a plurality of imaging means into high-resolution image data;
A program for causing a computer to execute a calculation step of calculating depth information of the subject based on the high-resolution image data generated by the conversion step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009272419A JP2011113527A (en) | 2009-11-30 | 2009-11-30 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009272419A JP2011113527A (en) | 2009-11-30 | 2009-11-30 | Image processing apparatus and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011113527A true JP2011113527A (en) | 2011-06-09 |
Family
ID=44235781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009272419A Pending JP2011113527A (en) | 2009-11-30 | 2009-11-30 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011113527A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8774551B2 (en) | 2011-09-14 | 2014-07-08 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for reducing noise |
US9563937B2 (en) | 2013-07-12 | 2017-02-07 | Mitsubishi Electric Corporation | High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program |
-
2009
- 2009-11-30 JP JP2009272419A patent/JP2011113527A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8774551B2 (en) | 2011-09-14 | 2014-07-08 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for reducing noise |
US9563937B2 (en) | 2013-07-12 | 2017-02-07 | Mitsubishi Electric Corporation | High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7159057B2 (en) | Free-viewpoint video generation method and free-viewpoint video generation system | |
Josephson et al. | Pose estimation with radial distortion and unknown focal length | |
US8928736B2 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
US8452081B2 (en) | Forming 3D models using multiple images | |
CN107909640B (en) | Face relighting method and device based on deep learning | |
JP5778237B2 (en) | Backfill points in point cloud | |
US8447099B2 (en) | Forming 3D models using two images | |
JP2007000205A (en) | Image processing apparatus, image processing method, and image processing program | |
JP4209938B2 (en) | Image processing apparatus and method, image processing program, and image processor | |
CN107025660B (en) | Method and device for determining image parallax of binocular dynamic vision sensor | |
JP2005308553A (en) | Three-dimensional image measuring device and method | |
JP2016024052A (en) | Three-dimensional measurement system, three-dimensional measurement method and program | |
WO2021108626A1 (en) | System and method for correspondence map determination | |
TW201436552A (en) | Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream | |
KR101875532B1 (en) | Apparatus and method for hierarchical stereo matching | |
JP2011164905A (en) | Device for retrieving corresponding point | |
US9721348B2 (en) | Apparatus and method for raw-cost calculation using adaptive window mask | |
JP4102386B2 (en) | 3D information restoration device | |
US20120038785A1 (en) | Method for producing high resolution image | |
CN110288707B (en) | Three-dimensional dynamic modeling method and system | |
JP2006113832A (en) | Stereoscopic image processor and program | |
JP7312026B2 (en) | Image processing device, image processing method and program | |
JP2011113527A (en) | Image processing apparatus and method, and program | |
JP6156922B2 (en) | Three-dimensional data generation apparatus, three-dimensional data generation method, and program | |
JP2008204318A (en) | Image processor, image processing method and image processing program |