JP2006285952A - 画像処理方法、画像処理装置、プログラムおよび記録媒体 - Google Patents
画像処理方法、画像処理装置、プログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP2006285952A JP2006285952A JP2006016702A JP2006016702A JP2006285952A JP 2006285952 A JP2006285952 A JP 2006285952A JP 2006016702 A JP2006016702 A JP 2006016702A JP 2006016702 A JP2006016702 A JP 2006016702A JP 2006285952 A JP2006285952 A JP 2006285952A
- Authority
- JP
- Japan
- Prior art keywords
- pixel data
- data
- image data
- probability density
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Abstract
【課題】複数の画像データ間の視差データを高精度に生成できる画像処理方法を提供する。
【解決手段】確率密度関数PDを順に更新し(ST11)、各PDにおいて、そのエネルギを最小にする対応関係fを特定する。最終的にエネルギーを最小にするPDと、対応関係fに対応した視差データDMとを特定する。
【選択図】図5
【解決手段】確率密度関数PDを順に更新し(ST11)、各PDにおいて、そのエネルギを最小にする対応関係fを特定する。最終的にエネルギーを最小にするPDと、対応関係fに対応した視差データDMとを特定する。
【選択図】図5
Description
本発明は、ステレオ画像の視差データを生成する画像処理方法、画像処理装置、プログラムおよび記録媒体に関する。
例えば、ステレオ・マッチングは、同じ対象を異なる位置から撮像して得られた2つの画像間の画素単位での対応関係を特定し、その対応関係から得られる視差データを基に、マシン・センシングや仮想ビューなどに要求される原画像の3次元構成が得られる。
しかしながら、実環境の曖昧さや複雑さに起因して、上記対応関係を特定することは容易ではない。
従来のステレオ・マッチングでは、例えば、2つの画像内で同じ対象についての画素データの輝度が同じであることを前提として上記対応関係を特定している。
Yuri Boykov, Olga Veksler, Ramin Zabih. Fast Approximate Energy Minimization via Graph Cuts. International Conference on Computer Vision, vol. 1, pp. 377-384, 1999. V. Kolmogorov and R. Zabih. Computing visual correspondence with occlusions using graph cuts. Journal of Confidence on Computer Vision, vol. 2, pp.508-515, 2001. Geo.rey Egnal. Mutual information as a stereo correspondence measure. Technical Report MS-CIS-00-20, University of Pennsylvania, 2000. Junhwan Kim, Vladimir Kolmogorov and Ramin Zabih. Visual Correspondence Using Energy Minimization and Mutual Information. International Conference on Computer Vision, vol.2, pp.1033-1040, 2003.
しかしながら、実環境の曖昧さや複雑さに起因して、上記対応関係を特定することは容易ではない。
従来のステレオ・マッチングでは、例えば、2つの画像内で同じ対象についての画素データの輝度が同じであることを前提として上記対応関係を特定している。
Yuri Boykov, Olga Veksler, Ramin Zabih. Fast Approximate Energy Minimization via Graph Cuts. International Conference on Computer Vision, vol. 1, pp. 377-384, 1999. V. Kolmogorov and R. Zabih. Computing visual correspondence with occlusions using graph cuts. Journal of Confidence on Computer Vision, vol. 2, pp.508-515, 2001. Geo.rey Egnal. Mutual information as a stereo correspondence measure. Technical Report MS-CIS-00-20, University of Pennsylvania, 2000. Junhwan Kim, Vladimir Kolmogorov and Ramin Zabih. Visual Correspondence Using Energy Minimization and Mutual Information. International Conference on Computer Vision, vol.2, pp.1033-1040, 2003.
しかしながら、上述した従来の手法では、2つの画像内で同じ対象についての画素データの輝度が同じであることを前提としているが、この前提は多くの場合で満たされないため、上記対応関係を特定することが困難である。
また、これらの従来の手法では、画像内の画素データが、マッチング可能な領域の画素データおよびオクリュージョン領域の画素の何れであるかを、マッチング処理において推定していることから、誤った推定が行われ、その結果を基に誤った視差データが生成される可能性が高い。
また、これらの従来の手法では、画像内の画素データが、マッチング可能な領域の画素データおよびオクリュージョン領域の画素の何れであるかを、マッチング処理において推定していることから、誤った推定が行われ、その結果を基に誤った視差データが生成される可能性が高い。
本発明は上述した従来技術の問題点を解決するために、複数の画像データ間の視差データを高精度に生成できる画像処理方法、画像処理装置、プログラムおよび記録媒体を提供することを目的とする。
上述した従来技術の問題点を解決し、上述した目的を達成するため、第1の観点の発明の画像処理方法は、複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第1の工程と、前記第1の工程で選択した前記確率密度関数に応じて規定される前記複数の画像データ間の対応関係を表すエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第2の工程と、前記第2の工程で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第3の工程と、前記第3の工程で更新された前記視差データと、オクリュージョン領域に基づき確率密度関数を更新する第4の工程とを有する。
第2の観点の発明の画像処理方法は、複数のカメラの撮像結果をそれぞれ示す複数の画像データを生成する第1の工程と、前記第1の工程で生成した前記複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第2の工程と、前記第2の工程で選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第3の工程と、前記第3の工程で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第4の工程と、前記第4の工程で更新された前記視差データと、オクリュージョン領域に基づいて確率密度関数を更新する第5の工程と、前記第1の工程で生成した前記複数の画像データと、前記第5の工程で更新した前記確立密度関数を基に、前記複数の画像データを合成した合成画像データを生成する第6の工程とを有する。
第3の観点の発明の画像処理装置は、複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する確率密度関数選択手段と、前記確率密度関数選択手段が選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する対応関係特定手段と、前記対応関係特定手段で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する視差更新手段と、前記視差更新手段で更新された前記視差データと、オクリュージョン領域に基づき確率密度関数を更新するを確率密度更新手段とを有する。
第4の観点の発明のプログラムは、コンピュータが実行するプログラムであって、複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第1の手順と、前記第1の手順で選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第2の手順と、前記第2の手順で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第3の手順と、前記第3の手順で更新された前記視差データと、オクリュージョン領域とに基づき確率密度を更新する第4の手順とを前記コンピュータに実行させる。
第5の観点の発明の記録媒体は、コンピュータが実行するプログラムを記録する記録媒体であって、複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第1の手順と、前記第1の手順で選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第2の手順と、前記第2の手順で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第3の手順と、前記第3の手順で更新された前記視差データと、オクリュージョン領域とに基づき確率密度関数を更新する第4の手順とを前記コンピュータに実行させる。
本発明によれば、複数の画像データ間の視差データを高精度に生成できる画像処理方法、画像処理装置、プログラムおよび記録媒体を提供することができる。
以下、本発明の実施形態に係わる画像処理装置について説明する。
<第1実施形態>
図5に示すステップST2,ST11が第1の発明の第1の工程、第2の発明の第2の工程の一例である。
図5に示すステップST6,ST7が、第1の発明の第2の工程、第2の発明の第3の工程の一例である。
図5に示すステップST8が、第1の発明の第3の工程、第2の発明の第4の工程の一例である。
図5に示すステップST10が、第1の発明の第4の工程、第2の発明の第5の工程の一例である。
また、本実施形態のエネルギーE(f)が、本発明のエネルギーの一例である。
また、本実施形態の確率密度関数PDが、本発明の確率密度関数の一例である。
また、本実施形態の視差データDMが、本発明の視差データの一例である。
また、画像処理回路12が図5に示すステップST2,ST11を実行することで、第3の発明の確率密度関数選択手段の一例が実現される。
また、画像処理回路12が図5に示すステップST6,ST7を実行することで、第3の発明の対応関係特定手段の一例が実現される。
また、画像処理回路12が図5に示すステップST8を実行することで、第3の発明の視差更新手段の一例が実現される。
また、画像処理回路12が図5に示すステップST10を実行することで、第3の発明の確率密度関数更新手段の一例が実現される。
また、図12に示すプログラムPRGが、本発明のプログラムの一例である。
<第1実施形態>
図5に示すステップST2,ST11が第1の発明の第1の工程、第2の発明の第2の工程の一例である。
図5に示すステップST6,ST7が、第1の発明の第2の工程、第2の発明の第3の工程の一例である。
図5に示すステップST8が、第1の発明の第3の工程、第2の発明の第4の工程の一例である。
図5に示すステップST10が、第1の発明の第4の工程、第2の発明の第5の工程の一例である。
また、本実施形態のエネルギーE(f)が、本発明のエネルギーの一例である。
また、本実施形態の確率密度関数PDが、本発明の確率密度関数の一例である。
また、本実施形態の視差データDMが、本発明の視差データの一例である。
また、画像処理回路12が図5に示すステップST2,ST11を実行することで、第3の発明の確率密度関数選択手段の一例が実現される。
また、画像処理回路12が図5に示すステップST6,ST7を実行することで、第3の発明の対応関係特定手段の一例が実現される。
また、画像処理回路12が図5に示すステップST8を実行することで、第3の発明の視差更新手段の一例が実現される。
また、画像処理回路12が図5に示すステップST10を実行することで、第3の発明の確率密度関数更新手段の一例が実現される。
また、図12に示すプログラムPRGが、本発明のプログラムの一例である。
図1は、本発明の実施形態に係わる画像処理装置1の構成図である。
図1に示すように、画像処理装置1は、例えば、カメラ10R、カメラ10L、並びに画像処理回路12を有する。
カメラ10Rは、対象物TARGETを撮像し、その撮像画像データS10Rを画像処理回路12に出力する。
カメラ10Lは、カメラ10Rと所定の距離を隔てて配設されている。
カメラ10Lは、カメラ10Rと同様に、対象物TARGETを撮像し、その撮像データS10Lを画像処理回路12に出力する。
図1に示すように、画像処理装置1は、例えば、カメラ10R、カメラ10L、並びに画像処理回路12を有する。
カメラ10Rは、対象物TARGETを撮像し、その撮像画像データS10Rを画像処理回路12に出力する。
カメラ10Lは、カメラ10Rと所定の距離を隔てて配設されている。
カメラ10Lは、カメラ10Rと同様に、対象物TARGETを撮像し、その撮像データS10Lを画像処理回路12に出力する。
以下、画像処理回路12について詳細に説明する。
画像処理回路12は、カメラ10R、10Lから入力した撮像画像データS10R,10Lの間の視差データDMを生成する。
すなわち、画像処理回路12は、撮像画像データS10R,10Lを構成する画素データの各々について、他方の撮像画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、上記他方の撮像画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数PDを順に選択する。
確率密度関数は、実値関数において、任意のある集合上でその関数を積分したとき、その確率変数が集合内に含まれる確率を与える関数である。
そして、画像処理回路12は、上記選択した確率密度関数(Probability Densities)PDに応じて規定される撮像画像データS10R,S10L間のエネルギーE(f)を最小にする、撮像画像データ間の画素データ単位の対応関係fを特定する。
そして、画像処理回路12は、上記特定した対応関係fを基に、撮像画像データS10R、S10L間の視差を示す視差データDMを更新する。
画像処理回路12は、上記複数の確率密度関数PDのうち、上記ネルギE(f)を最小にする確率密度関数PDと、当該確率密度関数PDに対応して更新された視差データDMとを特定する。
そして、画像処理回路12は、上記特定した視差データDMを基に、カメラ10R,10Lの視点位置以外の指定位置の擬似的な撮像画像データを生成する。
画像処理回路12は、カメラ10R、10Lから入力した撮像画像データS10R,10Lの間の視差データDMを生成する。
すなわち、画像処理回路12は、撮像画像データS10R,10Lを構成する画素データの各々について、他方の撮像画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、上記他方の撮像画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数PDを順に選択する。
確率密度関数は、実値関数において、任意のある集合上でその関数を積分したとき、その確率変数が集合内に含まれる確率を与える関数である。
そして、画像処理回路12は、上記選択した確率密度関数(Probability Densities)PDに応じて規定される撮像画像データS10R,S10L間のエネルギーE(f)を最小にする、撮像画像データ間の画素データ単位の対応関係fを特定する。
そして、画像処理回路12は、上記特定した対応関係fを基に、撮像画像データS10R、S10L間の視差を示す視差データDMを更新する。
画像処理回路12は、上記複数の確率密度関数PDのうち、上記ネルギE(f)を最小にする確率密度関数PDと、当該確率密度関数PDに対応して更新された視差データDMとを特定する。
そして、画像処理回路12は、上記特定した視差データDMを基に、カメラ10R,10Lの視点位置以外の指定位置の擬似的な撮像画像データを生成する。
本実施形態において、Rは撮像画像データS10R(右画像)を示し、Lは撮像画像データS10L(左画像)を示す。
また、IL()とIR()は左と右画像の中での画素の輝度を戻す関数である。
また、RMLとRMRは左と右画像のmatched領域を示す。ROLとRORは左と右画像のオクリュージョン領域を示す。
また、RML, RMR, ROL, RORとステレオビジョンの関係は以下の図2で示される。
また、IL()とIR()は左と右画像の中での画素の輝度を戻す関数である。
また、RMLとRMRは左と右画像のmatched領域を示す。ROLとRORは左と右画像のオクリュージョン領域を示す。
また、RML, RMR, ROL, RORとステレオビジョンの関係は以下の図2で示される。
画像処理回路12は、下記式(1)を基にエネルギーE(f)を算出する。
上記式(1)において、「f」は、撮像画像データS10R、S10L間での画素データの領域区別及び対応関係を示している。
また、エネルギーEdata(f)は、下記式(2)で規定され、マッチング可能な領域の画素データペアの間での画素値の相違のコストの総和を示している。下記式(2)において、mfはfの中で左と右画像のマッチペアを示す。DCM[]は前の(前回計算した)対応関係(configuration)fによって計算したマッチコスト関数である。
また、エネルギーEdata(f)は、下記式(2)で規定され、マッチング可能な領域の画素データペアの間での画素値の相違のコストの総和を示している。下記式(2)において、mfはfの中で左と右画像のマッチペアを示す。DCM[]は前の(前回計算した)対応関係(configuration)fによって計算したマッチコスト関数である。
また、エネルギーEoccl(f)は、下記式(3)で規定され、画素をオクリュージョンとしたことに対するペナルティの総和を示している。olfとorfはfの中で、左と右のオクリュージョン画素を示す。OPL()とOPR()は前の対応関係fによって計算した左と右のオクリュージョンのペナルティ関数である。
また、エネルギーEsmooth(f)は、下記式(4)で規定され、カレントの対応関係fにおいて、同じ画像内の隣接する画素が同様の視差値を持つようにするためのスムースネス・コストである。Nは二つのペアm’fとm”fは隣接かどうかを判断する関係である。Vm’f,Vm”fはペアのsmoothnessペナルティ関数である。f(m)はペアmfの視差を戻す。T[]は中の条件が本当の場合で1を戻す。他は0を戻す。
本実施形態では、上記式(2)のエネルギーDMC(i1,i2)は、下記式(5)で規定される。下記式(5)において、|Mf0|は、対応関係fによって計算したマッチペアの個数である。Sはステレオビジョンの条件である。 PML,MR,f0(i1,i2|S)は、ステレオビジョンの条件Sにおける、前の対応関係f0によって計算したML, MRの同時確率分布を示す。gψ,2(i1,i2)はParzen estimation(ノンパラメトリックな確率密度関数推定)の二次元core関数を示す。たとえば、ガウス分布である。円で囲まれた×はconvolutionである。
また、上記式(3)のエネルギーEoccl(f)は、下記式(6)で規定される。|Of0|は前の対応関係f0によって計算したオクリュージョンの個数である。Uniqueness constraintなので、左と右画像のオクリュージョンの個数は同じである。POL,f0(i|S)とPOR,f0(i|S)は、ステレオビジョンの条件Sにおける、前の対応関係f0によって計算したOL及びORの確率分布を示す。gψ,1(i)はParzen estimationの一次元core関数を示す。たとえば、ガウス分布である。
ここで、実際の画素値は、離散的な値であり、上記式(5)および式(6)は、画素値が取りえる値の総和に変形できる。本実施形態では、画素値が取りえる値は、256通りである。
離散システムでは、異なる評価についてのコア関数の総和は、コア関数と、単数インパルスの総和との間のコンボリューションとして記載できる。
これにより、上記式(5),(6)のそれぞれに対応して下記式(7),(8)を規定できる。
離散システムでは、異なる評価についてのコア関数の総和は、コア関数と、単数インパルスの総和との間のコンボリューションとして記載できる。
これにより、上記式(5),(6)のそれぞれに対応して下記式(7),(8)を規定できる。
下記式(7)は、対応関係fを規定し、PML,MR,f(i1,i2|S) の計算を行う式であり、fはf0であれば、PML,MR,f0(i1,i2|S)を計算できる。gψ,2(i1,i2)は(Parzen estimationの一次元core関数)である。たとえば、二次元のガウス分布である。
また、式(8)は、対応関係fを規定し、POL,f(i|S)とPOR,f(i|S)の計算を行う式であり、fはf0であれば、POL,f0(i|S)とPOR,f0(i|S)を計算できる。
また、式(8)は、対応関係fを規定し、POL,f(i|S)とPOR,f(i|S)の計算を行う式であり、fはf0であれば、POL,f0(i|S)とPOR,f0(i|S)を計算できる。
画像処理回路12は、上記(5)〜(8)を基に、エネルギーEdata(f)およびエネルギーEsmooth(f)を算出する。
以下、本実施形態において、上記式(5)、(6)を用いた理由を説明する。
本実施形態において、変数ML,MRは、撮像画像データS10RとS10Lとの間のマッチング可能な領域の画素データの画素値(強度)を生成する変数とする。
また、変数OL,ORは、撮像画像データS10L,S10Rのオクリュージョン領域の画素データの画素値を生成する変数とする。
本実施形態において、変数ML,MRは、撮像画像データS10RとS10Lとの間のマッチング可能な領域の画素データの画素値(強度)を生成する変数とする。
また、変数OL,ORは、撮像画像データS10L,S10Rのオクリュージョン領域の画素データの画素値を生成する変数とする。
本実施形態では、下記式(9),(10)に示すように、撮像画像データS10R,S10L(ステレオ画像)の確率密度関数PDは、マッチング可能な領域の画素データとオクリュージョン領域の画素データとの間で独立であり、且つ、撮像画像データS10Rのオクリュージョン領域の画素データと撮像画像データS10Lのオクリュージョン領域の画素データとの間でも独立であるという前提を用いる。
下記式(9)において左辺はステレオビジョンの条件Sにおける、fによって計算したML, OL, MR, ORの同時確率分布を示す。右辺のPML,MR,f(i1,i2|S)はML, MRの同時確率分布を示す。POL,OR,f(i3,i4|S)はOL, ORの同時確率分布を示す。
また、下記式(10)において、POL,f(i3|S)とPOR,f(i4|S)は、ステレオビジョンの条件Sにおける、fによって計算したOLとORの確率分布を示す。
ところで、MI(Mutual Information)は、下記式(11)で定義される。
式(11)において左辺はステレオビジョンの条件Sにおける、fによって計算したML, OLとMR, ORの相互情報量を示す。Hf(ML,OL|S)は、ステレオビジョンの条件Sにおける、fによって計算したMLとOLのエントロピーを示す。Hf(MR,OR|S)は、ステレオビジョンの条件Sにおける、fによって計算したMRとORのエントロピーを示す。Hf(ML,OL,MR,OR|S)は、ステレオビジョンの条件Sにおける、fによって計算したMR, ML, OL, ORのエントロピーを示す。
式(11)において左辺はステレオビジョンの条件Sにおける、fによって計算したML, OLとMR, ORの相互情報量を示す。Hf(ML,OL|S)は、ステレオビジョンの条件Sにおける、fによって計算したMLとOLのエントロピーを示す。Hf(MR,OR|S)は、ステレオビジョンの条件Sにおける、fによって計算したMRとORのエントロピーを示す。Hf(ML,OL,MR,OR|S)は、ステレオビジョンの条件Sにおける、fによって計算したMR, ML, OL, ORのエントロピーを示す。
ここで、MIを最大化するような、視差データDMおよび確率密度関数PDを求めることが目的となる。
上記式(11)において、エントロピHf(ML,OL|S)とHf(MR,OR|S)とはステレオ・マッチングにおいて一定であるため、MIの最大化は、エントロピーHf(ML,OL,MR,OR|S)の最小化と等価である。
ここで、Hf(ML,OL,MR,OR|S)は、下記式(12)で規定される。
上記式(11)において、エントロピHf(ML,OL|S)とHf(MR,OR|S)とはステレオ・マッチングにおいて一定であるため、MIの最大化は、エントロピーHf(ML,OL,MR,OR|S)の最小化と等価である。
ここで、Hf(ML,OL,MR,OR|S)は、下記式(12)で規定される。
上記前提により、上記式(12)に示すHf(ML,OL,MR,OR|S)は、さらに下記(13)に示すように変形できる。
下記式(13)においては、Hf(ML,MR|S)ステレオビジョンの条件Sにおける、fによって計算したMLとMRのエントロピーを示す。Hf(OL|S)は、ステレオビジョンの条件Sにおける、fによって計算したOLのエントロピーを示す。Hf(OR|S)は、ステレオビジョンの条件Sにおける、fによって計算したORのエントロピーを示す。
画像処理回路12は、グラフカット法により、上記式(13)で示されるHf(ML,OL,MR,OR|S)を最小化する。
グラフカットにより、エネルギー関数を最適化できる。ここで、最適化したいMIは、評価される確率密度関数PDの積分である。
本実施形態では、上記非特許文献4の手法を基に、グラフカット法でHf(ML,OL,MR,OR|S)を最小化する視差データDMおよび確率密度関数PDを特定する。
本実施形態では、上記非特許文献4の手法を基に、グラフカット法でHf(ML,OL,MR,OR|S)を最小化する視差データDMおよび確率密度関数PDを特定する。
ところで、F(x)=xlogxに、下記式(14)に示すように、テイラー展開を施す。
上記式(13)の各項に、上記式(14)のテイラー展開を施すと、下記式(15),(16)のようになる。
ここで、f0は、前回の対応関係を示し、fは、最適化処理後の対応関係を示す。
本実施形態では、対応関係がf0からfに変化した場合でも、確率密度関数PDの評価は大きく変換しないことを前提とする。
そのため、下記式(17)〜(20)は1、すなわち一定であるので、上記式(15),(16)から省く。
本実施形態では、対応関係がf0からfに変化した場合でも、確率密度関数PDの評価は大きく変換しないことを前提とする。
そのため、下記式(17)〜(20)は1、すなわち一定であるので、上記式(15),(16)から省く。
これにより、上記式(15),(16)は、下記式(21),(22)のように変形できる。
上記式(21),(22)において、「1/|M|」および「1/|Ok|」は、推定のための整形化係数である。前述した式(1)を考えると、上記式(21)から前述した式(5)が導きだされ、上記式(22)から前述した式(6)が導きだされる。
撮像画像データS10Rの画素データ(p,q,r,s)と、撮像画像データS10Lの画素データ(w,z,y,z)との間に図3に示す対応関係がある場合、画像処理回路12は、例えば、図4に示すグラフを構築する。
ここで、図3において、点線は(現状の対応関係)を示し、実線は(α-Expansionのできる対応関係)を示す。
図4において、Doccl(mf)、Dsmooth(mf)は、それぞれマッチペアmfに関するエネルギEoccl(mf)、Esmooth(mf)を示している。
ここで、図3において、点線は(現状の対応関係)を示し、実線は(α-Expansionのできる対応関係)を示す。
図4において、Doccl(mf)、Dsmooth(mf)は、それぞれマッチペアmfに関するエネルギEoccl(mf)、Esmooth(mf)を示している。
以下、図1に示す画像処理装置1において、画像処理回路12が、カメラ10R、10Lから入力した撮像画像データS10R,10Lを基に、それらの間の視差データDMを生成する処理を説明する。
図5は、図1に示す画像処理回路12の処理を説明するためのフローチャートである。
ステップST1:
画像処理回路12は、視差データDMを初期化する。
ステップST2:
画像処理回路12は、確率密度関数PDを初期化する。
図5は、図1に示す画像処理回路12の処理を説明するためのフローチャートである。
ステップST1:
画像処理回路12は、視差データDMを初期化する。
ステップST2:
画像処理回路12は、確率密度関数PDを初期化する。
ステップST3:
画像処理回路12は、エネルギーE(f)を無限大に初期設定する。
ステップST4:
画像処理回路12は、上記式(5)〜(8)に基づいて、エネルギーEdata(f),Eoccl(f)を算出する。
ここで、エネルギーEdata(f),Eoccl(f)は、視差データDMおよび確率密度関数PDに応じて決まる。画像処理回路12は、例えば、エネルギーEdata(f)として上記式(5)のDMC(i1,i2|S)を用い、エネルギーEoccl(f)として上記式(6)のOPL(i)、OPR(i)を用いる。
画像処理回路12は、エネルギーE(f)を無限大に初期設定する。
ステップST4:
画像処理回路12は、上記式(5)〜(8)に基づいて、エネルギーEdata(f),Eoccl(f)を算出する。
ここで、エネルギーEdata(f),Eoccl(f)は、視差データDMおよび確率密度関数PDに応じて決まる。画像処理回路12は、例えば、エネルギーEdata(f)として上記式(5)のDMC(i1,i2|S)を用い、エネルギーEoccl(f)として上記式(6)のOPL(i)、OPR(i)を用いる。
具体的には、画像処理回路12は、確率密度関数PDと、カメラ10Lの撮像データS10Lと、カメラ10Rの撮像データS10Rとを基に、マッチング可能な領域の画素のヒストグラムデータMHIS、左オクリュージョン領域の画素のヒストグラムデータLOHIS、右オクリュージョン領域の画素のヒストグラムデータROHISとを生成する。
画像処理回路12は、上記3つのヒストグラムデータMHIS,LOHIS,ROHISに、コア関数をコンボリュートする。
そして、画像処理回路12は、上記コンボリュートの結果を、関数F(x)=−log(x)でそれぞれマッピングする。
画像処理回路12は、それぞれの結果に、コア関数を再びコンボリュートする。
これにより、画像処理回路12は、マッチング可能な領域の画素について、256x256の2Dのデータコストマトリックスを得て、これをエネルギーEdata(f)とする。
また、左右のオクリュージョン画素のそれぞれについて、256の1Dのオクリュージョンペナルティマトリックスを得て、これをエネルギーEoccl(f)とする。
そのため、画像処理回路12は、後に行うマッチングプロセスを、上記マトリックスを用いたテーブルサーチ処理によって高速に実現できる。
画像処理回路12は、確率密度関数PDの更新を、全てのα-expansionsが完了する度に行う。
画像処理回路12は、上記3つのヒストグラムデータMHIS,LOHIS,ROHISに、コア関数をコンボリュートする。
そして、画像処理回路12は、上記コンボリュートの結果を、関数F(x)=−log(x)でそれぞれマッピングする。
画像処理回路12は、それぞれの結果に、コア関数を再びコンボリュートする。
これにより、画像処理回路12は、マッチング可能な領域の画素について、256x256の2Dのデータコストマトリックスを得て、これをエネルギーEdata(f)とする。
また、左右のオクリュージョン画素のそれぞれについて、256の1Dのオクリュージョンペナルティマトリックスを得て、これをエネルギーEoccl(f)とする。
そのため、画像処理回路12は、後に行うマッチングプロセスを、上記マトリックスを用いたテーブルサーチ処理によって高速に実現できる。
画像処理回路12は、確率密度関数PDの更新を、全てのα-expansionsが完了する度に行う。
ステップST5:
画像処理回路12は、エネルギーEsmooth(f)を算出する。
画像処理回路12は、2つの隣接する画素ペアのスムースネスコストを下記式(23)に示すように計算して、自動パラメータを決定する。
画像処理回路12は、エネルギーEsmooth(f)を算出する。
画像処理回路12は、2つの隣接する画素ペアのスムースネスコストを下記式(23)に示すように計算して、自動パラメータを決定する。
画像処理回路12は、カメラ10Lの撮像データS10Lと、カメラ10Rの撮像データS10Rとを基に、自動パラメータ検出、λ検出を行う。
このような情報は、マッチング可能な領域の画素のデータコスト内に存在する。
従って、画像処理回路12は、256x256の全ての可能性があるデータコストについて、ソートを実行する。
そして、画像処理回路12は、上記ソートの結果で、所定の順位に配置されたコストを選択する。
そして、画像処理回路12は、1以下の係数と、上記コスト値とを乗じてλを算出する。
そして、画像処理回路12は、上記式(23)のVm1,m2と、上記式(4)とを基に、エネルギーEsmooth(f)を算出する。
このような情報は、マッチング可能な領域の画素のデータコスト内に存在する。
従って、画像処理回路12は、256x256の全ての可能性があるデータコストについて、ソートを実行する。
そして、画像処理回路12は、上記ソートの結果で、所定の順位に配置されたコストを選択する。
そして、画像処理回路12は、1以下の係数と、上記コスト値とを乗じてλを算出する。
そして、画像処理回路12は、上記式(23)のVm1,m2と、上記式(4)とを基に、エネルギーEsmooth(f)を算出する。
ステップST6:
画像処理回路12は、複数の視差値から、未処理の対応関係fを選択する。
画像処理回路12は、選択した対応関係fについて、上記ステップST4,ST5で生成したエネルギーEdata(f),Eoccl(f),Esmooth(f)と、上記式(1)とを基に、エネルギーE(f)を算出する。
ここで、対応関係fの選択は、視差の選択と同等である。
画像処理回路12は、上記対応関係fの選択において、予め決められた最大視差に対応した数のラベルと、オクリュージョンのためのラベルとを加えたD+1のラベルを対象として選択を行う。
画像処理回路12は、複数の視差値から、未処理の対応関係fを選択する。
画像処理回路12は、選択した対応関係fについて、上記ステップST4,ST5で生成したエネルギーEdata(f),Eoccl(f),Esmooth(f)と、上記式(1)とを基に、エネルギーE(f)を算出する。
ここで、対応関係fの選択は、視差の選択と同等である。
画像処理回路12は、上記対応関係fの選択において、予め決められた最大視差に対応した数のラベルと、オクリュージョンのためのラベルとを加えたD+1のラベルを対象として選択を行う。
ステップST7:
画像処理回路12は、ステップST6で今回算出したエネルギーE(f)が、これまで算出した最小のエネルギーE(f)より、小さいか否かを判断し、小さいと判断すると、ステップST8に進み、そうでない場合はステップST9に進む。
ステップST8:
画像処理回路12は、最後にステップST6で選択した対応関係fに応じて視差データDMとオクリュージョン領域とを更新する。
ステップST9:
画像処理回路12は、処理対象の確率密度関数PDについて、予め規定した全ての対応関係fについて、ステップST6〜ST8の処理を行ったか否かを判断し、行ったと判断するとステップST10に進み、そうでない場合にはステップST6に戻る。
画像処理回路12は、ステップST6で今回算出したエネルギーE(f)が、これまで算出した最小のエネルギーE(f)より、小さいか否かを判断し、小さいと判断すると、ステップST8に進み、そうでない場合はステップST9に進む。
ステップST8:
画像処理回路12は、最後にステップST6で選択した対応関係fに応じて視差データDMとオクリュージョン領域とを更新する。
ステップST9:
画像処理回路12は、処理対象の確率密度関数PDについて、予め規定した全ての対応関係fについて、ステップST6〜ST8の処理を行ったか否かを判断し、行ったと判断するとステップST10に進み、そうでない場合にはステップST6に戻る。
ステップST10:
画像処理回路12は、エネルギーE(f)を低減させる可能性のある全ての確率密度関数PDを用いた処理を終了したか、あるいは、所定回数の処理を終了したかを判断し、終了したと判断すると処理を終了し、そうでない場合にはステップST11に進む。
画像処理回路12は、エネルギーE(f)を低減させる可能性のある全ての確率密度関数PDを用いた処理を終了したか、あるいは、所定回数の処理を終了したかを判断し、終了したと判断すると処理を終了し、そうでない場合にはステップST11に進む。
ステップST11:
画像処理回路12は、予め規定した複数の確率密度関数PDのなから、未処理の確率密度関数PDを処理対象として選択(更新)する。
画像処理回路12は、予め規定した複数の確率密度関数PDのなから、未処理の確率密度関数PDを処理対象として選択(更新)する。
画像処理回路12は、上述した処理を行い、ステップST10で処理を終了したと判断した段階で選択している確率密度関数PDと、視差データDMとオクリュージョン領域を特定する。
画像処理装置1によれば、上述したように、式(5)で規定するエネルギーE(f)を最小にする確率密度関数PDを選択(探索)することで、2つの画像の輝度が同じであることを前提としたり、マッチング可能な領域の画素データおよびオクリュージョン領域の画素の何れであるかをマッチング処理において推定する従来の手法に比べて、撮像画像データS10LとS10Rとの画素単位の対応関係を高精度に検出できる。
これにより、画像処理装置1によれば、高精度な視差データDMを生成でき、撮像画像データS10LとS10Rとを組み合わせた合成画像(カメラ10Lと10Rとの中間から対象物TRGETを見た画像)を高精度に生成できる。
また、画像処理装置1では、上記式(9),(10)に示すように、撮像画像データS10R,S10L(ステレオ画像)の確率密度関数PDは、マッチング可能な領域の画素データとオクリュージョン領域の画素データとの間で独立であり、且つ、撮像画像データS10Rのオクリュージョン領域の画素データと撮像画像データS10Lのオクリュージョン領域の画素データとの間でも独立であるという前提を用いる。
これにより、画像処理装置1によれば、式(11)に示すMIを最大化するように、確率密度関数PDおよび視差データDMを高精度に生成できる。
これにより、画像処理装置1によれば、高精度な視差データDMを生成でき、撮像画像データS10LとS10Rとを組み合わせた合成画像(カメラ10Lと10Rとの中間から対象物TRGETを見た画像)を高精度に生成できる。
また、画像処理装置1では、上記式(9),(10)に示すように、撮像画像データS10R,S10L(ステレオ画像)の確率密度関数PDは、マッチング可能な領域の画素データとオクリュージョン領域の画素データとの間で独立であり、且つ、撮像画像データS10Rのオクリュージョン領域の画素データと撮像画像データS10Lのオクリュージョン領域の画素データとの間でも独立であるという前提を用いる。
これにより、画像処理装置1によれば、式(11)に示すMIを最大化するように、確率密度関数PDおよび視差データDMを高精度に生成できる。
図5に示すステップST4のDMC、OPL(i)、OPR(i)の生成、並びにステップST8の視差データDMの更新は、例えば、図6に示すようになる。
また、画像処理装置1によって得られる視差データDMは、例えば、図7に示す右下(Disparity of ours)のようになり、その左の従来の(Disparity of [2]),(Disparity of [4])に比べて高品質である。
また、画像処理装置1によって得られる視差データDMは、例えば、図7に示す右下(Disparity of ours)のようになり、その左の従来の(Disparity of [2]),(Disparity of [4])に比べて高品質である。
以下、本実施形態の画像処理装置1による手法の評価を説明する。
ステレオ・マッチングの標準テストに関して、画像処理装置1の手法は、非特許文献4の手法(オクリュージョンを考慮しない手法)と比べて、図8(A)に示すようになる。
また、画像処理装置1の手法は、非特許文献2の手法(MIを用いない手法)と比べて、図8(B)に示すようになる。図8(B)で、非特許文献2の手法では、R,G,B情報を用いているが、画像処理装置1の手法では輝度情報しか用いていない。これにも係わらず、画像処理装置1の手法は、非特許文献2の手法と近似している。グレーのマップデータについてみれば、画像処理装置1の手法は非特許文献2よりも優れている。
ステレオ・マッチングの標準テストに関して、画像処理装置1の手法は、非特許文献4の手法(オクリュージョンを考慮しない手法)と比べて、図8(A)に示すようになる。
また、画像処理装置1の手法は、非特許文献2の手法(MIを用いない手法)と比べて、図8(B)に示すようになる。図8(B)で、非特許文献2の手法では、R,G,B情報を用いているが、画像処理装置1の手法では輝度情報しか用いていない。これにも係わらず、画像処理装置1の手法は、非特許文献2の手法と近似している。グレーのマップデータについてみれば、画像処理装置1の手法は非特許文献2よりも優れている。
ロバストネスの評価を「Tsukuba」を比較例として選択して行う。撮像画像データS10Lを固定にして、撮像画像データS10Rを変換した場合の、その変換とそれらのエラーレートを図9に示す。
リサイズ変換は、低解像度カメラをシミュレートする。最初に、画像を1/4のサイズに変換し、それを元のサイズに戻す。ガウシャン・ノイズの付加変換、リサイジングにおいて、MIを用いない方が用いる場合に比べて結果がよい。
これは、画像処理装置1の手法(MIを用いる手法)は、1対1のマッピングにおいてMIの一定によってロバストネスが得られるためである。また、一方、今回のMIを用いない手法では、RGB情報を採用しているためである。すなわち、カラー情報は、ノイズ効果を低減する役割を有している。
リサイズ変換は、低解像度カメラをシミュレートする。最初に、画像を1/4のサイズに変換し、それを元のサイズに戻す。ガウシャン・ノイズの付加変換、リサイジングにおいて、MIを用いない方が用いる場合に比べて結果がよい。
これは、画像処理装置1の手法(MIを用いる手法)は、1対1のマッピングにおいてMIの一定によってロバストネスが得られるためである。また、一方、今回のMIを用いない手法では、RGB情報を採用しているためである。すなわち、カラー情報は、ノイズ効果を低減する役割を有している。
<第2実施形態>
本実施形態は、画像処理回路12aの処理のうち以下に示す処理が第1実施形態の画像処理回路12とは異なり、それ以外は第1実施形態と同じである。
本実施形態では、図5に示すステップST4においてエネルギEdata(f)を計算する手法が第1実施形態で説明したものと異なる。
図10は、図5に示すステップST4においてエネルギEdata(f)を計算する手順を説明するためのフローチャートである。
ステップST21:
画像処理回路12aは、図11(A)に示すように、マッチペアmfの撮像データS10R(右画像)の画素データの周囲の所定範囲ARの画素データを補間処理により生成する。すなわち、少数画素精度の画素データを生成する。補間処理は線形補間や、splineなどが用いられる。所定範囲ARは、mfに対応する点が(x,y)の場合に、[x-1/2, x+1/2]と[y-1/2, y+1/2]との範囲によって規定される四角形範囲である。
また、画像処理回路12aは、図11(B)に示すように、マッチペアmfの撮像データS10L(左画像)の画素データの周囲の所定範囲ALの画素データを補間処理により生成する。所定範囲ALは、例えば、所定範囲ARと同じサイズである。
本実施形態は、画像処理回路12aの処理のうち以下に示す処理が第1実施形態の画像処理回路12とは異なり、それ以外は第1実施形態と同じである。
本実施形態では、図5に示すステップST4においてエネルギEdata(f)を計算する手法が第1実施形態で説明したものと異なる。
図10は、図5に示すステップST4においてエネルギEdata(f)を計算する手順を説明するためのフローチャートである。
ステップST21:
画像処理回路12aは、図11(A)に示すように、マッチペアmfの撮像データS10R(右画像)の画素データの周囲の所定範囲ARの画素データを補間処理により生成する。すなわち、少数画素精度の画素データを生成する。補間処理は線形補間や、splineなどが用いられる。所定範囲ARは、mfに対応する点が(x,y)の場合に、[x-1/2, x+1/2]と[y-1/2, y+1/2]との範囲によって規定される四角形範囲である。
また、画像処理回路12aは、図11(B)に示すように、マッチペアmfの撮像データS10L(左画像)の画素データの周囲の所定範囲ALの画素データを補間処理により生成する。所定範囲ALは、例えば、所定範囲ARと同じサイズである。
ステップST22:
画像処理回路12aは、図12に示すように、ステップST21で生成した撮像データS10Rの所定範囲AR内の画素データ最小値GR−(mf)と最大値GR+(mf)を特定する。
また、画像処理回路12aは、ステップST21で生成した撮像データS10Lの所定範囲AR内の画素データ最小値GL−(mf)と最大値GL+(mf)を特定する。
画像処理回路12aは、図12に示すように、ステップST21で生成した撮像データS10Rの所定範囲AR内の画素データ最小値GR−(mf)と最大値GR+(mf)を特定する。
また、画像処理回路12aは、ステップST21で生成した撮像データS10Lの所定範囲AR内の画素データ最小値GL−(mf)と最大値GL+(mf)を特定する。
ステップST23:
画像処理回路12aは、下記式(24)により、SIL−>R[DCM(i1,i2),mf]を生成する。
すなわち、画像処理回路12aは、図11(A)に示す撮像データS10Lの画素データIL(mf)と、撮像データS10Rの所定範囲AR内の最小値GR−(mf)〜最大値GR+(mf)の画素データとの間のDCM(上記式(5)で定義)を計算し、その最小値をSIL−>R[DCM(i1,i2),mf]とする。
画像処理回路12aは、下記式(24)により、SIL−>R[DCM(i1,i2),mf]を生成する。
すなわち、画像処理回路12aは、図11(A)に示す撮像データS10Lの画素データIL(mf)と、撮像データS10Rの所定範囲AR内の最小値GR−(mf)〜最大値GR+(mf)の画素データとの間のDCM(上記式(5)で定義)を計算し、その最小値をSIL−>R[DCM(i1,i2),mf]とする。
画像処理回路12aは、下記式(25)により、SIR−>L[DCM(i1,i2),mf]を生成する。
すなわち、画像処理回路12aは、図11(B)に示す撮像データS10Rの画素データIR(mf)と、撮像データS10Lの所定範囲AL内の最小値GL−(mf)〜最大値GL+(mf)の画素データとの間のDCM(上記式(5)で定義)を計算し、その最小値をSIR−>L[DCM(i1,i2),mf]とする。
すなわち、画像処理回路12aは、図11(B)に示す撮像データS10Rの画素データIR(mf)と、撮像データS10Lの所定範囲AL内の最小値GL−(mf)〜最大値GL+(mf)の画素データとの間のDCM(上記式(5)で定義)を計算し、その最小値をSIR−>L[DCM(i1,i2),mf]とする。
なお、本実施形態において、コスト関数の具体的な形式に制限はなく、DCMとして、MI(Mutual Information)のようなテーブル検索のコストを用いてもよい。
ステップST24:
画像処理回路12aは、下記式(26)に示すように、ステップST23で生成したSIL−>R[DCM(i1,i2),mf]と、SIR−>L[DCM(i1,i2),mf]とのうち小さい方を選択してSI[DCM(i1,i2),mf]に設定する。
画像処理回路12aは、下記式(26)に示すように、ステップST23で生成したSIL−>R[DCM(i1,i2),mf]と、SIR−>L[DCM(i1,i2),mf]とのうち小さい方を選択してSI[DCM(i1,i2),mf]に設定する。
そして、画像処理回路12aは、下記式(27)に示すように、対応関係fで規定される全てのマッチペアmfについて上記式(26)で規定されるSI[DCM(i1,i2),mf]を累積してエネルギEdata(f)を計算する。
本実施形態によれば、図10に示す手法でエネルギEdata(f)を算出することで、従来のSI(Sampling Insensitive)測度のように単調のクローズ・フォームのコスト関数しか扱えないという制約を無くし、使用できるコスト関数を多様化できる。
なお、本実施形態において、図10に示す処理をコンピュータがプログラムを実行して実現してもよいし、各ステップの処理を行う専用のハードウェアを用いて実行してもよい。
なお、本実施形態において、図10に示す処理をコンピュータがプログラムを実行して実現してもよいし、各ステップの処理を行う専用のハードウェアを用いて実行してもよい。
本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
例えば、画像処理回路12は、図5あるいは図10に示す全てあるいは一部のステップをそれを行う専用のハードウェアとして実現してもよい。
また、画像処理回路12は、例えば、図13に示すように、バス20を介して、インタフェース21、メモリ22および処理回路23を接続した構成としてもよい。
この場合には、処理回路23は、メモリ22からプログラムPRGを読み出して、図5あるいは図10に示す各ステップを実行する。
このとき、処理回路23は、図5あるいは図10に示す各ステップの処理で得られる中間データを適宜メモリ22やその他のバッファメモリに記憶し、必要に応じて読み出して処理に用いる。
なお、メモリ22は、半導体メモリや、光ディスク、磁気ディスク、光磁気ディスクなどの記録媒体である。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
例えば、画像処理回路12は、図5あるいは図10に示す全てあるいは一部のステップをそれを行う専用のハードウェアとして実現してもよい。
また、画像処理回路12は、例えば、図13に示すように、バス20を介して、インタフェース21、メモリ22および処理回路23を接続した構成としてもよい。
この場合には、処理回路23は、メモリ22からプログラムPRGを読み出して、図5あるいは図10に示す各ステップを実行する。
このとき、処理回路23は、図5あるいは図10に示す各ステップの処理で得られる中間データを適宜メモリ22やその他のバッファメモリに記憶し、必要に応じて読み出して処理に用いる。
なお、メモリ22は、半導体メモリや、光ディスク、磁気ディスク、光磁気ディスクなどの記録媒体である。
1…画像処理装置、10R,10L…カメラ、12,12a…画像処理回路、21…インタフェース、22…メモリ、23…処理回路、PRG…プログラム
Claims (11)
- 複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第1の工程と、
前記第1の工程で選択した前記確率密度関数に応じて規定される前記複数の画像データ間の対応関係を表すエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第2の工程と、
前記第2の工程で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第3の工程と、
前記第3の工程で更新された前記視差データと、オクリュージョン領域に基づき確率密度関数を更新する第4の工程と
を有する画像処理方法。 - 前記第2の工程は、
前記マッチング可能な領域の画素データ間の画素値の相違コストと、前記オクリュージョン領域の画素データとしたことに対するペナルティとを加算して前記エネルギーを算出する
請求項1に記載の画像処理方法。 - 前記第2の工程は、前記複数の画像データの間で対応付けられた画素データの画素値の相違を基に前記相違コストを計算する
請求項2に記載の画像処理方法。 - 前記第2の工程は、
第1の前記画像データの第1の前記画素データと、第2の前記画像データの第2の前記画素データとが対応付けられている場合に、
前記第1の画素データおよび前記第2の画素データの周囲の画素データを補間処理によってそれぞれ生成し、
前記第1の画素データと、前記第2の画素データおよび当該第2の画素データの前記補間処理により生成した画素データとの間の差異の最小である第1の最小値を特定し、
前記第2の画素データと、前記第1の画素データおよび当該第1の画素データの前記補間処理により生成した画素データとの間の差異の最小である第2の最小値を特定し、
前記第1の最小値と前記第2の最小値とのうち小さい方を基に前記相違コストを計算する
請求項2に記載の画像処理方法。 - 前記第2の工程は、
相互相関情報を規定する要素である、前記複数の画像データの前記マッチング可能な領域の画素データおよびオクリュージョン領域の画素データ相互間のエントロピーを、マッチング可能な領域の画素データとオクリュージョン領域の画素データとは相互に独立であること、並びに異なる画像データのオクリュージョン領域の画素データは相互に独立であるという前提を基に、マッチング可能な領域の画素データの第1のエントロピー計算式と、オクリュージョン領域の画素データの第2のエントロピー計算式とに分離し、
前記第1のエントロピー計算式を前記相違コストの評価方法とし、前記第2のエントロピー計算式を前記ペナルティの評価方法として用いて前記エネルギーを算出する
請求項2に記載の画像処理方法。 - 前記第2の工程は、
前記第1のエントロピー計算式をテイラー変換し、その結果から定数項を除いた項にノンパラメトリックな確率密度関数推定を適用した結果を基に前記相違コストの評価値を生成し、
前記第2のエントロピー計算式をテイラー変換し、その結果から定数項を除いた項にノンパラメトリックな確率密度関数推定を適用した結果を基に前記ペナルティの評価値を生成する
請求項5に記載の画像処理方法。 - 前記第2の工程は、前記複数の画像データの各々において隣接する画素位置の画素データ間で視差が異なることに起因したペナルティをさらに加算して前記エネルギーを算出する
請求項2に記載の画像処理方法。 - 複数のカメラの撮像結果をそれぞれ示す複数の画像データを生成する第1の工程と、
前記第1の工程で生成した前記複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第2の工程と、
前記第2の工程で選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第3の工程と、
前記第3の工程で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第4の工程と、
前記第4の工程で更新された前記視差データと、オクリュージョン領域に基づいて確率密度関数を更新する第5の工程と、
前記第1の工程で生成した前記複数の画像データと、前記第5の工程で更新した前記確立密度関数を基に、前記複数の画像データを合成した合成画像データを生成する第6の工程と
を有する画像処理方法。 - 複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する確率密度関数選択手段と、
前記確率密度関数選択手段が選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する対応関係特定手段と、
前記対応関係特定手段で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する視差更新手段と、
前記視差更新手段で更新された前記視差データと、オクリュージョン領域に基づき確率密度関数を更新する確率密度更新手段と
を有する画像処理装置。 - コンピュータが実行するプログラムであって、
複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第1の手順と、
前記第1の手順で選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第2の手順と、
前記第2の手順で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第3の手順と、
前記第3の手順で更新された前記視差データと、オクリュージョン領域とに基づき確率密度を更新する第4の手順と
を前記コンピュータに実行させるプログラム。 - コンピュータが実行するプログラムを記録する記録媒体であって、
複数の画像データを構成する画素データの各々について、他の前記画像データ内に対応する画素データが存在するマッチング可能な領域の画素データと、他の前記画像データ内に対応する画素データが存在しないオクリュージョン領域の画素データとの何れであるかをそれぞれが規定した複数の確率密度関数の中から単数の前記確率密度関数を選択する第1の手順と、
前記第1の手順で選択した前記確率密度関数に応じて規定される前記複数の画像データ間のエネルギーを最小にする、前記複数の画像データ間の画素データ単位の対応関係を特定する第2の手順と、
前記第2の手順で特定した前記対応関係を基に、前記複数の画像データ間の視差を示す視差データおよびオクリュージョン領域を更新する第3の手順と、
前記第3の手順で更新された前記視差データと、オクリュージョン領域とに基づき確率密度関数を更新する第4の手順と
を前記コンピュータに実行させるプログラムを記録する記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006016702A JP2006285952A (ja) | 2005-03-11 | 2006-01-25 | 画像処理方法、画像処理装置、プログラムおよび記録媒体 |
US11/370,051 US7602966B2 (en) | 2005-03-11 | 2006-03-08 | Image processing method, image processing apparatus, program and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005069358 | 2005-03-11 | ||
JP2006016702A JP2006285952A (ja) | 2005-03-11 | 2006-01-25 | 画像処理方法、画像処理装置、プログラムおよび記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006285952A true JP2006285952A (ja) | 2006-10-19 |
Family
ID=36970970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006016702A Pending JP2006285952A (ja) | 2005-03-11 | 2006-01-25 | 画像処理方法、画像処理装置、プログラムおよび記録媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7602966B2 (ja) |
JP (1) | JP2006285952A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531490A (ja) * | 2007-06-20 | 2010-09-24 | トムソン ライセンシング | 画像のステレオ・マッチングのためのシステム及び方法 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0708676D0 (en) * | 2007-05-04 | 2007-06-13 | Imec Inter Uni Micro Electr | A Method for real-time/on-line performing of multi view multimedia applications |
US7671891B2 (en) * | 2007-05-22 | 2010-03-02 | Microsoft Corporation | Online camera calibration |
US9307227B2 (en) * | 2011-02-24 | 2016-04-05 | Tektronix, Inc. | Stereoscopic image registration and color balance evaluation display |
JP5988213B2 (ja) * | 2011-11-28 | 2016-09-07 | パナソニックIpマネジメント株式会社 | 演算処理装置 |
KR102350232B1 (ko) * | 2014-11-20 | 2022-01-13 | 삼성전자주식회사 | 스테레오 영상 매칭 방법 및 장치 |
CN104835165B (zh) * | 2015-05-12 | 2017-05-24 | 努比亚技术有限公司 | 图像处理方法及装置 |
CN113362342B (zh) * | 2021-06-18 | 2022-06-28 | 广东工业大学 | 一种图像分割方法及其相关装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04264207A (ja) * | 1991-02-19 | 1992-09-21 | Nippon Telegr & Teleph Corp <Ntt> | 多視点ステレオ画像計測方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590573B1 (en) * | 1983-05-09 | 2003-07-08 | David Michael Geshwind | Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems |
US6526157B2 (en) | 1997-08-01 | 2003-02-25 | Sony Corporation | Image processing apparatus, image processing method and transmission medium |
US6519358B1 (en) | 1998-10-07 | 2003-02-11 | Sony Corporation | Parallax calculating apparatus, distance calculating apparatus, methods of the same, and information providing media |
JP3619063B2 (ja) * | 1999-07-08 | 2005-02-09 | キヤノン株式会社 | 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 |
US6801653B1 (en) | 1999-08-05 | 2004-10-05 | Sony Corporation | Information processing apparatus and method as well as medium |
US7321386B2 (en) * | 2002-08-01 | 2008-01-22 | Siemens Corporate Research, Inc. | Robust stereo-driven video-based surveillance |
JP4069855B2 (ja) | 2003-11-27 | 2008-04-02 | ソニー株式会社 | 画像処理装置及び方法 |
-
2006
- 2006-01-25 JP JP2006016702A patent/JP2006285952A/ja active Pending
- 2006-03-08 US US11/370,051 patent/US7602966B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04264207A (ja) * | 1991-02-19 | 1992-09-21 | Nippon Telegr & Teleph Corp <Ntt> | 多視点ステレオ画像計測方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531490A (ja) * | 2007-06-20 | 2010-09-24 | トムソン ライセンシング | 画像のステレオ・マッチングのためのシステム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US7602966B2 (en) | 2009-10-13 |
US20060204104A1 (en) | 2006-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
US11954813B2 (en) | Three-dimensional scene constructing method, apparatus and system, and storage medium | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
TWI536318B (zh) | 深度測量之品質提升 | |
Klein et al. | Full-3D Edge Tracking with a Particle Filter. | |
KR101532864B1 (ko) | 모바일 디바이스들에 대한 평면 맵핑 및 트래킹 | |
JP6242334B2 (ja) | 平面特性基盤マーカーレス拡張現実システムおよびその動作方法 | |
JP5160643B2 (ja) | 2次元画像からの3次元オブジェクト認識システム及び方法 | |
KR100931311B1 (ko) | 프레임 간 깊이 연속성 유지를 위한 깊이 추정 장치 및 그방법 | |
JP2006285952A (ja) | 画像処理方法、画像処理装置、プログラムおよび記録媒体 | |
US20140002597A1 (en) | Tracking Poses of 3D Camera Using Points and Planes | |
US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
Barandiaran et al. | Real-time optical markerless tracking for augmented reality applications | |
JP2020515931A (ja) | シーンのセグメンテーションと3d再構築を組み合わせるための方法及び装置 | |
JPWO2019230813A1 (ja) | 三次元再構成方法および三次元再構成装置 | |
WO2009151755A2 (en) | Video processing | |
Moustakas et al. | Stereoscopic video generation based on efficient layered structure and motion estimation from a monoscopic image sequence | |
Wuest et al. | Tracking of industrial objects by using cad models | |
Bebeselea-Sterp et al. | A comparative study of stereovision algorithms | |
CN115035235A (zh) | 三维重建方法及装置 | |
JP6228239B2 (ja) | プリミティブの組を用いてデータをレジストレーションする方法 | |
CN110009683B (zh) | 基于MaskRCNN的实时平面上物体检测方法 | |
JP4337203B2 (ja) | 距離画像生成装置および距離画像生成方法、並びにプログラム提供媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110208 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110726 |