JP2006313445A - 画像処理方法、画像処理装置およびプログラム - Google Patents

画像処理方法、画像処理装置およびプログラム Download PDF

Info

Publication number
JP2006313445A
JP2006313445A JP2005135588A JP2005135588A JP2006313445A JP 2006313445 A JP2006313445 A JP 2006313445A JP 2005135588 A JP2005135588 A JP 2005135588A JP 2005135588 A JP2005135588 A JP 2005135588A JP 2006313445 A JP2006313445 A JP 2006313445A
Authority
JP
Japan
Prior art keywords
image
data
image data
parallax
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005135588A
Other languages
English (en)
Inventor
Ikoku Go
偉国 呉
Gyokuu Ryu
玉宇 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005135588A priority Critical patent/JP2006313445A/ja
Publication of JP2006313445A publication Critical patent/JP2006313445A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 複数の画像データ間での画素データ単位での対応付けを短時間で行うことができる画像処理方法を提供する。
【解決手段】 動き領域検出部33において、画像データIM2Rの動き画像領域を特定する。視差生成部34は、動き画像領域についてのみ視差データを生成し、それを基に全体の視差データDepthを更新する。
【選択図】 図2

Description

本発明は、ステレオ画像のマッチング処理を行う画像処理方法、画像処理装置およびプログラムに関する。
複数の撮像画像から実際に存在しない視点位置(仮想視点)での仮想カメラ視点映像を生成するために、画像間マッチング技術が不可欠である。このような画像間の対応付け技術は、「ステレオ視」における最も重要でかつ難しい問題の一つである。
例えば、その最も基本的な構成である2台のカメラによるステレオ視の対応付けを考える。一方の画像上にある点に対して、その対応点は、別の視点で観測された他方の画像内のある直線上に存在する。一般に、この直線L1’をエピポーラライン(Epipolar Line)と呼ぶ。従来、よく使われている「対応点付け」の手法としては、Pixel-based マッチング、Area-based マッチング、Feature-based マッチングがある。
Pixel-based マッチングでは一方の画像における点の対応を、他方の画像でそのまま探索する(非特許文献1)。Area-based マッチングでは、一方の画像における点の対応を、他方の画像で探す時、その点の周りの局所的な画像パターンを用いて探索する(非特許文献2、3)。Feature-based マッチングでは、画像から濃淡エッジなどの特徴を抽出し、画像間の特徴だけを用いて対応付けを行う(非特許文献4、5)。これらの手法は、基本的に基準カメラ画像上のある画素Pa(x,y)に対して、他方のカメラ画像に対応するエピポーラ線上を探索し、最も相似性の高い画素を対応点とするので、テクスチャのないものや繰返しパターンや隠れ問題などによって、正しい対応付けを求めることが容易ではない。
一方、対応付け処理をより柔軟に行うために、グローバル最適化という考えに基づいた手法が幾つか提案されたが、その中の一つ有効な手法として、グラフカットによる画像間マッチングを行う手法(非特許文献6、7)が提案された。グラフカットによるマッチングでは、画像間のマッチング問題をエネルギー最適化問題として扱い、画像間のマッチングコストをエネルギーで表し、そのエネルギーをグラフカット手法で最適化する。
C.Lawrence Zitnick and Jon A. Webb: Multi-baseline Stereo Using Surface Extraction, Technical Report, CMU-CS-96-196, (1996) Okutomi.M and Kanade.T: A locally adaptive window for signal matching, Int. Journal of Computer Vision, 7(2), pp.143-162, (1992) 奥富、金出: 複数の基線長を利用したステレオマッチング、電子情報通信学会論文誌D-II,Vol.J75-D-II,No.8, pp.1317-1327, (1992) H.Baker and T.Binford: Depth from edge and intensity based stereo, In Proc. IJCAI’81, (1981) W.E.L.Grimson: Computational experiments with a feature based stereo algorithm, IEEE Trans. PAMI, Vol.7,No.1, pp.17〜34, (1985) Yuri Boykov, Olga Veksler, Ramin Zabih. Fast Approximate Energy Minimization via Graph Cuts. International Conference on Computer Vision, vol. 1, pp. 377-384, 1999. V. Kolmogorov and R. Zabih. Computing visual correspondence with occlusions using graph cuts. Journal of Confidence on Computer Vision, vol. 2, pp.508-515, 2001.
ところで、グラフカットによって上記のエネルギを最適化するためには、膨大な計算時間が必要であり、特にリアルタイム処理が必要となる3次元形状計測分野での実用化が容易ではない。
同様な問題は、グラフカット法以外の画像マッチング処理においてもある。
本発明は上述した従来技術の問題点に鑑みてなされ、複数の画像データ間での画素データ単位での対応付け(マッチング)を短時間で行うことができる画像処理方法、画像処理装置およびプログラムを提供することを目的とする。
上述した従来技術の問題点を解決し、上述した目的を達成するため、第1の観点の発明の画像処理方法は、複数の連続した第1の画像データと、複数の連続した第2の画像データとの対応関係を特定する画像処理方法であって、前記複数の第1の画像データと前記複数の第2の画像データとの少なくとも一つを基に、動き画像領域を特定する第1の工程と、前記第1の工程で特定した前記動き画像領域について、前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を更新する第2の工程とを有する。
第2の観点の画像処理装置は、複数の連続した第1の画像データと、複数の連続した第2の画像データとの対応関係を特定する画像処理装置であって、前記複数の第1の画像データと前記複数の第2の画像データとの少なくとも一つを基に、動き画像領域を特定する動き画像特定手段と、前記動き画像特定手段が特定した前記動き画像領域について、前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を更新する画素対応関係特定手段とを有する。
第3の観点のプログラムは、複数の連続した第1の画像データと、複数の連続した第2の画像データとの対応関係を特定するコンピュータが実行するプログラムであって、前記複数の第1の画像データと前記複数の第2の画像データとの少なくとも一つを基に、動き画像領域を特定する第1の手順と、前記第1の手順で特定した前記動き画像領域について、前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を更新する第2の手順とを前記コンピュータに実行させる。
本発明によれば、複数の画像データ間での画素データ単位での対応付け(マッチング)を短時間で行うことができる画像処理方法、画像処理装置およびプログラムを提供することができる。
以下、本発明の実施形態に係わる画像処理装置を説明する。
先ず、本実施形態の構成と本発明の構成との対応関係の一例を説明する。
本実施形態の画像データIM2R,IM2Lが、本発明の複数の画像データの一例である。
また、本実施形態の動き画像領域データImが示す動き画像領域が本発明の動き画像領域の一例である。
また、本実施形態の視差データDepthが本発明の対応関係の一例である。
また、図2に示す視差生成部34において視差データDepthを最初に生成する工程が本発明の第3の工程の一例である。
また、図3に示す手順が本発明の第1の工程の一例である。
また、図5に示すステップST22〜ST24が、本発明の第2の工程の一例である。
また、図1に示すカメラ10L,10Rが本発明の撮像手段の一例であり、図2に示す動き領域検出部33が本発明の動き画像特定手段の一例であり、視差生成部34が本発明の画素対応関係特定手段の一例である。
また、画像生成部35が本発明の画像生成手段の一例である。
また、図12に示すプログラムPRGが、本発明のプログラムの一例である。
図1は、本発明の実施形態に係わる画像処理装置1の構成図である。
図1に示すように、画像処理装置1は、例えば、カメラ10R、カメラ10L、並びに画像処理回路12を有する。
画像処理装置1は、例えば、ステレオ動画像処理や3次元形状計測処理を行い、ロボットや画像通信などの分野に用いられる。
画像処理装置1は、2台以上の複数カメラで観測された画像から、画像の輝度情報や色情報などを用いて、画像内の運動対象の動き画像領域を検出し、検出された動き画像領域に対してその領域内のグラフだけを新たに構築する。
画像処理装置1は、上記構築された動き画像領域内のグラフに対してグラフカットを用いるエネルギ最適化によって視差情報を推定し更新する。
画像処理装置1は、非動き画像領域(動きのない領域)を静止領域として、前フレームの視差情報をそのまま利用する。さらに、動き画像領域と静止領域の隣接部のグラフ整合性処理によって画像全体の視差情報を求める。
カメラ10Rは、対象物TARGETを撮像し、それによって得た画像データIM1Rを画像処理回路12に出力する。
カメラ10Lは、カメラ10Rと所定の距離隔てて配設されている。
カメラ10Lは、カメラ10Rと同様に、対象物TARGETを撮像し、それによって得た画像データIM1Lを画像処理回路12に出力する。
以下、画像処理回路12について詳細に説明する。
図2は、図1に示す画像処理回路12の構成図である。
図2に示すように、画像処理回路12は、例えば、補正部31、カメラパラメータ生成部32、動き画像領域検出部33、視差生成部34および画像生成部35を有する。
補正部31、カメラパラメータ生成部32、動き画像領域検出部33、視差生成部34および画像生成部35は、電子回路として実現してもよいし、少なくとも一部の機能を、処理回路がプログラムを実行する形で実現してもよい。
[補正部31]
補正部31は、カメラ10R,10Lから入力した画像データIM1R,IM1Lに対して、幾何学的な画像補正処理と正規化処理とを行って、画像データIM2R,IM2Lを生成し、これを動き画像領域検出部33に出力する。
補正部31は、カメラパラメータ生成部32から入力したパラメータを基に、上記画像補正処理および正規化処理を行う。
カメラパラメータ生成部32は、例えば、カメラキャリブレーションによりパラメータを生成し、これを補正部31に出力する。
[動き画像領域検出部33]
動き画像領域検出部33は、例えば、画像データIM2Rの動き画像領域を検出し、その検出した動き画像領域を示す動き画像領域データImを視差生成部34に出力する。
動き画像領域検出部33は、例えば、図3に示すように、現時刻tiの画像データIM2R(ti)と、一フレーム前の時刻(ti−1)の画像データIM2R(ti−1)との間で、フレーム間の差分を検出し、その差分データId(ti)を生成する(ステップST11)。
なお、動き領域検出部33は、画像データIM2L(ti)と画像データIM2L(ti−1)との間で、フレーム間の差分を検出し、その差分データId(ti)を生成してもよい。
次に、動き画像領域検出部33は、差分データId(ti)を2値化処理して2値化差分データIb(ti)を生成する(ステップST12)。
次に、動き画像領域検出部33は、2値化差分データIb(ti)から視差更新に不要な動きデータ成分(ノイズ)を除去して2値化差分データIr(ti)を生成する(ステップST13)。
次に、動き画像領域検出部33は、2値化差分データIr(ti)を基に、例えば、画素データ単位で、輝度情報や色情報が所定のしきい値以上変化する場合に、画像データIM1R内の当該画素データに対応した領域を動き画像領域として検出し、その領域を示す動き画像領域データIm(ti)を生成する(ステップST14)。
なお、動き画像領域検出部33は、複数の画素データからなるブロック単位として上記動き画像領域を検出してもよい。
また、動き画像領域検出部33は、輝度情報や色情報が所定のしきい値以上変化する画素データのうち、孤立点や所定以下の大きさの領域を画像ノイズとして除去して動き画像領域データIm(ti)を生成する。
動き画像領域検出部33は、図4(A)に示すように時刻ti−1,ti,ti+1,ti+2,ti+3の画像データIM2R(ti−1),IM2R(ti),IM2R(ti+1),IM2R(ti+2),IM2R(ti+3)を順に入力して、図4(B)に示すように、動き画像領域データIm(ti),Im(ti−1),Im(ti),Im(ti+1),Im(ti+2),Im(ti+3)を順に生成する。
動き画像領域検出部33は、補正部31からの入力した画像データIM2R,IM2Lと、上記生成した動き画像領域データImとを視差生成部34に出力する。
[視差生成部34]
図5は、図2に示す視差生成部34の処理を説明するためのフローチャートである。
視差生成部34は、動き画像領域検出部33から入力した画像データIM2R,IM2Lおよび動き画像領域データImを基に、全体視差データDepth(ti)を生成あるいは更新する。
以下、図5に示す各ステップを説明する。
ステップST21:
視差生成部34は、動き画像領域検出部33から入力した動き画像領域データImを基に、動き画像領域データImが示す動き画像領域内の視差データを更新するか否かを判断し、更新すると判断するとステップST22に進み、更新しないと判断すると、処理を終了する(視差更新は行わない)。
視差生成部34は、上記更新を行うか否かを検出された動き画像領域の大きさ(動き領域内の画素数)によって判断する。
ステップST22:
視差生成部34は、グラフカット法による視差探索における視差探索範囲を決定する。
視差生成部34は、例えば、図6に示すように、前回の時刻(ti−1)において動き画像領域データIm(ti−1)を更新して得られた更新視差画像データd(ti−1)の平均値である平均視差値データDavg(ti−1)を計算する(ステップST31)。
次に、視差生成部34は、平均視差値データDavg(ti−1)と、時刻(ti−2)で得た平均視差値データDavg(ti−2)との間の変化量(差分量)を示す変化量データDd(ti−1)を計算する(ステップST32)。
次に、視差生成部34は、平均視差値データDavg(ti−1)と、変化量データDd(ti−1)とを基に、下記式(1),(2)により、視差探索範囲(Min_Depth,Max_Depth)を計算する。
Min_Depthは視差探索領域の最小値であり,Max_Depthは視差探索領域の最大値である。
下記式(1),(2)において、「k」は、動き対象の速度に従う正の定数である。
[数1]
Min_Depth=Davg(ti−1)−k*Dd(ti−1)
…(1)
[数2]
Max_Depth=Davg(ti−1)+k*Dd(ti−1)
…(2)
ステップST23:
視差生成部34は、ステップST23で計算した視差探索範囲(Min_Depth,Max_Depth)内で、動き画像領域データIm(ti−1)が示す動き画像領域の視差データを更新して更新視差画像データd(ti)を生成する。
視差生成部34は、画像データIM2RとIM2Lとの間における上記動き画像領域内での画素データの対応付け処理によって、更新視差画像データd(ti)を生成する。
図7は、画像間対応付け処理に関する基本原理の説明である。
図7に示すように、三次元空間内の対象Pが左右のカメラで撮影された場合、それぞれ左画像上の画素m1と右画像上のm1’として観測される。
逆に、m1とm1’との対応関係が得られれば、三次元空間内の対象Pを推定することができる。
画像間対応付け処理とは、左画像上の画素m1に対して、右画像上での対応点m1’’を見つけることである。
一般に、エピポーラ幾何の拘束によって、左画像上の画素m1に対応する右画像上での対応点m1’は、必ずある線上L1’(エピポーラライン)にあるので、相似性評価によって、最らしい対応点(例えば、マッチングスコア最大の点)を見つけることが可能であるが、実際問題として、観測画像内に隠れ、正反射、明るさの変化がない領域があるので、正確な対応付けを得ることがとても困難である。
そこで、視差生成部34は、画像間のマッチング(対応付け)をより正しく行うために、各々の画素間のマッチングスコア評価によるローカルサポート手法ではなく、左右画像の全て画素に対してグラフカットを用いるグローバル最適化による画像マッチング手法を適用した。
本実施形態において、図7に示す右画像が画像データIM2Rに対応し、左画像が画像データIM2Lに対応する。
視差生成部34は、グラフカットにおける画像間のマッチングコストを下記式(3)のエネルギE(f)によって算出する。
上記式(3)において、「f」は、画像データIM2RとIM2Lとの間での画素データの対応関係を示している。
また、エネルギEdata(f)は、下記式(4)で規定され、マッチング可能な領域の画素データペアの間での画素値の相違のコストの総和を示している。下記式(4)において、D(matched)は、例えば左右画像の輝度差の絶対値である。
また、エネルギEoccl(f)は、下記式(5)で規定され、画素をオクリュージョンとしたことに対するペナルティの総和を示している。下記式(5)において、Cpは、オクリュージョンコスト(ペナルティー)を表す定数である。
また、エネルギEsmooth(f)は、下記式(6)で規定され、カレントの対応関係fにおいて、同じ画像内の隣接する画素が同様の視差値を持つようにするためのスムージングコストである。下記式(6)において、Vm1,m2は、スムージングコストを示す定数である。T[f(m1)≠f(m2)]は、隣接の画素m1とm2に異なる視差値f(m1)とf(m2)を与えた時に1であり、そうでなければ0である。
図8は、画像データIM2RとIM2Lとの対応付け関係をグラフで表す概念図を示す。
ここでは、グラフ構成を分かりやすく理解するために、図8(A)に示すように、画像領域(画像データIM2R上の動き画像領域)を4画素だけとする。
画像データIM2R上の画素Rj={p,q,r,s}に対して、それらの画素をグラフのノードとする。
また、各ノード間を結ぶ線と各ノードとαノード、及び非αノードを結ぶ線をエッジとし、各エッジのWeight(係数)を上記(1)式に示すエネルギで与える。
ここでは、画像データIM2RとIM2Lとから検出された動き画像領域は必ずしも対応しないので、画像データIM2Rから検出された動き画像領域(マスク)に対するグラフを構築する。
図8(B)は、図8(A)に示す4画素だけの動き画像領域の画像に対して、構成されたグラフの例を示す。
また、グラフ上の各エッジにどのようエネルギ(Weight)を与えるかを理解しやすくするために、図9に示すような2つの画素からなるグラフを示すことにした。
グラフカット法は、ランダムに選ばれたα(α=1,……,MaxDepthValue)に対して、図9に示すエッジとエネルギE1〜E6を持つグラフを構築し、ノードpとqは、ノードαまたは非α(α~)に属する場合に、カットされたエッジのエネルギの和を計算し、その中にエネルギ(和)が最小となるようなカットを最適なカットとする手法である。
当該グラフカットでは、α(ソース)からα~(シンク)を分離するように、エッジをカットする。例えば、エッジカットのエネルギの総和は、(E1+E6+E4)となる。
視差生成部34は、下記式(7)〜(12)に基づいて、エネルギE1〜E6を算出する。
下記式(7)〜(10)に示すD(α),D(α~)は上記式(4)のD(matched)である。
また、下記式(7)〜(12)に示すa〜dは、下記式(13)〜(16)で定義される。これらの式において、Vは上記式(6)で定義するスムージングコストである。
また、視差生成部34は、前述したように、全体視差データDepth(ti)のうち、動き画像領域データIm(ti−1)が示す動き画像領域の視差データを更新し、それ以外の非動き画像領域の視差データは更新しない。
従って、図9に示す隣接するノードpとqのグラフにおいて、ノードpが動き画像領域内に位置し、ノードqが動き画像領域外(非動き画像領域)に位置する場合がある。
視差生成部34は、このような場合に、図10に示すようにグラフを構築する。
視差生成部34は、図10に示すように、図9の示すエネルギE2,E6として「0」を用い、エネルギE4として「∞」を用いる。また、エネルギE3の代わりに、エネルギE3+E5を用いる。
これにより、視差生成部34は、ノードqの視差データがαであり、且つ、ノードpとqとで視差データが異なる場合に、図10に示すグラフを動き画像領域内のグラフに加えて用いる。すなわち、視差生成部34は、動き画像領域と非動き画像領域との隣接部でグラフ整合処理を行う。
図11は、図5に示すステップST23の手順を説明するためのフローチャートである。
ステップST41:
視差生成部34は、動き画像領域検出部33から入力した動き画像領域データImが示す動き画像領域内の画素ペアのうち、未処理の画素ペアを選択する。
ステップST42:
視差生成部34は、図6に示す手順で計算した視差探索範囲(Min_Depth,Max_Depth)内で予めランダムに決められた複数の視差データのうち未選択の視差データαを選択する。
ステップST43:
視差生成部34は、ステップST41で選択した画素ペアについて、ステップST42で選択した図9および図10に示す視差データαにおけるエネルギEの総和を最小にするエッジカットパターンを特定する。
視差生成部34は、処理対象の画素ペアについて、これまで得たエネルギの総和によりも小さいエネルギの総和を得た場合には、そのエネルギの総和と、エッジカットパターンと、視差データα保持する。
ステップST44:
視差生成部34は、視差探索範囲(Min_Depth,Max_Depth)内で予めランダムに決められた複数の視差データのうち全ての視差データαを選択したか否かを判断し、選択したと判断するとステップST45に進み、そうでない場合にはステップST42に進む。
ステップST45:
視差生成部34は、動き画像領域検出部33から入力した動き画像領域データImが示す動き画像領域内の全ての画素ペアについて処理を終了したか否かを判断し、終了したと判断すると処理を終了し、そうでない場合はステップST41に戻る。
図5に示すステップST23、すなわち、図11の処理が終了すると、図12(B)に示すように、動き画像領域Im(ti)の更新された視差データd(ti)が生成される。
以下、図5に示すステップST24を説明する。
視差生成部34は、前回生成した全体視差データDepth(ti−1)のうち、動き画像領域Im(ti)に対応する領域を視差データd(ti)で置き換えて全体視差データDepth(ti)を生成する。
視差生成部34は、例えば、図12(C)に示すように、全体視差データDepth(ti)を生成する。
視差生成部34は、全体視差データDepth(ti)を図2に示す画像生成部35に出力する。
画像生成部35は、画像データIM2R,IM2Lと、視差生成部34からの全体視差データDepth(ti)とを基に、ステレオ画像データを生成する。
画像処理回路12は、画像生成部35が生成したステレオ画像データを、図示しないディスプレイに表示したり、ネットワークを介して他の装置に送信する。
以下、図2に示す画像処理回路12の動作例を説明する。
カメラ10R,10Lが、対象物TARGETを撮像し、それによって得た画像データIM1R,IM1Lを画像処理回路12に出力する。
次に、画像処理回路12の補正部31の補正部31が、カメラ10R,10Lから入力した画像データIM1R,IM1Lに対して、幾何学的な画像補正処理と正規化処理とを行って、画像データIM2R,IM2Lを生成し、これを動き画像領域検出部33に出力する。
次に、動き領域検出部33が、図3に示す手順で、例えば、画像データIM2Rの動き画像領域を検出し、その検出した動き画像領域を示す動き画像領域データImを視差生成部34に出力する。
次に、視差生成部34が、図5〜図11に示すように、全体視差データDepth(ti)のうち、動き画像領域データIm(ti−1)が示す動き画像領域の視差データを更新し、それ以外の非動き画像領域の視差データは更新しない。
そして、視差生成部34が、全体視差データDepth(ti)を画像生成部35に出力する。
次に、画像生成部35が、画像データIM2R,IM2Lと、視差生成部34からの全体視差データDepth(ti)とを基に、ステレオ画像データを生成する。
以上説明したように、画像処理装置1によれば、画像処理回路12において、全体視差データDepth(ti)のうち、動き画像領域データIm(ti−1)が示す動き画像領域の視差データを更新し、それ以外の非動き画像領域の視差データは更新しない。
また、画像処理装置1によれば、図6に示すように視差探索範囲を決定し、図5に示すステップST23において視差探索範囲内でのみ視差データを探索する。
そのため、画像処理回路12において、視差データの更新に、グラフカット法を用いても、十分に短時間で視差データを生成でき、リアルタイム処理に適用できる。
また、画像処理装置1によれば、グラフカット法を用いるため、高精度なマッチング処理が可能であり、高品質なステレオ画像を生成できる。
本発明は上述した実施形態には限定されない。
すなわち、当業者は、本発明の技術的範囲またはその均等の範囲内において、上述した実施形態の構成要素に関し、様々な変更、コンビネーション、サブコンビネーション、並びに代替を行ってもよい。
例えば、上述した実施形態では、視差探索方法としてグラフカット法を例示したが、その他の手法を用いてもよい。
また、本発明は、上述したステレオ画像生成処理以外に、3次元形状計測処理などにも適用可能である。
また、上述した図2に示す画像処理回路12の機能を、図13に示すように、インタフェース41、メモリ42および処理回路43を、バス40を介して接続した構成で実現してもよい。
この場合には、処理回路43は、メモリ42から読み出したプログラムPRGを実行して、上述した画像処理回路12の機能を実行する。
図1は、本発明の画像処理装置の全体構成図である。 図2は、図1に示す画像処理回路の構成図である。 図3は、図2に示す動き領域検出部の処理を説明するための図である。 図4は、図3に示す動き領域検出部で生成される動き画像領域を説明するための図である。 図5は、図2に示す視差生成部の処理を説明するためのフローチャートである。 図6は、図5に示すステップST22の処理を詳細に説明するためのフローチャートである。 図7は、画像間対応付け処理の基本原理を説明するための図である。 図8は、グラフカット法を説明するための図である。 図9は、視差生成部が行うグラフカット処理を説明するための図である。 図10は、視差生成部が行うグラフカット処理における動き画像領域と非動き画像領域との境界部の処理を説明するための図である。 図11は、図2に示す視差生成部の処理を説明するためのフローチャートである。 図12は、図5に示す各データを説明するための図である。 図13は、図2に示す画像処理回路のその他の構成図である。
符号の説明
10L,10R…カメラ、12,12a…画像処理回路、31…補正部、32…カメラパラメータ生成部、33…動き領域検出部、34…視差生成部、35…画像生成部、41…インタフェース、42…メモリ、43…処理回路

Claims (12)

  1. 複数の連続した第1の画像データと、複数の連続した第2の画像データとの対応関係を特定する画像処理方法であって、
    前記複数の第1の画像データと前記複数の第2の画像データとの少なくとも一つを基に、動き画像領域を特定する第1の工程と、
    前記第1の工程で特定した前記動き画像領域について、前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を更新する第2の工程と
    を有する画像処理方法。
  2. 前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を特定する第3の工程
    をさらに有し、
    前記第2の工程は、前記第3の工程で特定した前記対応関係を前記更新する
    請求項1に記載の画像処理方法。
  3. 前記第3の工程で特定した前記対応関係と、前記第1の画像データと、前記第2の画像データとを基に、新たな画像データを生成する第4の工程と、
    前記第2の工程で更新した前記対応関係を基に、前記第4の工程で生成した前記新たな画像データを更新する第5の工程と
    をさらに有する請求項2に記載の画像処理方法。
  4. 前記第2の工程は、前記第1の工程で特定した前記動き画像領域の視差データをグラフカット法で更新し、
    前記第3の工程は、前記第1の画像データと前記第2の画像データとの間の画素データ単位での対応関係を示す視差データをグラフカット法で生成する
    請求項2に記載の画像処理方法。
  5. 前記第2の工程は、当該第2の工程で過去に更新された前記視差データを基に探索範囲を決定し、当該探索範囲内で前記視差データを探索して更新する
    請求項4に記載の画像処理方法。
  6. 前記第2の工程は、前記第1の工程で特定した動き画像領域の境界において、一方が前記動き画像領域内に位置し、他方が前記動き画像領域外に位置する2つの画素データペアについて、前記一方の画素データが処理中のグラフに割り当てられた視差データを持ち、前記一方の画素データと前記他方の画素データとで視差データが異なることを条件に、前記処理中のグラフが前記動き画像領域内のグラフに加わるように、前記視差データを探索する
    請求項5に記載の画像処理方法。
  7. 前記複数の第1の画像データと前記複数の第2の画像データとは、所定の対象を異なる位置から撮像した動画像データである
    請求項1に記載の画像処理方法。
  8. 前記複数の連続した第1の画像データと、前記複数の連続した第2の画像データとは、それぞれ動画像データである
    請求項1に記載の画像処理方法。
  9. 複数の連続した第1の画像データと、複数の連続した第2の画像データとの対応関係を特定する画像処理装置であって、
    前記複数の第1の画像データと前記複数の第2の画像データとの少なくとも一つを基に、動き画像領域を特定する動き画像特定手段と、
    前記動き画像特定手段が特定した前記動き画像領域について、前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を更新する画素対応関係特定手段と
    を有する画像処理装置。
  10. 前記画素対応関係特定手段が特定した前記対応関係と、前記第1の画像データと、前記第2の画像データとを基に、新たな画像データを生成する画像生成手段
    をさらに有する請求項9に記載の画像処理装置。
  11. 前記複数の第1の画像データおよび前記複数の第2の画像データを撮像によって生成する撮像手段
    をさらに有する請求項9に記載の画像処理装置。
  12. 複数の連続した第1の画像データと、複数の連続した第2の画像データとの対応関係を特定するコンピュータが実行するプログラムであって、
    前記複数の第1の画像データと前記複数の第2の画像データとの少なくとも一つを基に、動き画像領域を特定する第1の手順と、
    前記第1の手順で特定した前記動き画像領域について、前記第1の画像データと前記第2の画像データとの間における画素データ単位での対応関係を更新する第2の手順と
    を前記コンピュータに実行させるプログラム。
JP2005135588A 2005-05-09 2005-05-09 画像処理方法、画像処理装置およびプログラム Pending JP2006313445A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005135588A JP2006313445A (ja) 2005-05-09 2005-05-09 画像処理方法、画像処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005135588A JP2006313445A (ja) 2005-05-09 2005-05-09 画像処理方法、画像処理装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2006313445A true JP2006313445A (ja) 2006-11-16

Family

ID=37534918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005135588A Pending JP2006313445A (ja) 2005-05-09 2005-05-09 画像処理方法、画像処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP2006313445A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024676A (ja) * 2014-07-22 2016-02-08 サクサ株式会社 撮像装置及び判定方法
WO2021245973A1 (ja) * 2020-06-05 2021-12-09 日立Astemo株式会社 演算装置、視差探索方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169308A (ja) * 1999-12-06 2001-06-22 Mixed Reality Systems Laboratory Inc 奥行き情報計測装置及び複合現実感提示システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169308A (ja) * 1999-12-06 2001-06-22 Mixed Reality Systems Laboratory Inc 奥行き情報計測装置及び複合現実感提示システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016024676A (ja) * 2014-07-22 2016-02-08 サクサ株式会社 撮像装置及び判定方法
WO2021245973A1 (ja) * 2020-06-05 2021-12-09 日立Astemo株式会社 演算装置、視差探索方法

Similar Documents

Publication Publication Date Title
JP6430064B2 (ja) データを位置合わせする方法及びシステム
Revaud et al. Epicflow: Edge-preserving interpolation of correspondences for optical flow
Tao et al. A global matching framework for stereo computation
JP6421510B2 (ja) 目標検出方法及び目標検出システム
EP2751777B1 (en) Method for estimating a camera motion and for determining a three-dimensional model of a real environment
CN109584302B (zh) 相机位姿优化方法、装置、电子设备和计算机可读介质
US8027513B2 (en) Bitmap tracker for visual tracking under very general conditions
WO2017201751A1 (zh) 虚拟视点视频、图像的空洞填充方法、装置和终端
US9020251B2 (en) Image processing apparatus and method
CN109887021B (zh) 基于跨尺度的随机游走立体匹配方法
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
Tung et al. Dynamic surface matching by geodesic mapping for 3d animation transfer
JP2009525543A (ja) 二次元画像からの三次元の顔の復元
WO2008123922A2 (en) Method for reconstructing three-dimensional images from two-dimensional image data
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
Yang et al. Shape tracking with occlusions via coarse-to-fine region-based sobolev descent
Kok et al. A review on stereo vision algorithm: Challenges and solutions
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
JP2006313445A (ja) 画像処理方法、画像処理装置およびプログラム
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
CN113888614B (zh) 深度恢复方法、电子设备和计算机可读存储介质
GB2537831A (en) Method of generating a 3D representation of an environment and related apparatus
CN114972491A (zh) 视觉slam方法、电子设备、存储介质及产品
Leichter et al. Bittracker—a bitmap tracker for visual tracking under very general conditions
De Cubber et al. Partial differential equation-based dense 3D structure and motion estimation from monocular image sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110308