JP2011525657A - 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法 - Google Patents

動き補償を用いた画像の奥行き抽出のためのシステムおよび方法 Download PDF

Info

Publication number
JP2011525657A
JP2011525657A JP2011514554A JP2011514554A JP2011525657A JP 2011525657 A JP2011525657 A JP 2011525657A JP 2011514554 A JP2011514554 A JP 2011514554A JP 2011514554 A JP2011514554 A JP 2011514554A JP 2011525657 A JP2011525657 A JP 2011525657A
Authority
JP
Japan
Prior art keywords
disparity
estimated
frame
image
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011514554A
Other languages
English (en)
Other versions
JP5153940B2 (ja
Inventor
ザン,ドン−チン
アイザット,アイザット
ヨーン,ヤンシク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011525657A publication Critical patent/JP2011525657A/ja
Application granted granted Critical
Publication of JP5153940B2 publication Critical patent/JP5153940B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Measurement Of Optical Distance (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

画像の空間時間的奥行き抽出のためのシステムおよび方法が提供される。システムおよび方法は、シーンからの画像のシーケンスを取得し(502)、前記シーケンスは画像の複数の相続くフレームを含み、少なくとも一つのフレームについて、第一の画像中の少なくとも一つの点の第二の画像中の少なくとも一つの対応する点との視差を推定し(504、506)、前記第一の画像中の前記少なくとも一つの点の動きを推定し(605)、前記シーケンスの前方方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定し(508)、ここで、前記推定視差は推定された動きを用いて補償され、前記シーケンスの後方方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化する(512)ことを含む。

Description

本開示は概括的にはコンピュータ・グラフィクス処理およびディスプレイ・システムに、より詳細には前方および後方奥行き予測による画像の奥行き抽出のためのシステムおよび方法に関する。
立体視イメージング(stereoscopic imaging)は、わずかに異なる視点から取られた、シーンの少なくとも二つの画像を視覚的に組み合わせて三次元的な奥行きの錯覚を生じる過程である。この技法は、人間の両目がいくらかの距離離間しており、そのため完全に同じシーンを見るのではないという事実に依拠している。それぞれの目に異なるパースペクティブからの画像を与えることにより、見る者の目はだまされて奥行きを知覚する。典型的には、二つの相異なるパースペクティブが与えられる場合、成分画像は「左」および「右」の画像と称される。これは参照画像および補足画像としても知られる。しかしながら、当業者は、立体視像を形成するために三つ以上の視点が組み合わされてもよいことを認識するであろう。
三次元(3D)ポスト・プロダクション、視覚効果(VFX: visual effects)作業フローおよび3Dディスプレイ・アプリケーションにおいて、重要なプロセスは、左眼視および右眼視の画像からなる立体視画像から奥行きマップを推定することである。たとえば、最近商業化された裸眼立体視3Dディスプレイは、画像に加えて奥行きマップからなる入力フォーマットを要求する。それにより、ディスプレイは複数の閲覧角をサポートするために異なる3Dビューを生成できる。
立体画像対から奥行きマップを生成するプロセスは、コンピュータ視覚の研究分野ではステレオマッチング(stereo matching)と呼ばれる。ピクセルまたはブロックのマッチングを使って左眼および右眼のビュー画像における対応する点を見出すからである。より最近では、3Dディスプレイ業界では、奥行きマップを推定するプロセスは奥行き抽出(depth extraction)としても知られている。奥行き値は、シーン中の同じ点に対応する画像内の二つのピクセルの間の相対距離から推定される。
デジタル画像のステレオマッチングは、多くのコンピュータ視覚アプリケーション(たとえば、コンピュータ援用製図(CAD: computer-aided drafting)のための高速オブジェクト・モデリングおよびプロトタイピング、人間とコンピュータの対話(HCI: human-computer interaction)のためのオブジェクト・セグメンテーションおよび検出、ビデオ圧縮および視覚的監視などの)において3D奥行き情報を与えるために幅広く使われている。ステレオマッチングは、シーン内の異なる位置および配向に置かれた二つ以上のカメラからシーンの画像を取得する。これらのデジタル画像は、ほぼ同じ時刻および点において各カメラから取得され、それらの画像のそれぞれは空間中のある3D点に対応してマッチングされる。一般に、異なる画像からの点は、それらの画像の一部を探索し制約条件(エピポーラー制約条件のような)を使って一つの画像中の点を別の画像中の点と相関付けることによってマッチングされる。
奥行きマップ抽出に対してかなりの研究がなされてきた。奥行き抽出に対する従前の研究の多くは、動画ではなく単一の立体視画像対に焦点を当てている。しかしながら、画像〔イメージ〕ではなく動画〔ビデオ〕が消費者電子製品の世界では主要なメディアとなっている。ビデオについては、単一画像対ではなく立体視画像対のシーケンスが用いられる。従来技術では、各フレーム対に対して静的な奥行き抽出アルゴリズムが適用される。たいていの場合、出力奥行きマップの品質は3D再生のために十分であるが、大量のテクスチャーのあるフレームについては、画像対のシーケンスについて奥行きマップが時間方向に、すなわち時間期間にわたって厳密に整列されないので、時間的なジッタリング・アーチファクト(jittering artifacts)が見られることがある。従来のシステムは、画像シーケンスに対してなめらかさの制約条件を強制することによって時間方向に沿って奥行きマップ抽出プロセスを安定化させることを提案している。しかしながら、シーンの大きな動きがある場合、時間方向に沿って奥行きマップを正確に予測するためには、オブジェクトの動きを考慮に入れる必要がある。
したがって、時間的なジッタリング・アーチファクトを軽減するよう時間方向に沿って奥行きマップ抽出プロセスを安定化させる技法が必要とされている。さらに、時間にわたるあるいは画像シーケンスにわたるオブジェクトの動きを考慮に入れる奥行きマップ抽出技法が必要とされている。
前方および後方奥行き予測による、画像の空間時間的奥行き抽出のためのシステムおよび方法が提供される。本開示のシステムおよび方法は、時間方向に沿って奥行きマップ抽出プロセスを安定させる一方、オブジェクトの動きを考慮に入れ、きわめて正確な奥行きマップを与える。
本開示のある側面によれば、少なくとも二つの画像をステレオマッチングする方法が提供される。本方法は、シーンからの第一の画像および第二の画像のシーケンスを取得する段階であって、前記シーケンスは前記第一および第二の画像の複数の相続くフレームを含む、段階と、少なくとも一つのフレームについて、前記第一の画像中の少なくとも一つの点の前記第二の画像中の少なくとも一つの対応する点との視差(disparity)を推定する段階と、前記少なくとも一つのフレームから少なくとも一つの次の後続フレームにかけての前記第一の画像中の前記少なくとも一つの点の動きを推定する段階と、前記シーケンスの第一の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定する段階であって、前記少なくとも一つの次の後続フレームの推定視差は前記推定された動きによって補償される、段階と、前記シーケンスの第二の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化する段階とを含む。前記第一の画像は左眼視画像を含み、前記第二の画像は立体視対の右眼視画像を含む。
本開示のもう一つの側面によれば、少なくとも二つの画像をステレオマッチングするシステムが提供される。本システムは、シーンからの第一の画像および第二の画像を取得する手段であって、前記シーケンスは前記第一および第二の画像の複数の相続くフレームを含む、手段と、少なくとも一つのフレームから少なくとも一つの後続フレームにかけての前記第一の画像中の少なくとも一つの点の動きを推定する動き補償器と、少なくとも一つのフレームについて、前記第一の画像中の前記少なくとも一つの点の前記第二の画像中の少なくとも一つの対応する点との視差を推定し、前記シーケンスの第一の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定し、ここで、前記少なくとも一つの次の後続フレームの推定された視差は前記推定された動きによって補償され、前記シーケンスの第二の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化するよう構成された視差推定器とを有する。
本開示のさらなる側面によれば、少なくとも二つの画像をステレオマッチングする方法ステップを実行するために機械によって実行可能な命令のプログラムを有形的に具現する、機械によって読み取り可能なプログラム記憶デバイスが提供される。前記方法は、シーンからの第一の画像および第二の画像のシーケンスを取得する段階であって、前記シーケンスは前記第一および第二の画像の複数の相続くフレームを含む、段階と、少なくとも一つのフレームについて、前記第一の画像中の少なくとも一つの点の前記第二の画像中の少なくとも一つの対応する点との視差を推定する段階と、前記少なくとも一つのフレームから少なくとも一つの次の後続フレームにかけての前記第一の画像中の前記少なくとも一つの点の動きを推定する段階と、前記シーケンスの第一の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定する段階であって、前記少なくとも一つの次の後続フレームの推定視差は前記推定された動きによって補償される、段階と、前記シーケンスの第二の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化する段階とを含む。
本開示のこれらおよびその他の側面、特徴および利点は、付属の図面との関連で読まれるべき好ましい実施形態の以下の詳細な説明において記述され、これから明白と成るであろう。
図面において、同様の参照符号は諸図を通じて同様の要素を表す。
本開示のある側面に基づく、少なくとも二つの画像をステレオマッチングするシステムの例示的な図解である。 本開示のある側面に基づく、少なくとも二つの画像をステレオマッチングする例示的な方法の流れ図である。 シーンにおける関心のある点について取られる二つの画像の間のエピポーラー幾何学を示す図である。 視差と奥行きの間の関係を示す図である。 本開示のある側面に基づく、少なくとも二つの画像の視差を推定する例示的な方法の流れ図である。 本開示のある側面に基づく、オブジェクト動き補償を用いた奥行き抽出の例示的な方法の流れ図である。 立体視画像の相続くフレームのシーケンスについての奥行きマップを向上させるための前方および後方予測プロセスを示す図である。 本開示のある側面に基づく、前方動き場を使った前方および後方歪め(warping)を示す図である。
図面は本開示の概念を理解する目的のためであり、必ずしも本開示を例解する唯一可能な構成ではないことは理解しておくべきである。
図面に示される要素はハードウェア、ソフトウェアまたはその組み合わせのさまざまな形で実装されうることは理解しておくべきである。好ましくは、これらの要素はハードウェアおよびソフトウェアの、一つまたは複数の適切にプログラムされた汎用デバイス上での組み合わせにおいて実装される。汎用デバイスはプロセッサ、メモリおよび入出力インターフェースを含んでいてもよい。
本記述は、本開示の原理を例解するものである。よって、当業者が、本稿において明示的に記述または図示されていなくても、本開示の原理を具現し、その精神および範囲内に含まれるさまざまな構成を考案できるであろうことは理解されるであろう。
本稿で記載されるあらゆる例および条件付きの言辞は、読者が、本開示の原理および当該技術を進歩させる発明者によって寄与される概念を理解するのを支援するという教育目的のために意図されているのであって、そのような個別的に記載されている例および条件に限定することなく解釈されるものである。
さらに、本開示の原理、側面および実施形態ならびにその個別的な例を記載する本稿におけるあらゆる陳述は、その構造的および機能的な等価物の両方を包含することが意図されている。さらに、そのような等価物は、現在知られている等価物および将来開発される等価物、すなわち構造にかかわりなく同じ機能を実行する任意の開発された要素の両方を含むことが意図されている。
よって、たとえば、当業者は、本稿に呈示されるブロック図が本開示の原理を具現する例示的な回路の概念図を表すものであることを理解するであろう。同様に、フローチャート、流れ図、状態遷移図、擬似コードなどはいずれも、コンピュータ可読媒体において実質的に表現され、コンピュータまたはプロセッサによって実行されうるさまざまなプロセスを表すことが理解されるであろう。これはそのようなコンピュータまたはプロセッサが明示的に示されているかどうかにはよらない。
図面に示されるさまざまな要素の機能は、専用ハードウェアの使用を通じて提供されても、適切なソフトウェアとの関連でソフトウェアを実行することのできるハードウェアの使用を通じて提供されてもよい。プロセッサによって提供されるとき、機能は単一の専用プロセッサによって、単一の共有されるプロセッサによって、あるいは一部が共有されていてもよい複数の個別プロセッサによって提供されうる。さらに、用語「プロセッサ」または「コントローラ」の明示的な使用は、ソフトウェアを実行することのできるハードウェアのみを指すものと解釈されるべきではなく、暗黙的に、限定なしに、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するための読み出し専用メモリ(「ROM」)、ランダム・アクセス・メモリ(「RAM」)および不揮発性記憶装置を含みうる。
通常のものおよび/またはカスタムのものを含め他のハードウェアも含まれてもよい。同様に、図面に示されるスイッチがあったとしても、それは単に概念的なものである。その機能はプログラム論理の動作を通じて、専用論理を通じて、プログラム制御と専用論理の相互作用を通じて、あるいはさらに手動で実行されてもよい。特定の技法は、コンテキストからより個別に理解されるように実装者によって選択可能である。
本願の請求項では、特定の機能を実行する手段として表現されたいかなる要素も、その機能を実行するいかなる仕方をも、たとえばa)その機能を実行する回路素子の組み合わせまたはb)任意の形の、したがってファームウェア、マイクロコードなどを含む、当該機能を実行するソフトウェアを実行するための適切な回路と組み合わされたソフトウェアを包含することが意図されている。そのような請求項によって定義される本開示は、前記さまざまな記載される手段によって提供される機能性が請求項が記載する仕方で組み合わされ、一緒にされるという事実にある。よって、これらの機能性を提供できる任意の手段が本稿で示されている手段と等価であると見なされる。
ステレオマッチングは、立体視画像、たとえば左眼視画像および右眼視画像から奥行きマップを推定する標準的な方法である。従来の裸眼立体視ディスプレイ上での3D再生は、奥行きマップのなめらかさが、結果として得られる3D再生の見え方に著しく影響することを示している。なめらかでない奥行きマップは、しばしば、3D再生におけるジグザグのエッジにつながる。これは、より低精度の奥行き値をもつなめらかな奥行きマップの再生よりも視覚的には悪い。したがって、奥行きマップのなめらかさは、3Dディスプレイおよび再生アプリケーションのためには奥行き精度よりも重要である。さらに、3Dディスプレイ・アプリケーションでは、奥行き推定について、グローバルな最適化に基づくアプローチが必要である。本開示は、奥行きマップのなめらかさを改善するために時間的情報を取り入れる奥行き抽出技法を提起する。多くの立体視技術は、空間的一貫性〔コヒーレンス〕およびデータとの整合性〔コンシステンシー〕を強制するコスト関数を最適化する。画像シーケンスについては、抽出される奥行きマップの精度を改善するために時間成分が重要である。さらに、シーンまたは画像シーケンスにおいてオブジェクトの大きな動きがある場合、時間方向に沿って奥行きマップを正確に予測するためにオブジェクトの動きが考慮に入れられる。
動き補償のある、画像の空間時間的奥行き抽出のためのシステムおよび方法が提供される。本開示のシステムおよび方法は、奥行きマップのなめらかさを改善するために時間的情報を取り入れる奥行き抽出技法を提供する。本開示の技法は、前方および後方パスを取り入れる。ここでは、画像シーケンスのあるフレームの前の奥行きマップが、現在フレームの奥行き抽出を初期化または予測するために使われる。これは計算をより高速に、より正確にする。本システムおよび方法はさらに、奥行き予測の精度を上げるためにオブジェクトの動き補償を用いる。すると、奥行きマップまたは視差マップは、3D再生のために、立体視画像対とともに利用できる。本開示の技法は、2D+奥行きのディスプレイにおける3D再生の、奥行きマップの不安定性に起因する時間的ジッタリング・アーチファクトの問題を解決するのに有効である。
ここで図面を参照する。図1には、本開示のある実施形態に基づく例示的なシステム・コンポーネント100が示されている。フィルム・プリント104、たとえばカメラ・オリジナルのフィルム・ネガをスキャンしてデジタル・フォーマット、たとえばCineonフォーマットまたは映画テレビ技術者協会(SMPTE: Society of Motion Picture and Television Engineers)のデジタル画像交換(DPX: Digital Picture Exchange)ファイルにするスキャン装置103が設けられていてもよい。スキャン装置103は、たとえば、テレシネ(telecine)またはフィルムからビデオ出力を生成する任意の装置、たとえばビデオ出力のあるArri LocPro(商標)を有していてもよい。あるいはまた、ポスト・プロダクション工程またはデジタル・シネマからのファイル106(たとえばすでにコンピュータ可読な形になっているファイル)を直接使うこともできる。コンピュータ可読ファイルの潜在的な源は、AVID(商標)エディタ、DPXファイル、D5テープなどである。
フィルム・プリントをスキャンしたものは後処理装置102、たとえばコンピュータに入力される。このコンピュータは、一つまたは複数の中央処理ユニット(CPU)、ランダム・アクセス・メモリ(RAM)および/または読み出し専用メモリ(ROM)のようなメモリならびにキーボード、カーソル制御装置(たとえばマウスまたはジョイスティック)および表示装置といった入出力(I/O)ユーザー・インターフェース(単数または複数)112のようなハードウェアを有するさまざまな既知のコンピュータ・プラットフォームの任意のもので実装される。コンピュータ・プラットフォームはまた、オペレーティング・システムおよびマイクロ命令コードを含む。本稿に記載されるさまざまなプロセスおよび機能は、マイクロ命令コードの一部、あるいはオペレーティング・システムを介して実行されるソフトウェア・アプリケーション・プログラム(またはその組み合わせ)の一部であってもよい。ある実施形態では、ソフトウェア・アプリケーション・プログラムはプログラム記憶デバイス上で有形的に具現され、後処理装置102のような任意の好適な機械によってアップロードおよび実行されうる。さらに、さまざまな他の周辺装置がコンピュータ・プラットフォームに、さまざまなインターフェースおよびパラレル・ポート、シリアル・ポートまたはユニバーサル・シリアル・バス(USB)といったバス構造によって接続されてもよい。他の周辺装置は、追加的な記憶装置124およびプリンタ128を含んでいてもよい。プリンタ128は、フィルムの修正版126、たとえばそのフィルムの立体視バージョンをプリントするために用いられてもよい。立体視バージョンでは、シーンまたは複数のシーンが以下に記載される技術の結果として3Dモデリングされたオブジェクトを使って変更または置換されていてもよい。
あるいはまた、すでにコンピュータ読み取り可能な形になっているファイル/フィルム・プリント106(たとえば、外部ハード・ドライブ124などに記憶されていてもよいデジタル・シネマ)がコンピュータ102に直接入力されてもよい。本稿において使われる「フィルム(film)」の用語は、フィルム・プリント(film print)またはデジタル・シネマ(digital cinema)のいずれをも指しうることを注意しておく。
ソフトウェア・プログラムは、第一の画像中の少なくとも一つの点を、第二の画像中の少なくとも一つの対応する点とマッチングする、メモリ110内に記憶されているステレオマッチング・モジュール114を含む。ステレオマッチング・モジュール114はさらに、立体視画像対のエピポーラー線を、該エピポーラー線が厳密に画像の水平走査線になるよう調整するよう構成されている画像歪め器(image warper)116を含む。
ステレオマッチング・モジュール114はさらに、前記第一の画像中の前記少なくとも一つの点の、前記第二の画像中の前記少なくとも一つの対応する点との視差を推定し、前記第一の画像中の前記少なくとも一つの点のそれぞれについての、前記第二の画像中の前記少なくとも一つの対応する点との推定された視差から、視差マップを生成するよう構成された視差推定器118を含む。視差推定器118は、第一および第二の画像中のピクセルをマッチングするよう構成されたピクセル・マッチング・コスト関数132と、視差推定になめらかさの制約条件を適用するなめらかさコスト関数134と、時間にわたって生成された視差マップのシーケンスを整列させるよう構成された時間的コスト関数136とを含む。画像中のブロックを画像シーケンスにわたってマッチングさせるための動き場アルゴリズムまたは機能を用いる動き補償器137が設けられる。視差推定器118はさらに、推定された視差を最小にする信頼伝搬(belief propagation[ビリーフ・プロパゲーション])アルゴリズムまたは機能138と、信頼伝搬機能138を高速化するために第一および第二の画像に適用された決定論的マッチング関数の結果で信頼伝搬関数138を初期化する動的プログラミング・アルゴリズムまたは機能140とを含む。
ステレオマッチング・モジュール114はさらに、視差マップの視差値を逆を取る(inverting)ことによって、視差マップを奥行きマップに変換する奥行きマップ生成器120を含む。
図2は、本開示のある側面に基づく少なくとも二つの二次元(2D)画像のステレオマッチングのための例示的な方法の流れ図である。まず、ステップ202において、後処理装置102は少なくとも二つの2D画像、たとえば左眼および右眼のビューをもつ立体画像対を取得する。後処理装置102は、コンピュータ可読フォーマットのデジタル・マスター画像ファイルを取得することによって、前記少なくとも二つの2D画像を取得してもよい。デジタル・ビデオ・ファイルは、デジタル・カメラで動画の時間的シーケンスを捕捉することによって取得されてもよい。あるいはまた、従来のフィルム式カメラによってビデオ・シーケンスが捕捉されてもよい。このシナリオでは、フィルムはスキャン装置103によりスキャンされる。
フィルムがスキャンされるのであれすでにデジタル・フォーマットになっているのであれ、フィルムのデジタル・ファイルがフレームの位置についての指標または情報、たとえばフレーム番号、フィルム先頭からの時間などを含むであろうことは理解しておくべきである。デジタル画像ファイルの各フレームは一つの画像、たとえばI1、I2、…、Inを含む。
立体視画像は、同じセッティングをもつ二つのカメラによって撮影できる。それらのカメラが同じ焦点距離、焦点高さおよび平行な焦点面をもつよう較正されているか、そうでなければ画像を既知のカメラ・パラメータに基づいて、あたかも平行な焦点面をもつカメラによって撮影されたかのように歪める必要がある(ステップ204)。この歪め工程は、カメラ較正(calibration)(ステップ206)およびカメラ矯正(rectification)(ステップ208)を含む。較正および矯正工程は、立体視画像のエピポーラー線を調整して、該エピポーラー線がちょうど画像の水平走査線になるようにする。図3を参照するに、OLおよびORは二つのカメラの焦点を表し、Pは両方のカメラの関心のある点を表し、pLおよびpRは点Pが画像平面上のどこに投影されるかを表す。各焦点面上の交差点はエピポールと呼ばれる(ELおよびERと表される)。右のエピポーラー線、たとえばER-pRは、焦点中心と左画像上の諸点をつなぐ射線(rays)の、右画像上の投影である。よって、左画像上の点に対応する右画像上の点は右画像上でエピポーラー線に位置されるべきである。左エピポーラー線、たとえばEL-pLについても同様である。対応点の発見は、エピポーラー線に沿って起こるので、矯正プロセスは、対応探索を、走査線に沿ってのみの探索に単純化する。これは、計算コストを大幅に削減する。対応点とは、同じシーン点に対応する画像中のピクセルである。
再び図2を参照するに、ステップ210で、視差マップがシーン内のすべての点について推定される。ひとたび対応点が見出されると、すべてのシーン点についての視差が、左眼と右眼の画像におけるマッチした点の相対距離として計算される。たとえば、図2と関連して図4を参照するに、左眼画像中の点402の水平座標がxであり、右眼画像中の対応する点404の水平座標がx′であるとすると、視差d=x′−xとなる。次いで、ステップ212において、シーン点406についての視差値dが奥行き値z、シーン点406(収束点ともいう)からカメラ408、410までの距離に、公式z=Bf/dを使って変換される。ここで、Bは二つのカメラ408、410の間の距離で、基線長(baseline)とも呼ばれ、fはカメラの焦点距離(focal length)である。その証明は図4に示されている。
図5を参照するに、本開示に基づく、上でステップ210として同定された視差マップ推定の方法が提供される。まず、立体視用の画像対が取得される(ステップ502)。視差コスト関数が計算される。これは、ピクセル・コスト関数の計算(ステップ504)、なめらかさコスト関数の計算(ステップ506)および時間的コスト関数の計算(ステップ508)を含む。低コスト・ステレオマッチング最適化、たとえば動的プログラミング(dynamic programming)が実行され、二つの画像のステレオマッチングの初期の決定論的結果が得られる(ステップ510)。シーケンスの最初のフレームについて視差コスト関数を最小化するための信頼伝搬関数を高速化するために、前記低コスト最適化の結果が信頼伝搬関数を初期化するために使われる(512)。シーケンスのその後のフレームについては予測奥行きマップが信頼伝搬関数を初期化するために使われる。
図5に示される視差推定およびその定式化についてこれからより詳細に述べる。視差推定は、上記の作業フローにおいて最も重要なステップである。問題は、左眼画像と右眼画像におけるピクセルをマッチさせる、すなわち、同じシーン点に対応する左右の画像中のピクセルを見出すことにある。視差マップがなめらかであると考えることによって、ステレオマッチング問題は数学的に次のように定式化できる。
C(d(.))=Cp(d(.))+λCs(d(.)) (1)
ここで、d(.)は視差場であり、d(x,y)は座標(x,y)をもつ左眼画像中の点の視差値を与え、Cは全体的なコスト関数であり、Cpはピクセル・マッチング・コスト関数であり、Csはなめらかさコスト関数である。なめらかさコスト関数は、視差マップのなめらかさを強制するために使われる関数である。最適化プロセスの間に、上記のコスト関数はすべての視差場に関して最小化される。局所的な最適化のためには、なめらかさの項Csは落とされる。よって、なめらかさは該最適化プロセスの間は考慮に入れられない。Cpは、種々の形の中でも、ピクセル強度の平均平方差
Cp(d(.))=Σx,y[I(x,y)−I′(x−d(x,y),y)]2 (2)
としてモデル化できる。
なめらかさの制約条件は、縦方向のなめらかさが強制されるかどうかに依存して異なる仕方で書くことができる。水平方向および垂直方向のなめらかさの制約条件が両方とも強制される場合には、なめらかさコスト関数は、次の平均平方誤差関数
Cs(d(.))=Σx,y[d(x,y)−d(x+1,y)]2+[d(x,y)−d(x,y+1)]2 (3)
としてモデル化できる。
次に、時間的制約条件が図6に示されるようにコスト関数において考慮に入れられる。i番目のフレームにおける現在奥行きマップを予測するために、(i−1)番目のフレームにおける前の奥行きマップが使われる。それにより、現在の奥行きマップの推定が直前の奥行きマップによって制約されることができる。ステップ602では、(i−1)番目の左画像604および(i−1)番目の右画像606から(i−1)番目のフレームにおいて推定された奥行きマップがdi-1(.)と表されるとする。i番目のフレームにおける奥行きマップを予測するために、予測奥行きマップd+(.)が使用される。予測奥行きマップd+(.)は、ステップ608で、(i−1)番目のフレームにおける奥行きマップをi番目のフレームに補間することによって計算される。ある実施形態では、動き情報を考えることなく、予測奥行きマップが(i−1)番目のフレームにおける奥行きマップに等しい、すなわちd+(.)=di-1(.)である単純な補間プロセスが使われる。この予測奥行きマップを考慮に入れると、全体的な奥行きコスト関数における時間的な予測項は次のように構築できる。
Ct(d(.))=Σx,y[d(x,y)−d+(x,y)]2 (4)
ステップ610では、現在フレームについてコスト関数が、二つの入力画像、すなわちi番目の左画像612およびi番目の右画像614から計算される。ステップ616で、コスト関数を最小化して最終的な奥行きマップ結果を得る。ステップ618では、(式4に示されるように)計算を高速化するよう予測奥行きマップ(ステップ608で決定された)を使って最小化プロセス(最小化ブロック616)を初期化する。
したがって、全体的なコスト関数は
C(d(.))=Cp(d(.))+λCs(d(.))+μCt(d(.)) (5)
となる。ここで、μは全体的なコスト関数において時間的な予測コスト関数に重み付けする重み付け因子である。μは経験的に決定できる。
上記の予測プロセスの主たる問題は、大きな動きがある場合に予測が不正確になるということである。したがって、本開示のシステムおよび方法は、予測の際にオブジェクトの動きを補償する仕組みを提供する。これについて以下に述べる。
ステップ605において、左眼シーケンスにおける相続くフレーム(たとえば、(i−1)番目の左画像604およびi番目の左画像612)の間の動き場を推定するために、動きアルゴリズムまたは機能が用いられる。そのような動き場は、それぞれ動きの水平成分および垂直成分に対応するスカラー場U(x,y)およびV(x,y)で表せる。ここで、xおよびyは、図8の(a)に示されるようなピクセルの座標である。たとえば、U(2,3)=10、V(2,3)=6であれば、(i−1)番目の左眼画像中の座標(2,3)におけるピクセルは、i番目のフレームでは水平方向に10ピクセル、垂直方向に6ピクセル動く。
動き場U(x,y)およびV(x,y)が与えられ、(i−1)番目のフレームにおいて奥行きマップがdi-1(.)として推定されているとすると、動き補償された予測奥行きマップ(ステップ608で決定される)は
d+ M(.)=Warp(di-1(.),U(.),V(.)) (6)
と表すことができる。ここで、Warp(.)は、ステップ607で(i−1)番目の奥行きマップに適用される動きベクトル場を使って前の奥行きマップを歪める(または変形する)歪めアルゴリズムまたは機能である。奥行きマップを歪める仕方は、予測の方向に依存する。これについて後述する。
オブジェクトの動きを考慮に入れることによって、時間的予測項は、全体的な奥行きコスト関数において、次のように構築できる。
Ct(d(.))=Σx,y[d(x,y)−d+ M(x,y)]2 (7)
ここで、d+ Mは動き補償された予測奥行きマップである。
上記の方法の欠点は、シーケンスの最初のフレームにおいてエラーがあると、そのエラーが、シーケンスの終わりまで、残りのフレームに伝搬するということである。さらに、実験では、シーケンスの最後のフレームにおける奥行きマップがシーケンスの最初の奥行きマップよりもずっとなめらかになることが観察されている。これは、平滑化の効果が時間的制約条件をもつ最適化の際に、諸フレームにわたって蓄積されるからである。
上記の問題を解決するため、図7に示されるように、マルチパスの前方および後方プロセスが提供される。前方および後方プロセスはまず、前方方向〔前向き〕での、すなわちシーケンス中の最初のフレームから最後のフレーム、すなわちN番目のフレームに向けての時間的予測をもって、第一のパス702を実行する。次のパス704では、時間的予測は最後のフレームから出発して、最初のフレームまで後ろ向きに、たとえば(N−1)番目のフレーム、(N−2)番目のフレーム、(N−3)番目のフレーム、……1番目のフレームと進む。前方および後方予測の複数のパスをもつよう、同じ手順を繰り返すことができる。
動き補償のない前方および後方プロセスでは、前方パス702については予測奥行きマップはd+(.)=di-1(.)として設定され、後方パス704については予測奥行きマップはd+(.)=di+1(.)として設定される。動き補償を考慮に入れると、前方パス(forward pass)702については予測奥行きマップは
d+ M(.)=Warpf(di-1(.),U(.),V(.)) (8)
として設定される。ここで、Warpf(.)は前方歪め演算子である。画像Iの前方歪めは、(図8の(b)に示されるように)、Iの画像平面上の各(x,y)について、次式
I(x,y)=Iw(x+U(x,y),y+V(x,y)) (9)
で定義される。すなわち、前方歪めのもとでは、画像I中のピクセルは動きベクトル場U(.)およびV(.)を使ってIwに移される。ここでは基準画像はIである。
同様に、後方(backward)予測704パスについては予測奥行きマップは
d+ M(.)=Warpb(di+1(.),U(.),V(.)) (10)
として設定される。ここで、Warpb(.)は後方歪め演算子である。後方歪めを使うことによって、歪められた画像は、(図8の(c)に示されるように)、Iwの画像平面上の各(x,y)について、次式
Iw(x,y)=I (x−U(x,y),y−V(x,y)) (11)
で定義される。すなわち、後方歪めのもとでは、画像I中のピクセルは動き場U(.)およびV(.)を使ってIwに移し戻される。ここでは基準画像はIwである。前方歪めと後方歪めの間に差がある理由は、動きベクトル場U(.)およびV(.)は常に前向きだということである。すなわち、動きベクトル(U(x,y),V(x,y))は常に(i−1)番目の画像から出発してi番目の画像で終わるのである(図8の(a)に示されるように)。
式5に示される全体的なコスト関数は、推定奥行きマップを得るために、種々の方法を使って最小化できる。ある実施形態では、式5のコスト関数を最小化するために信頼伝搬関数が使われる。信頼伝搬(belief propagation)は、コンピュータ視覚および機械学習において使用される高品質の最適化アルゴリズムである。信頼伝搬関数またはアルゴリズムを高速化するために、低コストの最適化アルゴリズム、たとえば動的プログラミング関数を使って、まず低品質の奥行きマップを得る。次いで、この低品質の奥行きマップを使って信頼伝搬関数またはアルゴリズムを初期化する。
あるさらなる実施形態では、低品質奥行きマップを使って信頼伝搬関数を初期化する代わりに、動き補償された予測奥行きマップd+ M(.)を信頼伝搬関数を初期化するのに用いることができる。すなわち、前方予測の際には、奥行きマップdi(.)が推定されるとき、di-1(.)の動き補償された奥行きマップが信頼伝搬関数を初期化するために用いられる。同様に、後方予測の際には、奥行きマップdi(.)が推定されるとき、di+1(.)の動き補償された奥行きマップが信頼伝搬関数を初期化するために用いられる。この実施形態では、画像のシーケンスについて、低品質の奥行き初期化はシーケンス中の最初の画像フレームについてのみ使用される。シーケンス中の残りのフレームについては、予測奥行きマップが信頼伝搬関数またはアルゴリズムを初期化するために使われる。
図2に戻って参照するに、ステップ212において各シーン点についての視差値dは奥行き値z、シーン点からカメラまでの距離に、次の公式z=Bf/dを使って変換される。ここで、Bは二つのカメラの間の距離で基線長とも呼ばれ、fはカメラの焦点距離である。少なくとも一つの画像のそれぞれ、たとえば左眼視画像についての奥行き値が、奥行きマップに記憶される。対応する画像および関連付けられた奥行きマップはたとえば記憶装置124中に記憶され、3D再生のために取り出されてもよい(ステップ214)。さらに、モーション・ピクチャーまたはビデオ・クリップのすべての画像が関連付けられた奥行きマップと一緒に、そのモーション・ピクチャーまたはクリップの立体視バージョンを表す単一のデジタル・ファイル130に記憶されることができる。デジタル・ファイル130はのちの取得のために、たとえばもとのフィルムの立体視バージョンをプリントするために、記憶装置124中に記憶されてもよい。
本開示の教示を組み込む諸実施形態が本稿において詳細に示され、記述されてきたが、当業者は、数多くの他の変形した、それでいてこれらの教示を取り込んでいる実施形態を容易に考案できる。前方および後方奥行き予測ならびに動き補償を用いた画像の空間時間的奥行き抽出のためのシステムおよび方法についての好ましい実施形態(これは限定するのではなく例解することを意図したものである)を記載してきたが、上記の教示に照らして当業者は修正および変更ができることを注意しておく。したがって、付属の請求項によって記載される本開示の範囲内で、本開示の個別的な実施形態に変更をなしうることは理解しておくものとする。

Claims (25)

  1. 少なくとも二つの画像をステレオマッチングする方法であって:
    シーンからの第一の画像および第二の画像のシーケンスを取得する段階であって、前記シーケンスは前記第一および第二の画像の複数の相続くフレームを含む、段階と;
    少なくとも一つのフレームについて、前記第一の画像中の少なくとも一つの点の前記第二の画像中の少なくとも一つの対応する点との視差を推定する段階と;
    前記少なくとも一つのフレームから少なくとも一つの次の後続フレームにかけての前記第一の画像中の前記少なくとも一つの点の動きを推定する段階と;
    前記シーケンスの第一の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定する段階であって、前記少なくとも一つの次の後続フレームの推定視差は前記推定された動きを用いて補償される、段階と;
    前記シーケンスの第二の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化する段階とを含む、
    方法。
  2. 前記第一の画像は左眼視画像を含み、前記第二の画像は立体視対の右眼視画像を含む、請求項1記載の方法。
  3. 前記少なくとも一つの次の後続フレームの視差を推定する段階が、時間的コスト関数を計算する段階を含む、請求項2記載の方法。
  4. 請求項3記載の方法であって、前記時間的コスト関数を計算する段階がさらに:
    前記少なくとも一つの前のフレームの推定された視差から現在フレームについての視差を予測する段階と;
    前記現在フレームの第一の画像および第二の画像から前記現在フレームの視差を推定する段階と;
    前記現在フレームの推定された視差を最小化する段階とを含み、前記最小化する段階は前記現在フレームについての予測された視差を用いて初期化される、
    方法。
  5. 請求項4記載の方法であって、前記現在フレームについての視差を予測する段階がさらに:
    前記少なくとも一つの前のフレームから前記現在フレームへの動き場を推定する段階と;
    推定された動き場を用いて前記少なくとも一つの前のフレームの推定された視差を歪める段階とを含む、
    方法。
  6. 請求項5記載の方法であって、前記シーケンスの第二の方向の推定された視差を最小化する段階がさらに:
    推定された動き場を用いて少なくとも一つの前のフレームへ前記現在フレームの推定された視差を歪める段階を含む、
    方法。
  7. 請求項1記載の方法であって、信頼伝搬機能を使って前記少なくとも一つのフレームについての推定された視差を最小化する段階をさらに含み、前記信頼伝搬機能は、低コストの最適化機能によって決定された前記少なくとも一つのフレームの推定された視差を用いて初期化される、方法。
  8. 請求項7記載の方法であって、信頼伝搬機能を使って前記少なくとも一つの後続フレームの推定された視差を最小化する段階をさらに含み、前記信頼伝搬機能は、前記少なくとも一つの前のフレームの動き補償された推定された視差を用いて初期化される、方法。
  9. 請求項3記載の方法であって、前記視差を推定する段階がピクセル・マッチング・コスト関数を計算する段階を含む、方法。
  10. 請求項3記載の方法であって、前記視差を推定する段階がなめらかさコスト関数を計算する段階を含む、方法。
  11. 少なくとも二つの画像をステレオマッチングするシステムであって:
    シーンからの第一の画像および第二の画像を取得する手段であって、前記シーケンスは前記第一および第二の画像の複数の相続くフレームを含む、手段と;
    少なくとも一つのフレームから少なくとも一つの後続フレームにかけての前記第一の画像中の少なくとも一つの点の動きを推定する動き補償器と;
    少なくとも一つのフレームについて、前記第一の画像中の前記少なくとも一つの点の前記第二の画像中の少なくとも一つの対応する点との視差を推定し、前記シーケンスの第一の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定し、ここで、前記少なくとも一つの次の後続フレームの推定された視差は前記推定された動きを用いて補償され、前記シーケンスの第二の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化するよう構成された視差推定器とを有する、
    システム。
  12. 前記第一の画像は左眼視画像を含み、前記第二の画像は立体視対の右眼視画像を含む、請求項11記載のシステム。
  13. 前記視差推定器が、時間的コスト関数を含む、請求項11記載のシステム。
  14. 請求項17記載のシステムであって、前記視差推定器がさらに、前記少なくとも一つの前のフレームの推定された視差から現在フレームについての視差を予測し、前記現在フレームの第一の画像および第二の画像から前記現在フレームの視差を推定し、前記現在フレームの推定された視差を最小化するよう構成されており、前記最小化する段階は前記現在フレームについての予測された視差を用いて初期化される、システム。
  15. 請求項14記載のシステムであって、前記動き補償器がさらに、前記少なくとも一つの前のフレームから前記現在フレームへの動き場を推定するよう構成されており、前記視差推定器がさらに、推定された動き場を用いて前記少なくとも一つの前のフレームの推定された視差を歪めるよう構成されている、システム。
  16. 請求項15記載のシステムであって、前記視差推定器がさらに、前記シーケンスの第二の方向の推定された視差を最小化するのを、推定された動き場を用いて少なくとも一つの前のフレームへ前記現在フレームの推定された視差を歪める段階を含む、システム。
  17. 請求項11記載のシステムであって、前記視差推定器がさらに、信頼伝搬機能を使って前記少なくとも一つのフレームについての推定された視差を最小化するよう構成されており、前記信頼伝搬機能は、低コストの最適化機能によって決定された前記少なくとも一つのフレームの推定された視差を用いて初期化される、システム。
  18. 請求項17記載のシステムであって、前記視差推定器がさらに、信頼伝搬機能を使って前記少なくとも一つの後続フレームの推定された視差を最小化するよう構成されており、前記信頼伝搬機能は、前記少なくとも一つの前のフレームの動き補償された推定された視差を用いて初期化される、システム。
  19. 請求項13記載のシステムであって、前記視差推定器がピクセル・マッチング・コスト関数を含む、システム。
  20. 請求項13記載のシステムであって、前記視差推定器がなめらかさコスト関数を含む、システム。
  21. 少なくとも二つの画像をステレオマッチングするための方法ステップを実行するために機械によって実行可能な命令のプログラムを有形的に具現する、機械によって読み取り可能なプログラム記憶デバイスが提供であって、前記方法は:
    シーンからの第一の画像および第二の画像のシーケンスを取得する段階であって、前記シーケンスは前記第一および第二の画像の複数の相続くフレームを含む、段階と;
    少なくとも一つのフレームについて、前記第一の画像中の少なくとも一つの点の前記第二の画像中の少なくとも一つの対応する点との視差を推定する段階と;
    前記少なくとも一つのフレームから少なくとも一つの次の後続フレームにかけての前記第一の画像中の前記少なくとも一つの点の動きを推定する段階と;
    前記シーケンスの第一の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記少なくとも一つの次の後続フレームの視差を推定する段階であって、前記少なくとも一つの次の後続フレームの推定視差は前記推定された動きを用いて補償される、段階と;
    前記シーケンスの第二の方向の少なくとも一つの前のフレームの推定された視差に基づいて、前記複数の相続くフレームのそれぞれの推定された視差を最小化する段階とを含む、
    プログラム記憶デバイス。
  22. 前記少なくとも一つの次の後続フレームの視差を推定する段階が、時間的コスト関数を計算する段階を含む、請求項21記載のプログラム記憶デバイス。
  23. 請求項22記載のプログラム記憶デバイスであって、前記時間的コスト関数を計算する段階がさらに:
    前記少なくとも一つの前のフレームの推定された視差から現在フレームについての視差を予測する段階と;
    前記現在フレームの第一の画像および第二の画像から前記現在フレームの視差を推定する段階と;
    前記現在フレームの推定された視差を最小化する段階とを含み、前記最小化する段階は前記現在フレームについての予測された視差を用いて初期化される、
    プログラム記憶デバイス。
  24. 請求項23記載のプログラム記憶デバイスであって、前記現在フレームについての視差を予測する段階がさらに:
    前記少なくとも一つの前のフレームから前記現在フレームへの動き場を推定する段階と;
    推定された動き場を用いて前記少なくとも一つの前のフレームの推定された視差を歪める段階とを含む、
    プログラム記憶デバイス。
  25. 請求項24記載のプログラム記憶デバイスであって、前記シーケンスの第二の方向の推定された視差を最小化する段階がさらに:
    推定された動き場を用いて少なくとも一つの前のフレームへの前記現在フレームの推定された視差を歪める段階を含む、
    プログラム記憶デバイス。
JP2011514554A 2008-06-24 2008-06-24 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法 Expired - Fee Related JP5153940B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/007895 WO2009157895A1 (en) 2008-06-24 2008-06-24 System and method for depth extraction of images with motion compensation

Publications (2)

Publication Number Publication Date
JP2011525657A true JP2011525657A (ja) 2011-09-22
JP5153940B2 JP5153940B2 (ja) 2013-02-27

Family

ID=40467166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011514554A Expired - Fee Related JP5153940B2 (ja) 2008-06-24 2008-06-24 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US8422766B2 (ja)
EP (1) EP2300987B1 (ja)
JP (1) JP5153940B2 (ja)
CN (1) CN102077246A (ja)
CA (1) CA2729106A1 (ja)
WO (1) WO2009157895A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061446A1 (ja) * 2012-10-19 2014-04-24 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
JP2015516751A (ja) * 2012-04-13 2015-06-11 コーニンクレッカ フィリップス エヌ ヴェ 奥行きシグナリングデータ
JP2016001841A (ja) * 2014-06-12 2016-01-07 トヨタ自動車株式会社 視差画像生成装置、視差画像生成方法及び画像
CN109791697A (zh) * 2016-09-12 2019-05-21 奈安蒂克公司 使用统计模型从图像数据预测深度
WO2019202809A1 (ja) * 2018-04-17 2019-10-24 ソニー株式会社 信号処理装置及び信号処理方法、並びに撮像装置

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101790103B (zh) * 2009-01-22 2012-05-30 华为技术有限公司 一种视差计算方法及装置
WO2010087955A1 (en) * 2009-01-30 2010-08-05 Thomson Licensing Coding of depth maps
JP5407957B2 (ja) 2009-06-29 2014-02-05 ソニー株式会社 立体画像データ送信装置および立体画像データ受信装置
KR101626057B1 (ko) * 2009-11-19 2016-05-31 삼성전자주식회사 3뷰 영상의 디스패리티 추정 방법 및 장치
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
JP2012044625A (ja) * 2010-08-23 2012-03-01 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US20120194642A1 (en) * 2011-02-01 2012-08-02 Wen-Nung Lie Motion picture depth information processing system and method
TWI478575B (zh) * 2011-06-22 2015-03-21 Realtek Semiconductor Corp 3d影像處理裝置
JP2013066075A (ja) * 2011-09-01 2013-04-11 Sony Corp 送信装置、送信方法および受信装置
US9129378B2 (en) * 2011-09-07 2015-09-08 Thomson Licensing Method and apparatus for recovering a component of a distortion field and for determining a disparity field
WO2013058735A1 (en) 2011-10-18 2013-04-25 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
CN110139108B (zh) 2011-11-11 2023-07-18 Ge视频压缩有限责任公司 用于将多视点信号编码到多视点数据流中的装置及方法
KR20130057327A (ko) * 2011-11-23 2013-05-31 엘지이노텍 주식회사 스테레오 매칭 시스템의 전처리 장치
JP6182866B2 (ja) * 2012-03-21 2017-08-23 株式会社リコー 校正装置、距離計測装置及び車両
TR201811588T4 (tr) * 2012-04-24 2018-09-21 Vestel Elektronik Sanayi Ve Ticaret Anonim Sirketi Aykırılığı belirlemeye yönelik yöntem ve görüntü işleme cihazı.
FR2991448B1 (fr) 2012-06-01 2015-01-09 Centre Nat Rech Scient Procede de mesures tridimensionnelles par stereo-correlation utilisant une representation parametrique de l'objet mesure
JP2015019204A (ja) * 2013-07-10 2015-01-29 ソニー株式会社 画像処理装置および画像処理方法
TWI520098B (zh) * 2014-01-28 2016-02-01 聚晶半導體股份有限公司 影像擷取裝置及其影像形變偵測方法
JP2015146526A (ja) 2014-02-03 2015-08-13 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR102350232B1 (ko) * 2014-11-20 2022-01-13 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
JP6425534B2 (ja) * 2014-12-25 2018-11-21 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US10200666B2 (en) * 2015-03-04 2019-02-05 Dolby Laboratories Licensing Corporation Coherent motion estimation for stereoscopic video
KR102459853B1 (ko) 2017-11-23 2022-10-27 삼성전자주식회사 디스패리티 추정 장치 및 방법
WO2019133640A1 (en) * 2017-12-29 2019-07-04 PlusAI Corp Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same
CN108932734B (zh) * 2018-05-23 2021-03-09 浙江商汤科技开发有限公司 单目图像的深度恢复方法及装置、计算机设备
US10803606B2 (en) * 2018-07-19 2020-10-13 National Taiwan University Temporally consistent belief propagation system and method
KR102219561B1 (ko) * 2018-11-23 2021-02-23 연세대학교 산학협력단 대응점 일관성에 기반한 비지도 학습 방식의 스테레오 매칭 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007707A (ja) * 1996-04-05 2004-01-08 Matsushita Electric Ind Co Ltd 視差推定方法、画像伝送装置および画像伝送方法
JP2006509211A (ja) * 2002-12-09 2006-03-16 サーノフ・コーポレーション 多重同期ビデオストリームからの動的奥行き復元
WO2008073998A1 (en) * 2006-12-12 2008-06-19 Microsoft Corporation Image processing system for digital collage

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
US7031497B2 (en) * 2001-11-05 2006-04-18 Koninklijke Philips Electronics N.V. Method for computing optical flow under the epipolar constraint
US7430323B2 (en) * 2003-08-08 2008-09-30 Trustees Of The University Of Pennsylvania Method and apparatus for 4-dimensional image warping
DE102004016593A1 (de) * 2004-04-03 2005-10-20 Eads Space Transp Gmbh Vorrichtung zur Übertragung von Lasten
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
EP1889171A4 (en) * 2005-04-07 2012-11-28 Visionsense Ltd METHOD FOR RECONSTRUCTING A THREE-DIMENSIONAL SURFACE OF AN OBJECT
JP2007077942A (ja) * 2005-09-16 2007-03-29 Shin Daiwa Kogyo Co Ltd クランク室圧縮型2サイクルエンジン及び燃料粒子微細化装置
EP1958458B1 (en) * 2005-11-30 2016-08-17 Telecom Italia S.p.A. Method for determining scattered disparity fields in stereo vision
US7925049B2 (en) * 2006-08-15 2011-04-12 Sri International Stereo-based visual odometry method and system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007707A (ja) * 1996-04-05 2004-01-08 Matsushita Electric Ind Co Ltd 視差推定方法、画像伝送装置および画像伝送方法
JP2006509211A (ja) * 2002-12-09 2006-03-16 サーノフ・コーポレーション 多重同期ビデオストリームからの動的奥行き復元
WO2008073998A1 (en) * 2006-12-12 2008-06-19 Microsoft Corporation Image processing system for digital collage

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015516751A (ja) * 2012-04-13 2015-06-11 コーニンクレッカ フィリップス エヌ ヴェ 奥行きシグナリングデータ
WO2014061446A1 (ja) * 2012-10-19 2014-04-24 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
JP2014085120A (ja) * 2012-10-19 2014-05-12 Hitachi Automotive Systems Ltd ステレオ画像処理装置及びステレオ画像処理方法
JP2016001841A (ja) * 2014-06-12 2016-01-07 トヨタ自動車株式会社 視差画像生成装置、視差画像生成方法及び画像
CN109791697A (zh) * 2016-09-12 2019-05-21 奈安蒂克公司 使用统计模型从图像数据预测深度
KR20190065287A (ko) * 2016-09-12 2019-06-11 나이앤틱, 인크. 통계적 모델을 이용한 이미지 데이터로부터의 깊이 예측
KR102487270B1 (ko) 2016-09-12 2023-01-11 나이앤틱, 인크. 통계적 모델을 이용한 이미지 데이터로부터의 깊이 예측
CN109791697B (zh) * 2016-09-12 2023-10-13 奈安蒂克公司 使用统计模型从图像数据预测深度
WO2019202809A1 (ja) * 2018-04-17 2019-10-24 ソニー株式会社 信号処理装置及び信号処理方法、並びに撮像装置
JPWO2019202809A1 (ja) * 2018-04-17 2021-05-13 ソニーグループ株式会社 信号処理装置及び信号処理方法、並びに撮像装置
US11282223B2 (en) 2018-04-17 2022-03-22 Sony Corporation Signal processing apparatus, signal processing method, and imaging apparatus
JP7211417B2 (ja) 2018-04-17 2023-01-24 ソニーグループ株式会社 信号処理装置及び信号処理方法、並びに撮像装置

Also Published As

Publication number Publication date
CA2729106A1 (en) 2009-12-30
US20110110583A1 (en) 2011-05-12
US8422766B2 (en) 2013-04-16
EP2300987A1 (en) 2011-03-30
JP5153940B2 (ja) 2013-02-27
EP2300987B1 (en) 2014-01-22
WO2009157895A1 (en) 2009-12-30
CN102077246A (zh) 2011-05-25

Similar Documents

Publication Publication Date Title
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
US8787654B2 (en) System and method for measuring potential eyestrain of stereoscopic motion pictures
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
JP5160640B2 (ja) 画像のステレオ・マッチングのためのシステム及び方法
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
JP4892113B2 (ja) 画像処理方法及び装置
KR20110090488A (ko) 시차 서페이스 렌더링을 이용하여 시점을 생성하는 시스템 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120524

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees