JP5425897B2 - 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法 - Google Patents

前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法 Download PDF

Info

Publication number
JP5425897B2
JP5425897B2 JP2011511572A JP2011511572A JP5425897B2 JP 5425897 B2 JP5425897 B2 JP 5425897B2 JP 2011511572 A JP2011511572 A JP 2011511572A JP 2011511572 A JP2011511572 A JP 2011511572A JP 5425897 B2 JP5425897 B2 JP 5425897B2
Authority
JP
Japan
Prior art keywords
depth map
image
disparity
frames
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011511572A
Other languages
English (en)
Other versions
JP2011524120A (ja
Inventor
ザン,ドン−チン
アイザット,アイザット
ヨーン,ヤンシク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011524120A publication Critical patent/JP2011524120A/ja
Application granted granted Critical
Publication of JP5425897B2 publication Critical patent/JP5425897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は一般に、コンピュータ・グラフィクス処理及び表示システムに関し、特に、前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法に関する。
立体視撮像は、3次元(「3D」)深度のイリュージョンをもたらすために、わずかに異なる視点から撮られたシーンの少なくとも2つの画像を視覚的に組み合わせる処理である。この手法は、人間の眼が、一定の距離だけ離れており、したがって、ちょうど同じシーンを視たくないということに依存する。異なる視点からの画像を眼それぞれに与えることにより、観察者の眼をだまして、深度を知覚させる。通常、別個の2つの視点が与えられる場合、成分画像は、「左」画像及び「右」画像として表される(それぞれ参照画像及び補完画像としても知られている)。しかし、3つ以上の視点を組み合わせて立体視画像を形成することができるということを当業者は認識するであろう。
3Dポストプロダクションの、視覚効果(「VFX」)ワークフロー及び3D表示の適用例では、重要な処理は、左眼ビュー及び右眼ビュー画像を含む立体視画像から深度マップを推定することである。例えば、最近商用化された自動立体視3Dディスプレイは、画像プラス深度マップの入力形式を必要とし、よって、ディスプレイは、複数の視野角をサポートするために別々の3Dビューを生成することが可能である。
ステレオ画像対から深度マップを推定する処理は、コンピュータ視覚の調査の分野では、ステレオ・マッチングと呼ばれる。左眼ビュー画像及び右眼ビュー画像における対応する点を求めるために画素マッチング又はブロック・マッチングが使用されるからである。最近では、深度マップを推定する処理は、3Dディスプレイ界では深度抽出としても知られている。深度値は、シーン内の同じ点に対応する画像内の2つの画素間の相対距離から推定される。
ディジタル画像のステレオ・マッチングは、3次元(3D)深度情報を提供するために、多くのコンピュータ視覚アプリケーション(例えば、コンピュータ支援製図(CAD)のための高速オブジェクト・モデリング及びプロトタイピング、人間・コンピュータ相互作用(HCI)のためのオブジェクト・セグメント化及び検出、ビデオ圧縮及び視覚監視)において広く使用されている。ステレオ・マッチングにより、シーン内の別々の位置及び向きに配置された2つ以上のカメラからシーンの画像が得られる。前述のディジタル画像は、ほぼ同じ時点及び位置(点)において各カメラから得られ、空間内の3D点に対応する画像それぞれがマッチングされる。一般に、別々の画像からの点が、画像の一部分をサーチし、制約(エピポーラ制約など)を使用して、一画像内の点を別の画像内の点に相関させることによってマッチングされる。
深度マップ抽出に関するかなりの研究が存在している。深度抽出に関する研究の大半は、ビデオでなく単一の立体視画像対に焦点を当てる。しかし、画像でなくビデオが、家電界では有力なメディアである。ビデオの場合、単一の画像対でなく、立体視画像対の系列が使用される。従来の手法では、静的深度抽出アルゴリズムが各フレーム対に適用される。大半の場合、出力深度マップの品質は、3Dプレイバックに十分である。しかし、大量のテクスチャのフレームの場合、時間ジッタ・アーチファクトがみられ得る。深度マップが時間方向に(すなわち、画像対系列に対する期間にわたって)正確に整列されないからである。
したがって、時間ジッタ・アーチファクトを削減するために時間方向に沿って深度マップ抽出処理を安定化させるための手法に対する必要性が存在している。
本開示の局面によれば、前方及び後方の深度予測を伴う、画像の時空間深度抽出のシステム及び方法が提供される。本開示のシステム/方法は、いくつかのフレームを取得する手段/工程と、いくつかのフレーム内の先行フレームの深度マップに基づいていくつかのフレームにおける現在のフレームの第1の深度マップを生成する手段/工程と、いくつかのフレーム内の後続フレームの深度マップに基づいていくつかのフレームにおける現在のフレームの第2の深度マップを生成する手段/工程と、第1の深度マップ及び第2の深度マップを処理して現在のフレームの第3の深度マップを生成する手段/工程とを含む。
本開示の局面による、少なくとも2つの画像をステレオ・マッチングさせるシステムを略示する図である。 本開示の局面による、少なくとも2つの画像をステレオ・マッチングさせる例示的な方法を示すフロー図である。 シーン内の関心点について得られる2つの画像間のエピポーラ幾何形状を示す図である。 ディスパリティと深度との間の関係を示す図である。 本開示の局面による、少なくとも2つの画像のディスパリティを推定する例示的な方法を示すフロー図である。 本発明の一局面による、時空間深度抽出の例示的方法を示すフロー図である。 立体視画像の連続フレームの系列の深度マップを拡充するための前方及び後方の予測処理を示す図である。 本開示の一局面による、深度マップを生成する例示的方法を示すフロー図である。
本開示の前述及び他の局面、構成及び利点は、添付図面とともに読まれる好ましい実施例の以下の詳細な説明に記載されており、前述の説明から明らかになるであろう。
図面では、同じ参照符号は、図を通して同じ構成要素を表す。
図面は、本開示の概念を例証する目的のためであり、本発明を例証するために考えられる唯一の構成で必ずしもない。
図に示す構成要素は、種々の形態のハードウェア、ソフトウェア、又はそれらの組合せで実現することができる。好ましくは、前述の構成要素は、プロセッサ、メモリ、及び入出力インタフェースを含み得る適切にプログラムされた1つ又は複数の汎用装置上のハードウェア及びソフトウェアの組合せで実現される。
本明細書は、本開示の原理を示す。よって、当業者は、本明細書及び特許請求の範囲に明示的に説明するか、又は示していないが、本開示の原理を実施し、その趣旨及び範囲の範囲内に含まれる種々の構成を考え出すことができるであろう。
本明細書及び特許請求の範囲記載の例、及び条件付言語は全て、本開示の原理、及び当該技術分野を発展させるために本発明者が貢献する概念を読者が理解することを支援するための教示の目的を意図しており、前述の、特に記載した例及び条件への限定なしであると解釈するものとする。
更に、本開示の原理、局面、及び実施例、並びにそれらの具体例を記載した、本明細書及び特許請求の範囲の記載は全て、その構造的均等物及び機能的均等物を包含することを意図している。更に、前述の均等物は、現在知られている均等物、及び将来に開発される均等物(すなわち、構造にかかわらず、同じ機能を行う、開発された何れかの構成要素)をともに含むことが意図されている。
よって、例えば、本明細書及び特許請求の範囲に提示されたブロック図が、本開示の原理を実施する例証的な回路の概念図を表すことは当業者によって認識されるであろう。同様に、フローチャート、流れ図、状態遷移図、擬似コード等は何れも、コンピュータ読み取り可能な媒体において実質的に表し、コンピュータ又はプロセッサにより、前述のコンピュータ又はプロセッサが明記されているかにかかわらず、実行し得る種々の処理を表す。
図に示す種々の構成要素の機能は、専用ハードウェア、及び適切なソフトウェアに関連してソフトウェアを実行することができるハードウェアの使用によって提供することができる。プロセッサによって提供される場合、機能は、単一の専用プロセッサによって提供されるか、単一の共有プロセッサによって提供されるか、又は、複数の個々のプロセッサ(この一部は共有であり得る)によって提供され得る。更に、「プロセッサ」又は「コントローラ」の語を明示的に使用していることは、ソフトウェアを実行することができるハードウェアを排他的に表すと解するべきでなく、暗黙的には、無制限に、ディジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するための読み取り専用メモリ(「ROM」)、ランダム・アクセス・メモリ(「RAM」)及び不揮発性記憶装置を含み得る。
他のハードウェア(汎用及び/又はカスタム)も含まれ得る。同様に、図に示すスイッチは何れも概念のみである。前述の機能は、プログラム・ロジックの動作によるか、専用ロジックによるか、プログラム制御及び専用ロジックの相互作用によるか、又は手作業によって行うことができ、特定の手法は、前後関係からより具体的に分かるように実現者によって選択可能である。
本願の特許請求の範囲では、特定の機能を行う手段として表される構成要素は何れも、その機能を行う何れの手段(例えば、a)その機能を行う回路構成要素の組合せや、b)機能を行うためにそのソフトウェアを実行するための適切な回路と組み合わせた、ファームウェア、マイクロコード等を含む、何れかの形態のソフトウェア)も包含することが意図される。前述の特許請求の範囲で規定された本開示は、記載された種々の手段によって提供される機能が、請求項が要求するやり方で組合せられ、集約されるということにおいて存在する。よって、前述の機能を提供することが可能な手段は何れも、本願の明細書及び特許請求の範囲記載のものと均等であるとみなされる。
ステレオ・マッチングが、立体視画像(例えば、左眼ビュー画像及び右眼ビュー画像)から深度マップを推定するための標準的な方法論である。従来の自動立体視ディスプレイ上の3Dプレイバックは、深度マップの平滑度が、結果として生じる3Dプレイバックの外観にかなり影響を及ぼす。平滑でない深度マップは多くの場合、3Dプレイバックにおけるジグザグ・エッジをもたらす。これは、深度値の精度が低い平滑な深度マップのプレイバックよりも視覚的に劣悪である。したがって、深度マップの平滑度は、3Dディスプレイ及びプレイバックのアプリケーションの場合の深度精度よりも重要である。更に、大局的な最適化ベースの手法は、3Dディスプレイ・アプリケーションにおける深度推定に必要である。本開示は、深度マップの平滑度を向上させるために時間情報を組み入れる深度抽出手法を提示する。多くのステレオ手法は、データとの一貫性及び空間コヒーレンスを強化するコスト関数を最適化する。画像系列の場合、時間成分が、抽出された深度マップの精度を向上させるために重要である。
前方及び後方の深度予測を伴う画像の時空間深度抽出のシステム及び方法を提供する。本開示のシステム及び方法は、深度マップの平滑度を向上させるために時間情報を組み入れる深度抽出手法を提供する。本開示の手法は、前方パス及び後方パスを組み入れており、画像系列のフレームの先行深度マップが、現在のフレームにおける深度推定を初期化するために使用され、それにより、計算が高速かつ高精度になる。深度マップ又はディスパリティ・マップはその場合、3Dプレイバックのために立体視画像対とともに利用することが可能である。本開示の手法は、深度マップの不安定度によってもたらされる2D+深度ディスプレイにおける3Dプレイバックの時間ジッタ・アーチファクトの問題の解決において効果的である。
次に図を参照すれば、本開示の実施例による例示的なシステム構成部分を図1に示す。走査装置103は、ディジタル形式(例えば、Cineon形式、又は、Society of Motion Picture and Television Engineers (「SMPTE」) Digital Picture Exchange (DPX」ファイル))にフィルム・プリント104(例えば、カメラオリジナルのネガフィルム)を走査するために提供することができる。例えば、走査装置103は、例えばビデオ出力を備えたArri LocPro(商標)などの、フィルムからのビデオ出力を生成するテレシネ装置又は何れかの装置を含み得る。あるいは、ディジタル・シネマ106又はポストプロダクション処理からのファイル(例えば、既にコンピュータ読み取り可能な形式になっているファイル)を直接使用することが可能である。コンピュータ読み取り可能なファイルの潜在的なソースには、AVID(商標)エディタ、DPXファイル、D5テープ等がある。
走査済フィルム・プリントは、後処理装置102(例えば、コンピュータ)に入力される。コンピュータは、1つ又は複数の中央処理装置(CPU)、ランダム・アクセス・メモリ(RAM)及び/又はリード・オンリ・メモリ(ROM)などのメモリ110、及び、キーボード、カーソル制御装置(例えば、マウス又はジョイスティック)やディスプレイ装置などの入出力(I/O)ユーザ・インタフェース112などのハードウェアを含む種々の既知のコンピュータ・プラットフォームの何れかに実現される。コンピュータ・プラットフォームは、オペレーティング・システム及びマイクロ命令コードも含む。本明細書及び特許請求の範囲記載の種々の処理及び機能は、オペレーティング・システムによって実行されるソフトウェア・アプリケーション・プログラムの一部若しくはマイクロ命令コードの一部(又はそれらの組み合わせ)であり得る。一実施例では、ソフトウェア・アプリケーション・プログラムは、プログラム記憶装置上に有形に実施され、これは、後処理装置102などの何れかの適切なマシンにアップロードされ、上記マシンによって実行され得る。更に、種々の他の周辺装置は、パラレル・ポート、シリアル・ポート、又はユニバーサル・シリアル・バス(USB)などの種々のインタフェース及びバス構造により、コンピュータ・プラットフォームに接続することができる。他の周辺装置は、更なる記憶装置124及びプリンタ128を含み得る。プリンタ128は、フィルム126の修正版(例えば、フィルムの立体視版)をプリントするために使用することができ、シーン、又は複数のシーンは、以下に説明された手法の結果として3Dモデリングされたオブジェクトを使用して改変又は置換されていることがあり得る。
あるいは、コンピュータ読み取り可能な形式に既になっているファイル/フィルム・プリント106(例えば、ディジタル・シネマ(例えば、外部ハード・ドライブ124上に記憶することができる))はコンピュータ102に直接入力することができる。本明細書及び特許請求の範囲記載の「フィルム」の語はフィルム・プリント又はディジタル・シネマを表し得る。
ソフトウェア・プログラムは、第2の画像における少なくとも1つの対応する点と、第1の画像内の少なくとも1つの点をマッチングさせるために、メモリ110に記憶されたステレオ・マッチング・モジュール114を含む。ステレオ・マッチング・モジュール114は、エピポーラ線が画像のちょうど水平走査線であるように立体視画像対のエピポーラ線を調節するよう構成された画像ワーパ116を更に含む。
ステレオ・マッチング・モジュール114は、第2の画像内の対応する少なくとも1つの点との、第1の画像における少なくとも1つの点のディスパリティを推定し、第2の画像内の対応する少なくとも1つの点との、第1の画像における少なくとも1つの点それぞれの推定されたディスパリティからディスパリティ・マップを生成するよう構成されたディスパリティ推定器118を更に含む。ディスパリティ推定器118は、第1の画像及び第2の画像における画素をマッチングするよう構成された画素マッチング・コスト関数132と、ディスパリティ推定に平滑度制約を施すための平滑度コスト関数134と、経時的に、生成されたディスパリティ・マップの系列を合わせるよう構成された時間コスト関数136とを含む。ディスパリティ推定器118は、確率伝播関数138を高速化するために第1の画像及び第2の画像に施される決定論的なマッチング関数の結果により、確率伝播アルゴリズム又は関数138を初期化するよう、推定されたディスプレイ及び動的プログラミング・アルゴリズムを最小にするための確率伝播アルゴリズム又は関数138を更に含む。
ステレオ・マッチング・モジュール114は、ディスパリティ・マップのディスパリティ値を反転させることにより、深度マップにディスパリティ・マップを変換するための深度マップ生成器120を更に含む。
図2は、本開示の局面による、2次元(2D)の少なくとも2つの画像のステレオ・マッチングの例示的な方法のフロー図である。当初、後処理装置102は、少なくとも2つの2次元(2D)画像、例えば、左眼ビュー及び右眼ビューを備えたステレオ画像対を獲得する(工程202)。後処理装置102は、コンピュータ判読な形式でディジタル・マスタ画像ファイルを得ることにより、少なくとも2つの2D画像を獲得することができる。ディジタル・ビデオ・ファイルは、ディジタル・カメラにより、動く画像の時間系列を捕捉することによって獲得することができる。あるいは、ビデオ系列は従来のフィルムタイプのカメラによって捕捉することができる。このシナリオでは、フィルムは走査装置103によって走査される。
フィルムが走査されるか、ディジタル形式に既にあるかにかかわらず、フィルムのディジタル・ファイルは、フレームの位置に関する表示又は情報、例えば、フレーム番号、フィルムの開始からの時間等を含む。
立体視画像は、同じ設定を備えた2つのカメラによって撮ることが可能である。カメラは、同じ焦点距離、焦点高度、及び平行焦点面を有するよう校正されるか、又は、画像は、平行の焦点面でカメラによって撮られたかのように、既知のカメラ・パラメータに基づいてワーピングさせなければならない(工程204)。前述のワーピング処理は、カメラ校正(工程206)及びカメラ矯正(工程208)を含む。校正処理及び矯正処理は、エピポーラ線が厳密に、画像の水平走査線であるように立体視画像のエピポーラ線を調節する。図3を参照すれば、O及びOは2つのカメラの焦点を表し、Pは両方のカメラにおける関心点を表し、p及びpは、画像面上に位置Pが投影される場所を表す。各焦点面上の交点は、エピポール(E及びEによって表す)と呼ばれる。右エピポーラ線(例えば、E−p)は、左画像上の点及び焦点中心を結ぶ光線の右画像上の投影であり、よって、左画像上の画素に対する右画像上の対応する点は、右画像上のエピポーラ線に位置する。左エピポーラ線(例えば、E−p)の場合も同様である。対応する点の探索はエピポーラ線に沿って生起するので、矯正処理は、走査線に沿ってのみのサーチに対応関係サーチを単純化し、これにより、計算コストが大きく削減される。対応する点は、同じシーン点に対応する、画像内の画素である。
次に、工程210で、ディスパリティ・マップがシーン内の全点について推定される。対応する点が求められると、シーン点全てのディスパリティが、左眼画像及び右眼画像内のマッチングされた点の相対距離として算出される。例えば、図4を参照すれば、左目画像402内の点の水平座標がxであり、右眼画像404内のその対応する点の水平座標がx’である場合、ディスパリティd=x’−xである。次いで、工程212では、シーン点406のディスパリティ値dは、式:z=Bf/dを用いて深度値z(シーン点406(収束点としても知られている)からカメラ408、410までの距離)に変換される。ここで、Bは、2つのカメラ408、410間の距離であり、基準線とも呼ばれ、fは、カメラの焦点距離であり、その証しは図4に示す。
図5を参照すれば、本開示に応じて、工程210として上記で明確にしたディスパリティ・マップを推定する方法が提供される。当初、立体視画像対が獲得される(工程502)。画素コスト関数を計算する工程(工程504)、平滑度コスト関数を計算する工程(工程506)、及び時間コスト関数を計算する工程(工程508)を含むディスパリティ・コスト関数が計算される。低コスト・ステレオ・マッチング最適化(例えば、動的プログラミング)が、2つの画像のステレオ・マッチングの当初の決定論的な結果を得るために実行される(工程510)。低コスト最適化の結果が次いで、系列の最初のフレームのディスパリティ・コスト関数を最小化するために確率伝播関数を高速化するよう確率伝播関数を初期化するために使用される(512)。予測深度マップが次いで、系列の後続フレームの確率伝播関数を初期化するために使用される。
ディスパリティ推定、及びその形成(図5に示す)を次いで更に詳細に説明する。ディスパリティ推定は、上記ワークフローにおいて重要な工程である。上記課題は、左眼画像及び右眼画像における画素のマッチング(すなわち、同じシーン点に対応する右画像及び左画像内の画素を求めること)を含む。ディスパリティ・マップが平滑であるとみなすことにより、ステレオ・マッチング課題は以下のように式で表すことが可能である。
C(d(.))=C(d(.))+λC(d(.)) (1)
ここで、d(.)はディスパリティ・フィールドであり、d(x,y)は、座標(x,y)を有する、左眼画像内の点のディスパリティ値を表し、Cは全体コスト関数であり、Cは画素マッチング・コスト関数であり、Cは平滑度コスト関数である。平滑度コスト関数は、ディスパリティ・マップの平滑度を実現するために使用される関数である。最適化処理中、上記コスト・ファンクショナルは、ディスパリティ・フィールド全てに対して最小化される。局所最適化の場合、平滑度の項Cが廃棄される。したがって、最適化処理中、平滑度は考慮に入れられない。Cは、他の形式のうちでも、画素強度の平均二乗差としてモデリングすることが可能である。
Figure 0005425897
平滑度制約は、垂直の平滑度が実現されるか否かに応じて別々に書き込み得る。水平平滑度制約及び垂直平滑度制約が実現される場合、平滑度コスト関数は以下の平均二乗誤差関数としてモデリングすることが可能である。
Figure 0005425897
次に、時間制約は、図6に示すようにコスト関数において考慮に入れられる。(i−1)番目のフレームにおける先行深度マップは、i番目のフレームにおける現在の深度マップを予測するために使用されるので、現在の深度マップの推定は先行深度マップによって制約され得る。工程602では、
(i−1)番目の左画像604及び(i−1)番目の右画像606から、(i−1)番目のフレームにおいて推定される深度マップが「di−1(.)」として表されるものとする。予測深度マップd(.)が、Uhフレームにおいて深度マップを予測するために使用される。予測深度マップd(.)は工程608で、(i−1)番目のフレームにおける深度マップをi番目のフレームに内挿することによって算出される。一実施例では、単純な内挿処理が使用される。ここで、予測深度マップは、動き情報を考慮に入れることなく、(i−1)番目のフレームにおける深度マップに等しい(すなわち、i.e. d(.)=di−1(.)である。
予測深度マップを考慮に入れると、全体深度コスト関数における時間予測項は、
Figure 0005425897
として構成することが可能である。
工程610では、コスト関数は、現在のフレームについて2つの入力画像(すなわち、i番目の左画像612及びi番目の右画像614)から算出される。コスト関数は、工程616において、最終的な深度マップ結果を得るよう最小化される、工程618では、予測深度マップ(工程608において求められる)は、(式4に示す)計算を高速化させるように最小化処理(最小化ブロック616)を初期化するために使用される。
したがって、全体的なコスト関数は、
C(d(.))=C(d(.))+λC(d(.))+μC(d(.)) (5)
であり、ここで、μは、全体コスト関数における時間予測コスト関数を重み付けするための重み付け係数である。μは経験的に求めることが可能である。
上記方法の欠点は、系列の最初のフレームにおいて誤差が存在している場合、その誤差は、系列の最後までフレームの残りに伝播される。更に、実験では、系列内の最後のフレームにおける深度マップは、系列内の最初の深度マップよりもずっと平滑であるということが明らかになった。これは、平滑化効果が、時間的制約を伴う最適化中にフレームに沿って蓄積されるからである。
上記課題を解決するために、マルチパス前方及び後方処理を図7に示すように提供する。前方及び後方の処理はまず、前方方向に(すなわち、系列内の最初のフレームから最後のフレーム(すなわち、(N)番目のフレームに)第1のパス702において時間的予測を行う。次のパス704では、時間的予測は最後のフレームから開始し、最初のフレームまで後方(例えば、(N−1)番目のフレーム、(N−2)番目のフレーム、(N−3)番目のフレーム、1番目のフレーム)に進む。同じ手順を、前方及び後方の予測の複数のパスを有するよう繰り返し得る。
前方処理及び後方処理において、前方パスの場合、予測深度マップはd(.)=di−l(.)として設定され、後方パスの場合、予測深度マップは、d(.)=di−l(.)として設定される。上記手順及び式の残りは、上記のものと同様である。
式5に示す全体コスト関数は、推定された深度マップを得るために種々の手法を使用して最小にすることが可能である。一実施例では、確率伝播関数は式5のコスト関数を最小にするために使用される。確率伝播は、コンピュータ視覚及びマシン学習において使用される高品質最適化アルゴリズムである。確率伝播関数又はアルゴリズムを高速化させるために、低コスト最適化アルゴリズム(例えば、動的プログラミング関数)を、低品質深度マップをまず得るために使用する。次いで、この低品質深度マップは、確率伝播関数又はアルゴリズムを初期化するために使用される。
更なる実施例では、確率伝播関数を初期化するために低品質深度マップを使用する代わりに、確率伝播関数を初期化するために予測深度マップd(.)を使用することが可能である。この実施例では、画像系列について、系列内の最初の画像フレームについてのみ低品質深度初期化が使用される。系列内のフレームの残りについて、予測深度マップが、確率伝播関数又はアルゴリズムを初期化するために使用される。
もう一度、図2を参照すれば、工程212では、シーン点毎のディスパリティ値dが式
z=Bf/d
を使用して、深度値z(シーン点からカメラまでの距離)に変換される。ここで、Bは基準線とも呼ばれる、2つのカメラ間の距離であり、fはカメラの焦点距離である。少なくとも1つの画像それぞれ(例えば、左眼ビュー画像)の深度値が深度マップに記憶される。対応する画像及び関連付けられた深度マップが、例えば、記憶装置124において、記憶され、3Dプレイバックのために取り出すことができる(工程214)。更に、動画像又はビデオ・クリップの画像全てを、動画像又はクリップの立体視版を表す単一のディジタル・ファイル130に、関連付けられた深度マップとともに記憶することが可能である。ディジタル・ファイル130は、後に、例えば、フィルム・オリジナルの立体視版をプリントするために取り出すために記憶装置124に記憶することができる。
次に図8を参照すれば、本開示の一局面による深度マップを生成するための例示的な方法を示す。当初、工程802では、複数のフレームが獲得される。獲得された複数のフレームは、フィルムのシーン、ショット又は他の特定のセグメントであり得る。各フレームは、右眼画像及び左眼画像(例えば、立体視画像対)、参照画像、補完画像、別々の視点を有する複数の画像等を含む。次に、工程804では、深度マップを生成するためのフレーム(例えば、現在のフレーム)が選択される。その後、工程806で、かつ、図6及び図7において表した処理に応じて、選択されたフレームについて、第1の深度マップが生成される。第1の深度マップの生成は、第1の方向(例えば、最も早いフレームから、最も遅いフレームに進む前方方向)に、獲得された複数のフレームを処理することにより、先行深度マップ又は先行する複数の深度マップに基づいて第1の深度マップを推定する工程を含む。次に、工程808では、かつ、図6及び図7に表した処理に応じて、第2の深度マップが、選択されたフレームについて生成される。第2の深度マップ生成は、第2の方向(例えば、最も遅いフレームから最も早いフレームに進む後方方向)に、獲得された複数のフレームを処理することにより、後続深度マップ又は後続する複数の深度マップに基づいて第2の深度マップを推定する工程を含む。最後に、工程810で、別の方向(例えば、第2の深度マップに存在する後方方向に、又は第1の深度マップに存在する前方方向に)フレームを処理することによって生成される補正値を使用して、一方向(例えば、第2の深度マップに存在する後方方向に、又は第1の深度マップに存在する前方方向に)にフレームを介して伝播する誤差は何れも最小にされるか、又は削減され得る。
本開示の教示を組み入れた実施例を本明細書及び特許請求の範囲に表し、説明しているが、前述の教示をなお組み入れた他の多くの変形実施例を容易に考え出すことが可能である。前方及び後方の深度予測を伴う、画像の時空間深度抽出のシステム及び方法の好ましい実施例(例証的であり、限定的でないことを意図している)を説明してきたが、修正及び変形は、前述の教示によって、当該技術分野における当業者によって行うことが可能である。したがって、本発明の特定の実施例において、特許請求の範囲記載の本発明の範囲及び趣旨の範囲内に収まる変更を行うことができる。

Claims (12)

  1. コンピュータにおいて、少なくとも2つの画像をマッチングする方法であって、
    複数のフレームを取得する工程であって、前記複数のフレームにおける各フレームは第1の画像及び第2の画像を含む工程と、
    前記複数のフレーム内の先行フレームの深度マップに基づいて前記複数のフレームにおける現在のフレームの第1の深度マップを生成する工程と、
    前記複数のフレーム内の後続フレームの深度マップに基づいて前記複数のフレームにおける前記現在のフレームの第2の深度マップを生成する工程と、
    前記第1の深度マップ及び前記第2の深度マップを処理して前記現在のフレームの第3の深度マップを生成する工程と
    を含み、
    第1の深度マップを生成する工程及び第2の深度マップを生成する工程は、
    前記第1の画像内の少なくとも1つの点の、前記第2の画像内の対応する少なくとも1つの点とのディスパリティを推定する工程であって、低コスト最適化関数を行う工程、及び前記低コスト最適化関数の結果に基づいて確率伝播関数を計算する工程を含む工程と、
    前記推定されたディスパリティに基づいてディスパリティ・マップを生成する工程と、
    前記推定されたディスパリティ・マップを深度マップに変換する工程と
    を含む方法。
  2. 請求項1記載の方法であって、前記第1の深度マップは前記先行フレームの前記深度マップに基づいた誤差を含み、前記第2の深度マップは前記誤差を低減させるための補正を含む方法。
  3. 請求項1記載の方法であって、前記ディスパリティを推定する工程は、画素マッチング・コスト関数を計算する工程を含む方法。
  4. 請求項1記載の方法であって、前記ディスパリティを推定する工程は、平滑度コスト関数を計算する工程を含む方法。
  5. 請求項1記載の方法であって、前記ディスパリティを推定する工程は、時間コスト関数を計算する工程を含む方法。
  6. 請求項1記載の方法であって、前記第1の画像が立体視対の左眼ビューであり、第2の画像が立体視対の右眼ビューである方法。
  7. 少なくとも2つの画像をマッチングするシステムであって、
    複数のフレームを取得する手段であって、前記複数のフレームにおける各フレームは第1の画像及び第2の画像を含む手段と、
    前記複数のフレーム内の先行フレームの深度マップに基づいて前記複数のフレームにおける現在のフレームの第1の深度マップを生成する手段と、
    前記複数のフレーム内の後続フレームの深度マップに基づいて前記複数のフレームにおける前記現在のフレームの第2の深度マップを生成する手段と、
    前記第1の深度マップ及び前記第2の深度マップを処理して前記現在のフレームの第3の深度マップを生成する手段と
    を備え、
    第1の深度マップを生成する手段及び第2の深度マップを生成する手段は、
    前記第1の画像内の少なくとも1つの点の、前記第2の画像内の対応する少なくとも1つの点とのディスパリティを推定する手段であって、低コスト最適化関数を行う手段、及び前記低コスト最適化関数の結果に基づいて確率伝播関数を計算する手段を備える手段と、
    前記推定されたディスパリティに基づいてディスパリティ・マップを生成する手段と、
    前記推定されたディスパリティ・マップを深度マップに変換する手段と
    を備えるシステム。
  8. 請求項7記載のシステムであって、前記第1の深度マップは前記先行フレームの前記深度マップに基づいた誤差を含み、前記第2の深度マップは前記誤差を削減するための補正を含むシステム。
  9. 請求項7記載のシステムであって、前記ディスパリティを推定する手段は、画素マッチング・コスト関数を計算する手段を含むシステム。
  10. 請求項7記載のシステムであって、前記ディスパリティを推定する手段は、平滑度コスト関数を計算する手段を含むシステム。
  11. 請求項7記載のシステムであって、前記ディスパリティを推定する手段は、時間コスト関数を計算する手段を含むシステム。
  12. 請求項7記載のシステムであって、前記第1の画像が立体視対の左眼ビューであり、第2の画像が立体視対の右眼ビューであるシステム。
JP2011511572A 2008-05-28 2008-05-28 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法 Active JP5425897B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/006770 WO2009145749A1 (en) 2008-05-28 2008-05-28 System and method for depth extraction of images with forward and backward depth prediction

Publications (2)

Publication Number Publication Date
JP2011524120A JP2011524120A (ja) 2011-08-25
JP5425897B2 true JP5425897B2 (ja) 2014-02-26

Family

ID=40467042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011511572A Active JP5425897B2 (ja) 2008-05-28 2008-05-28 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法

Country Status (6)

Country Link
US (1) US9659382B2 (ja)
EP (1) EP2291825B1 (ja)
JP (1) JP5425897B2 (ja)
CN (1) CN102047288B (ja)
CA (1) CA2726208C (ja)
WO (1) WO2009145749A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8405742B2 (en) * 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
KR20120123087A (ko) * 2010-01-13 2012-11-07 톰슨 라이센싱 3d 텍스트를 3d 콘텐츠와 결합하기 위한 시스템 및 방법
KR101813299B1 (ko) 2010-04-01 2017-12-28 톰슨 라이센싱 3차원(3d) 표시에 있어서 플로팅 윈도우를 사용하는 방법과 시스템
JP5197683B2 (ja) * 2010-06-30 2013-05-15 株式会社東芝 奥行き信号生成装置及び方法
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
KR101669840B1 (ko) * 2010-10-21 2016-10-28 삼성전자주식회사 다시점 비디오로부터 일관성 있는 변이를 추정하는 변이 추정 시스템 및 방법
KR101682137B1 (ko) * 2010-10-25 2016-12-05 삼성전자주식회사 텍스처 및 움직임 감지를 사용한 시간적으로-일관된 변이 추정을 위한 방법 및 장치
US9470778B2 (en) * 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
JP2013090019A (ja) * 2011-10-14 2013-05-13 Hitachi Consumer Electronics Co Ltd 映像出力装置および映像出力方法
WO2013058735A1 (en) 2011-10-18 2013-04-25 Hewlett-Packard Development Company, L.P. Depth mask assisted video stabilization
US9672609B1 (en) * 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
KR101706216B1 (ko) * 2012-04-03 2017-02-13 한화테크윈 주식회사 고밀도 삼차원 영상 재구성 장치 및 방법
EP2839639A4 (en) 2012-04-19 2016-01-06 Intel Corp THREE-DIMENSIONAL VIDEO CODING (3D) INCLUDING DEPARTIVITY VECTOR CALIBRATION BASED ON DEPTH
US20130329985A1 (en) * 2012-06-07 2013-12-12 Microsoft Corporation Generating a three-dimensional image
WO2015012659A1 (en) * 2013-07-26 2015-01-29 Samsung Electronics Co., Ltd. Two way local feature matching to improve visual search accuracy
TWI528783B (zh) * 2014-07-21 2016-04-01 由田新技股份有限公司 產生深度影像之方法及其系統及電腦程式產品
US20170127039A1 (en) * 2015-11-02 2017-05-04 Mediatek Inc. Ultrasonic proximity detection system
JP6391629B2 (ja) * 2016-06-27 2018-09-19 トムソン ライセンシングThomson Licensing 3dテキストを3dコンテンツと合成するシステムおよび方法
US11503266B2 (en) * 2020-03-06 2022-11-15 Samsung Electronics Co., Ltd. Super-resolution depth map generation for multi-camera or other environments

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4925294A (en) * 1986-12-17 1990-05-15 Geshwind David M Method to convert two dimensional motion pictures for three-dimensional systems
JP2681941B2 (ja) 1987-09-14 1997-11-26 ソニー株式会社 画像処理装置
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US6046763A (en) * 1997-04-11 2000-04-04 Nec Research Institute, Inc. Maximum flow method for stereo correspondence
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
US6756993B2 (en) * 2001-01-17 2004-06-29 The University Of North Carolina At Chapel Hill Methods and apparatus for rendering images using 3D warping techniques
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
US7034835B2 (en) * 2002-11-29 2006-04-25 Research In Motion Ltd. System and method of converting frame-based animations into interpolator-based animations
US6847728B2 (en) * 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
DE60325954D1 (de) * 2003-07-07 2009-03-12 St Microelectronics Srl Graphisches System mit einer Graphikdatenpipeline, Verfahren zur Pipeline-Verarbeitung und Computerprogrammprodukt
WO2005086078A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for classifying an object
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
US7468745B2 (en) * 2004-12-17 2008-12-23 Mitsubishi Electric Research Laboratories, Inc. Multiview video decomposition and encoding
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
CN102685533B (zh) * 2006-06-23 2015-03-18 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
WO2008041178A2 (en) 2006-10-04 2008-04-10 Koninklijke Philips Electronics N.V. Image enhancement
CN100539710C (zh) * 2007-06-21 2009-09-09 清华大学 基于光流场的平面视频转立体视频的方法

Also Published As

Publication number Publication date
WO2009145749A1 (en) 2009-12-03
US9659382B2 (en) 2017-05-23
CN102047288A (zh) 2011-05-04
EP2291825A1 (en) 2011-03-09
US20110069064A1 (en) 2011-03-24
JP2011524120A (ja) 2011-08-25
CN102047288B (zh) 2014-04-23
CA2726208A1 (en) 2009-12-03
CA2726208C (en) 2018-04-03
EP2291825B1 (en) 2013-09-25

Similar Documents

Publication Publication Date Title
JP5425897B2 (ja) 前方及び後方の深度予測を伴う、画像の深度抽出のシステム及び方法
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
JP5429896B2 (ja) 立体動画による潜在的眼精疲労を測定するシステムおよび方法
JP5160640B2 (ja) 画像のステレオ・マッチングのためのシステム及び方法
JP4892113B2 (ja) 画像処理方法及び装置
JP7159198B2 (ja) 奥行きマップを処理するための装置及び方法
KR20110090488A (ko) 시차 서페이스 렌더링을 이용하여 시점을 생성하는 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121221

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131127

R150 Certificate of patent or registration of utility model

Ref document number: 5425897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250