JP4896230B2 - 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法 - Google Patents

2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法 Download PDF

Info

Publication number
JP4896230B2
JP4896230B2 JP2009537129A JP2009537129A JP4896230B2 JP 4896230 B2 JP4896230 B2 JP 4896230B2 JP 2009537129 A JP2009537129 A JP 2009537129A JP 2009537129 A JP2009537129 A JP 2009537129A JP 4896230 B2 JP4896230 B2 JP 4896230B2
Authority
JP
Japan
Prior art keywords
dimensional
image
model
difference
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009537129A
Other languages
English (en)
Other versions
JP2010510569A5 (ja
JP2010510569A (ja
Inventor
ザン,ドン−チン
ベルン ベニッツェ,アナ
ファンチャー,ジム,アーサー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2010510569A publication Critical patent/JP2010510569A/ja
Publication of JP2010510569A5 publication Critical patent/JP2010510569A5/ja
Application granted granted Critical
Publication of JP4896230B2 publication Critical patent/JP4896230B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Description

本発明は、コンピュータグラフィック処理及びディスプレイシステムに関し、より詳細には、2次元から3次元への変換のためのオブジェクトのモデルフィッティング及びレジストレーションに関する。
2次元−3次元の変換は、既存の2次元(2D)フィルムを3次元(3D)の立体フィルムに変換する処理である。3Dの立体フィルムは、たとえばパッシブ又はアクティブな3D立体グラスで係るフィルムを見ている間、ある視聴者により深度が知覚され、経験されるようなやり方で動画を再生する。旧式のフィルムを3D立体フィルムに変換することにおいて主要なフィルムスタジオからの有意な関心がある。
立体画像形成は、僅かに異なる視点から撮影されたあるシーンの少なくとも2つの画像を視覚的に結合して、3次元の深度の錯覚を生成するプロセスである。この技術は、人間の目がある距離だけ離れて配置されていることに依存しており、したがって、正確に同じシーンを見ない。それぞれの目に異なる視野からの画像を提供することで、見る人の目は、知覚する深度への錯覚を起こす。典型的に、2つの異なる視野が提供される場合、コンポーネント画像は、「左」画像及び「右」画像と呼ばれ、それぞれ参照画像及び相補画像としても知られる。しかし、当業者であれば、2を超える視野が立体画像を形成するために形成される場合があることを認識するであろう。
立体画像は、様々な技術を使用してコンピュータにより生成される場合がある。たとえば、「立体視“anaglyph”」方法は、色を使用して、立体画像の左及び右のコンポーネントをエンコードする。その後、見る人は、それぞれの目が唯一のビューを知覚するように光をフィルタリングする特別のグラスを装着する。
同様に、ページフリップ(page−flipped)立体画像形成は、画像の右のビューと左のビューとの間の表示を迅速に切り替える技術である。さらに、見る人は、ディスプレイ上の画像と同期して開閉する、典型的に液晶材料で構成される高速電子シャッターを含む特別なメガネを装着する。立体視のケースのように、それぞれの目は唯一のコンポーネント画像を知覚する。
特別なメガネ又はヘッドギアを必要としない他の立体画像形成技術が近年に開発されている。たとえば、レンチキュラー画像形成は、2以上の異なる画像のビューを薄いスライスに分割し、そのスライスをインターリーブして単一の画像を形成する。このインターリーブされた画像は、次いで、レンチキュラーレンズの後ろに配置され、このレンチキュラーレンズは、それぞれの目が異なるビューを知覚するように異なるビューを再構成する。レンチキュラーディスプレイのなかには、ラップトップコンピュータで一般に見られるように、コンベンショナルなLCDディスプレイの向こう側に位置されるレンチキュラーレンズにより実現されるものがある。
別の立体画像形成技術は、入力画像の領域をシフトして相補画像を形成する。係る技術は、Westlake Village, CaliforniaのIn−Three, Inc.と呼ばれる企業により開発された手動的な2D−3Dフィルムの変換システムで利用されている。この2D−3D変換システムは、2001年3月27日付けKayeによる米国特許第6208348号に記載されている。3Dシステムとして記載されているが、2D画像ブロックを3Dシーンに変換せず、むしろ2D入力画像を処理して右目の画像を形成しているため、この処理は実際には2Dである。
図1は、米国特許第6208348号で開示されるプロセスにより開発されるワークフローを例示しており、この場合、図1は、米国特許第6208348号における図5としてオリジナルに現れている。この処理は、以下のように記載される。入力画像について、最初に、領域2,4,6の輪郭が手動的に描かれる。次いで、オペレータは、それぞれの領域をシフトして、たとえば領域8,10,12といったステレオ視差を形成する。それぞれの領域の深度は、3Dグラスを使用して別のディスプレイでその3D再生を見ることで見られる。オペレータは、最適な深度が達成されるまで、領域のシフト距離を調節する。
しかし、2D−3D変換は、入力の2D画像における領域をシフトして、相補的な右目の画像を形成することで、ほぼ手動的に達成される。このプロセスは、非常に効率が低く、膨大な人間の介入を必要とする。
本発明は、立体画像を形成するため、画像の2D−3D変換のためにオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法を提供する。本システムは、現実の世界のオブジェクトの様々な3Dモデルを記憶するデータベースを含む。第一の2D入力画像(たとえば左目画像又は参照画像)について、3Dに変換されるべき領域は、システムオペレータ又は自動検出アルゴリズムにより識別され又は輪郭が描かれる。それぞれの領域について、システムは、3Dモデルの投影が最適なやり方で識別された領域内の画像コンテンツに整合するように、データベースから記憶されている3Dモデルを選択し、選択された3Dモデルを位置合わせする。この整合プロセスは、幾何学的なアプローチ又は光度的なアプローチを使用して実現することができる。レジストレーションプロセスを介して第一の2D画像について3Dオブジェクトの3D位置及びポーズが計算された後、変形されたテクスチャをもつ位置合わせされた3Dオブジェクトを含む3Dシーンを、異なるカメラの視野角をもつ別の画像形成のプレーン上に投影することで、第二の画像(たとえば右目画像又は相補的な画像)が形成される。
本発明の開示の1態様によれば、立体画像を形成する3次元(3D)変換方法が提供される。本方法は、少なくとも1つの2次元(2D)画像を取得するステップ、少なくとも1つの2D画像の少なくとも1つのオブジェクトを識別するステップ、複数の予め決定された3Dモデルから、識別された少なくとも1つのオブジェクトに関連する少なくとも1つの3Dモデルを選択するステップ、識別された少なくとも1つのオブジェクトに対して選択された3Dモデルを位置合わせし、選択された3Dモデルを少なくとも1つの2D画像の画像プレーンとは異なる画像プレーンに投影することで、相補的な画像を形成するステップを含む。
別の態様では、位置合わせするステップは、選択された3Dモデルの投影された2Dの輪郭を少なくとも1つのオブジェクトの輪郭に整合させるステップを含む。
本発明の更なる態様では、位置合わせするステップは、選択された3Dモデルの少なくとも1つの光度特性を、少なくとも1つのオブジェクトの少なくとも1つの光度特性に整合させるステップを含む。
本発明の別の態様では、オブジェクトの2次元(2D)画像から3次元(3D)への変換システムは、少なくとも1つの2D画像から相補的な画像を形成するポストプロセッシング装置を含んでおり、このポストプロセッシング装置は、少なくとも1つの2D画像における少なくとも1つのオブジェクトを識別するオブジェクト検出手段、識別された少なくとも1つのオブジェクトに対して少なくとも1つの3Dモデルを位置合わせするオブジェクト整合手段、少なくとも1つの3Dモデルをあるシーンに投影するオブジェクトレンダリング手段、及び、識別された少なくとも1つのオブジェクトに関連する少なくとも1つの3Dモデルを複数の予め決定された3Dモデルから選択し、選択された3Dモデルを少なくとも1つの2D画像の画像プレーンとは異なる画像プレーンに投影することで相補的な画像を形成する再構成モジュールを含む。
さらに、本発明の更なる態様によれば、2次元(2D)画像から立体画像を形成する方法ステップを実行するため、コンピュータにより実行可能な命令からなるプログラムを実施する、コンピュータにより読み取り可能なプログラムストレージ装置が提供される。本方法は、少なくとも1つの2次元(2D)画像を取得するステップ、少なくとも1つの2D画像の少なくとも1つのオブジェクトを識別するステップ、識別された少なくとも1つのオブジェクトに関連する少なくとも1つの3Dモデルを選択するステップ、識別された少なくとも1つのオブジェクトに対して選択された3Dモデルを位置合わせするステップ、及び、少なくとも1つの2D画像の画像プレーンとは異なる画像プレーンに選択された3Dモデルを投影することで、相補的な画像を形成するステップを含む。
本発明のこれらの態様、特徴及び利点、並びに、他の態様、特徴及び利点は、好適な実施の形態に関する以下の詳細な説明から明らかとなるであろう。図面において、同じ参照符号は、図面を通して同じエレメントを示す。
図1は、入力画像から右目画像又は相補的な画像を形成する従来技術を説明する図である。 図2は、本発明の態様にかかる、立体画像を形成するための画像の2次元(2D)−3次元(3D)変換のシステムを例示的に説明する図である。 図3は、本発明の態様にかかる、立体画像を形成するための2次元(2D)画像を3次元(3D)画像に変換するシステムを例示的に説明する図である。 図4は、本発明の態様に係る、3次元(3D)モデルの幾何学的なコンフィギュレーションを例示する図である。 図5は、本発明の態様に係る、輪郭の関数表示を例示する図である。 図6は、本発明の態様に係る、多数の輪郭のマッチング関数を例示する図である。
図面は、本発明の概念を例示する目的であり、必ずしも、本発明を例示するための唯一の可能性のあるコンフィギュレーションではないことを理解されたい。
図におけるエレメントは、様々な形式のハードウェア、ソフトウェア又はそれらの組み合わせで実現される場合があることを理解されたい。好ましくは、これらのエレメントは、プロセッサ、メモリ及び入力/出力インタフェースを含む1以上の適切にプログラムされた汎用デバイス上でハードウェア及びソフトウェアの組み合わせで実現される。
本明細書の記載は、本発明の原理を例示するものである。当業者であれば、本明細書で明示的に記載又は図示されていないが、本発明の原理を実施し、本発明の精神及び範囲に含まれる様々なアレンジメントを考案できることを理解されたい。
本明細書で引用される全ての例及び条件付言語は、本発明の原理、当該技術分野の推進において本発明者により寄与される概念を理解することにおいて読者を支援する教育的な目的が意図され、係る特別に参照される例及び条件に対して限定されないとして解釈されるべきである。
さらに、本発明の特定の例と同様に、本発明の原理、態様及び実施の形態を参照する全ての説明は、本発明の構造的且つ機能的に等価なものを包含することが意図される。さらに、係る等価なものは、現在知られている等価なものと同様に、将来に開発される等価なもの、すなわち構造に関わらず同じ機能を実行する開発されたエレメントをも含むことが意図される。
したがって、たとえば、本明細書で提供されるブロック図は、本発明の原理を実施する例示的な回路の概念図を表していることが当業者により理解されるであろう。同様に、任意のフローチャート、フローダイアグラム、状態遷移図、擬似コード等は、コンピュータ読み取り可能な媒体で実質的に表現される様々なプロセスであって、コンピュータ又はプロセッサが明示的に示されているか否かに関わらず、係るコンピュータ又はプロセッサにより実行される様々なプロセスを表す。
図示される様々なエレメントの機能は、適切なソフトウェアと関連してソフトウェアを実行可能なハードウェアと同様に、専用のハードウェアの使用を通して提供される場合がある。プロセッサにより提供されたとき、単一の専用プロセッサにより、単一の共有プロセッサにより、又はそのうちの幾つかが供給される複数の個々のプロセッサにより機能が提供される。用語“processor”又は“controller”の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に示すものと解釈されるべきではなく、限定されることなしに、デジタルシグナルプロセッサ(DSP)ハードウェア、ソフトウェアを記憶するリードオンリメモリ(ROM)、ランダムアクセスメモリ(RAM)、及び不揮発性メモリを暗黙的に含む場合がある。
他のハードウェア、コンベンショナル及び/又はカスタムハードウェアも含まれる場合がある。同様に、図示される任意のスイッチは概念的なものである。それらの機能は、プログラムロジックの動作を通して、専用ロジックを通して、プログラム制御と専用ロジックのインタラクションを通して、又は手動的に実行される場合があり、特定の技術は、文脈から更に詳細に理解されるように実現者により選択可能である。
本発明の請求項では、特定の機能を実行する手段として表現される任意のエレメントは、たとえばa)その機能を実行する回路エレメントの組み合わせ、又はb)その機能を実行するためのソフトウェアを実行する適切な回路と組み合わされる、ファームウェア、マイクロコード等を含む任意の形式のソフトウェアを含めて、その機能を実行する任意のやり方を包含することが意図される。係る請求項により定義される本発明は、様々な参照される手段により提供される機能が結合され、請求項が要求するやり方で纏められるという事実にある。したがって、それらの機能を提供することができる任意の手段は本明細書で示されるものに等価であると考えられる。
本発明は、2D画像から3D幾何学的形状を形成する課題に対処するものである。この課題は、とりわけ、視覚作用(VXF)、2Dフィルムから3Dフィルムへの変換を含む様々なフィルムプロダクションの応用において生じる。2D−3D変換用の以前のシステムは、入力画像における選択された領域をシフトすること、従って3D再生のためにステレオ視差を形成することにより、(右目画像としても知られる)相補的な画像を形成することで実現される。このプロセスは、非常に効率が低く、表面が平坦ではなく湾曲されている場合に、画像の領域を3D表面に変換することが困難である。
手動的な2D−3D変換の制限を克服するため、本発明は、オブジェクトの2D投影がオリジナルの2D画像における内容に整合するように、3Dオブジェクトリポジトリに前もって記憶される3Dソリッドなオブジェクトを3D空間において配置することで、3Dシーンを再形成する技術を提供する。したがって、右目画像(又は相補的な画像)は、異なるカメラの視野角をもつ3Dシーンを投影することで形成することができる。本発明の技術は、領域のシフトに基づく技術を回避することで2D−3D変換の効率を劇的に増加するものである。
本発明のシステム及び方法は、立体画像を形成するため、画像の2D−3D変換のための3Dに基づく技術を提供する。次いで、立体画像は、3D立体フィルムを形成するために、更なるプロセスで利用することができる。本システムは、現実の世界のオブジェクトの様々な3Dモデルを記憶するデータベースを含む。第一の2D入力画像(たとえば左目画像又は参照画像)について、3Dに変換されるべき領域は、システムオペレータ又は自動検出アルゴリズムにより識別され又は輪郭が描かれる。それぞれの領域について、システムは、3Dモデルの投影が最適なやり方で識別された領域内の画像コンテンツに整合するように、データベースから記憶されている3Dモデルを選択し、選択された3Dモデルを位置合わせする。この整合プロセスは、幾何学的なアプローチ又は光度的なアプローチを使用して実現することができる。レジストレーションプロセスを介して入力の2D画像について3Dオブジェクトの3D位置及びポーズが計算された後、変形されたテクスチャをもつ位置合わせされた3Dオブジェクトを含む3Dシーンを、異なるカメラの視野角をもつ別の画像形成のプレーン上に投影することで、第二の画像(たとえば右目画像又は相補的な画像)が形成される。
ここで図面を参照して、図2には、本発明の実施の形態に係る例示的なシステムコンポーネントが示される。スキャニング装置103は、たとえばカメラのオリジナルのネガフィルムといったフィルムプリント104を、たとえばCineonフォーマット又はSMPTE DPXファイルといったデジタル形式にスキャニングするために提供される。スキャニング装置103は、たとえばビデオ出力をもつArri LocPro(登録商標)のようなフィルムからビデオ出力を生成するテレシネ又は任意の装置を有する場合がある。代替的に、ポストプロダクションプロセスからのファイル又はデジタルシネマ106(たとえば既にコンピュータ読み取り可能な形式にあるファイル)は、直接的に使用することができる。
コンピュータ読み取り可能なファイルの潜在的なソースは、限定されるものではないが、AVID(登録商標)エディタ、DPXファイル、D5テープ等を含む。
スキャニングされたフィルムプリントは、たとえばコンピュータであるポストプロセッシング装置102に入力される。コンピュータ102は、1以上の中央処理装置(CPU)のようなハードウェア、ランダムアクセスメモリ(RAM)及び/又はリードオンリメモリ(ROM)のようなメモリ110、キーボード、カーソル制御装置(たとえばマウス又はジョイスティック)のような入力/出力(I/O)ユーザインタフェース112、及び表示装置を有する様々な既知のコンピュータプラットフォームの何れかで実現される。また、コンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードを含む。本明細書で記載される様々なプロセス及び機能は、マイクロ命令コードの一部、又はオペレーティングシステムを介して実行されるソフトウェアアプリケーションプログラムの一部(又はその組み合わせ)の何れかである場合がある。さらに、様々な他の周辺装置は、様々なインタフェース、及び、パラレルポート、シリアルポート又はユニバーサルシリアルバス(USB)のようなバス構造により、コンピュータプラットフォームに接続される。他の周辺装置は、更なるストレージデバイス124及びプリンタ128を含む。プリンタ128は、たとえば立体のフィルムバージョンである改訂されたフィルムバージョン126を印刷するために利用される場合があり、あるシーン又は複数のシーンは、以下に記載される技術の結果として、3Dモデリングされたオブジェクトを使用して変更又は置換される。
代替的に、(たとえば外部のハードドライブ124に記憶されている場合があるデジタルシネマである)既にコンピュータ読み取り可能な形式106にあるファイル/フィルムプリントは、コンピュータ102に直接的に入力される場合がある。なお、本明細書で使用される用語「フィルム“film”」は、フィルムプリント又はデジタルシネマの何れかを示す場合がある。
ソフトウェアプログラムは、立体画像を形成するため、2次元(2D)画像を3次元(3D)画像に変換するため、メモリ110に記憶される3次元(3D)変換モジュール114を含む。3D変換モジュール114は、2D画像においてオブジェクト又は領域を識別するオブジェクト検出器116を含む。オブジェクト検出器116は、画像編集ソフトウェアによりオブジェクトを含んでいる画像の領域の輪郭を手動的に描くか、又は、自動検出アルゴリズムでオブジェクトを含んでいる画像領域を分離することで、オブジェクトを識別する。また、3D変換モジュール114は、オブジェクトの3Dモデルを2Dオブジェクトに整合させ、位置合わせするオブジェクト整合手段118を含む。オブジェクト整合手段118は、以下に記載されるように、3Dモデルのライブラリ122と相互に作用する。3Dモデルのライブラリ122は、複数の3Dオブジェクトモデルを含み、この場合、それぞれのオブジェクトモデルは、予め定義されたオブジェクトに関連する。たとえば、予め決定された3Dモデルのうちの1つは、「ビルディング」オブジェクト又は「コンピュータモニタ」オブジェクトをモデリングするために使用される場合がある。それぞれの3Dモデルのパラメータは、予め決定されており、3Dモデルと共にデータベース122に保存される。オブジェクトレンダリング手段120は、3Dモデルを3Dシーンにレンダリングして、相補的な画像を形成するために設けられる。これは、ラスタライズプロセス、又はレイトレーシング又はフォトンマッピングのような更に進展された技術により実現される。
フィルムがスキャニングされるか、又は既にデジタル形式にあるかに関わらず、フィルムのデジタルファイルは、たとえばフレーム番号、フィルムの開始からの時間等といった、フレームの位置に関する指示又は情報を含む。デジタルビデオファイルのそれぞれのフレームは、たとえばI,I,…,Iといった1つの画像を含む。
ステップ204では、2D画像におけるオブジェクトが識別される。オブジェクト検出器116を使用して、オブジェクトは、画像編集ツールを使用してユーザにより手動で選択されるか、又は代替的に、オブジェクトは、たとえばセグメント化アルゴリズムといった画像検出アルゴリズムを使用して自動的に検出される場合がある。複数のオブジェクトは、2D画像で識別される場合があることを理解されたい。オブジェクトがひとたび識別されると、ステップ206で、予め決定された3Dモデルのライブラリ122から、複数の予め決定された3Dオブジェクトモデルのうちの少なくとも1つが選択される。3Dオブジェクトモデルの選択は、システムのオペレータにより手動的に実行されるか、又は選択アルゴリズムにより自動的に実行される場合があることを理解されたい。
選択された3Dモデルは、幾つかのやり方で識別されたオブジェクトに関連しており、たとえば識別された人物のオブジェクトについてある人物の3Dモデルが選択され、識別された建物のオブジェクトについてある建物の3Dモデルが選択される、等である。
つぎに、ステップ208で、選択された3Dオブジェクトモデルは、識別されたオブジェクトに対して位置合わせされる。位置合わせプロセスのための輪郭に基づくアプローチ及び光度のアプローチが以下に記載される。
輪郭に基づく位置合わせ技術は、選択された3Dオブジェクトの投影された2D輪郭(すなわち閉塞している輪郭)を2D画像における識別されたオブジェクトの描かれた/検出された輪郭に整合させる。3Dオブジェクトの閉塞している輪郭は、3Dオブジェクトが2Dプレーンに投影された後、オブジェクトの2D領域の境界である。たとえばコンピュータモニタ220である3Dモデルのフリーパラメータが、3D位置(x,y,z)、3Dポーズ((θ,φ)及び(図4に例示される)スケールs)を含むと仮定すると、3Dモデルの制御パラメータは、Φ(x,y,z,θ,φ,s)であり、これは、オブジェクトの3Dコンフィギュレーションを定義する。次いで、3Dモデルの輪郭は、以下のようにベクトル関数として定義される。
Figure 0004896230
ある輪郭に関するこの関数表現は、図5に例示される。閉塞している輪郭はあるオブジェクトの3Dコンフィギュレーションに依存するので、輪郭の関数はΦに依存し、以下のように書くことができる。
Figure 0004896230
ここでmは3Dモデルを意味する。外形が描かれた領域の輪郭は、類似の関数として表現することができる。
Figure 0004896230
この関数は、ノンパラメトリックな曲線である。次いで、最良のパラメータΦは、以下のように3Dコンフィギュレーションに関してコスト関数C(Φ)を最小にすることで発見される。
Figure 0004896230
しかし、上記式の最小化は、計算が非常に困難である。それは、3Dオブジェクトから2D領域へのジオメトリ変換が複雑であり、コスト関数が微分可能でない場合があり、従ってΦの閉じた解を得ることが困難な場合があるからである。計算を容易にする1つのアプローチは、(たとえばモンテカルロ法といった)非決定的なサンプリング法を使用して、たとえば予め決定された閾値といった所望のエラーに到達するまで、パラメータ空間においてパラメータをランダムにサンプリングすることである。
上記は、1つの輪郭をマッチングすることに基づいた3Dコンフィギュレーションの推定を説明している。しかし、多数のオブジェクトが存在する場合、又は識別されたオブジェクトにホールが存在する場合、2D投影後に多数の閉塞した輪郭が生じる場合がある。さらに、オブジェクト検出器188は、2D画像における多数の輪郭が描かれた領域を識別している場合がある。これらのケースでは、多対多の輪郭マッチングが処理される。モデルの輪郭(たとえば3Dモデルの2D投影)がfm1,fm2,…,fmNとして表され、画像の輪郭(たとえば2D画像における輪郭)がfd1,fd2,...fdi,…fdMとして表されるものとし、この場合、i,jは輪郭を識別するための整数のインデックスである。輪郭間の対応は、関数g(・)として表すことができ、この関数は、モデルの輪郭のインデックスを図6に例示されるような画像の輪郭のインデックスにマッピングする。次いで、最良の輪郭の対応及び最小の3Dのコンフィギュレーションは、以下のように計算される全体のコスト関数を最小にするために決定される。
Figure 0004896230
ここでC i,g(i) (Φ)は、i番目の輪郭と、g(i)として索引付けされる、その整合された画像の輪郭との間の式(4)で定義されるコスト関数であり、g(.)は、対応関数である。
位置合わせの相補的なアプローチは、2D画像の選択された領域の光度特性を使用するアプローチである。光度特性の例は、とりわけ色の特性、テクスチャの特性を含む。光度の位置合わせについて、データベースに記憶された3Dモデルには、表面のテクスチャが付される。特性抽出技法は、限定されるものではないがカラーヒストグラム又はモーメントヒストグラムを含めて、オブジェクトのポース又は位置を記述するため、有益な属性を抽出するために適用することができる。その後、特性は、3Dモデルの幾何学的パラメータを推定するか、又は位置合わせの幾何学的アプローチの間に推定されている幾何学的パラメータをリファインするために使用することができる。
選択された3Dモデルの投影された画像がI(Φ)であるとすると、投影された画像は、3Dモデルの3Dポーズのパラメータの関数である。画像I(Φ)から抽出されたテクスチャの特徴はT(Φ)であり、選択された領域内の画像がIである場合、テクスチャの特徴はTdである。上記と同様に、最小自乗コスト関数は、以下のように定義される。
Figure 0004896230
本発明の別の実施の形態では、光度のアプローチは、輪郭に基づいたアプローチと結合することができる。これを達成するため、結合されたコスト関数が定義され、このコスト関数は、以下のように2つの関数を線形に結合する。
Figure 0004896230
この場合、λは輪郭に基づく方法と光度に方法との組み合わせを決定する重み付けファクタである。この重み付けファクタは、何れかの方法に適用される場合があることを理解されたい。
ひとたびシーンで識別された全てのオブジェクトが3D空間に変換されると、変換された3Dオブジェクトとバックグランドプレーンとを含む3Dシーンを、バーチャルなライトカメラ(virtual right camera)により決定される、入力の2D画像の画像形成プレーンとは異なる別の画像形成プレーンにレンダリングすることで、相補的な画像(たとえば右目画像)が形成される(ステップ210)。このレンダリングは、標準的なグラフィックカードのパイプラインにおけるようなラスタライズプロセスによるか、又は、プロフェッショナルなポストプロダクションのワークフローで使用されるレイトレーシングのような更に進展された技法により実現される場合がある。新たな画像形成プレーンの位置は、バーチャルなライトカメラの位置及び視野角により決定される。(たとえばコンピュータ又はポストプロセッシング装置でシミュレートされたカメラである)バーチャルライトカメラの位置及び視野角の設定により、1実施の形態において、入力画像を生成するレフトカメラの画像形成プレーンに平行な画像形成プレーンが得られ、これは、バーチャルカメラの位置及び視野角に対して僅かな調節を行い、表示装置で結果として得られる3D再生を見ることでフィードバックを得ることにより達成することができる。ライトカメラの位置及び視野角は、形成された立体画像が見る人により最も心地よいやり方で見ることができるように調節される。
次いで、ステップ212で、投影されたシーンは、たとえば左目画像である入力画像に対する、たとえば右目画像である相補的な画像として記憶される。この相補的な画像は、コンベンショナルなやり方で入力画像と関連付けされ、これらは、この時点で互いに検索される場合がある。この相補的な画像は、立体フィルムを形成するデジタルファイル130に入力又は参照の画像と共に保存される場合がある。デジタルファイル130は、たとえば立体のオリジナルフィルムのバージョンを印刷するといった、後の検索のためにストレージデバイス124に記憶される場合がある。
本発明の開示の教示を組み込んだ実施の形態が本明細書で詳細に図示及び記載されたが、当業者であれば、これらの教示を組み込んだ多数の他の変形された実施の形態を容易に考案することができる。(例示的であって、限定的であることが意図されない)2D−3D変換のためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法の好適な実施の形態が記載されたが、変更及び変形は、上記教示に照らして当業者により行うことができる。したがって、特許請求の範囲により概説される本発明の開示の範囲及び精神に含まれる開示された特定の実施の形態において変形がなされる場合があることを理解されたい。

Claims (23)

  1. 少なくとも1つの2次元画像に相補的な2次元画像を形成するための、3次元変換システムの動作方法であって、
    複数の予め決定された3次元モデルを記憶手段に記憶するステップと
    少なくとも1つの2次元画像を取得するステップと、
    少なくとも1つの2次元画像の少なくとも1つのオブジェクトを識別するステップと、
    前記記憶手段に記憶されている前記複数の予め決定された3次元モデルから、前記識別された少なくとも1つのオブジェクトの種類と同じ種類である少なくとも1つの3次元モデルを選択するステップと、
    前記選択された3次元モデルを前記識別された少なくとも1つのオブジェクトに対して位置合わせするステップと、
    前記選択された3次元モデルを、少なくとも1つの2次元画像の画像平面とは異なる画像平面に投影することで、前記少なくとも1つの2次元画像に相補的な2次元画像を形成するステップと、
    を含むことを特徴とする方法。
  2. 前記識別するステップは、前記少なくとも1つのオブジェクトの輪郭を検出するステップを含む、
    請求項1記載の方法。
  3. 前記位置合わせするステップは、前記選択された3次元モデルの投影された2次元の輪郭を前記少なくとも1つのオブジェクトの輪郭に整合させるステップを含む、
    請求項2記載の方法。
  4. 前記整合させるステップは、前記識別された少なくとも1つのオブジェクトのポーズ、位置及びスケールに整合させるため、前記選択された3次元モデルのポーズ、位置及びスケールを計算し、前記少なくとも1つのオブジェクトのポーズ、位置及びスケールと、前記選択された3次元モデルのポーズ、位置及びスケールとの間の差を最小にするステップを含む、
    請求項3記載の方法。
  5. 前記最小にするステップは、非決定的なサンプリング技法を適用して、前記差を表すコスト関数のパラメータをランダムにサンプリングして最小となる差を与える閉じた解を確定するステップを含む、
    請求項記載の方法。
  6. 前記位置合わせするステップは、前記選択された3次元モデルの少なくとも1つの光度特性を前記少なくとも1つのオブジェクトの少なくとも1つの光度特性に整合させるステップを含む、
    請求項1記載の方法。
  7. 前記少なくとも1つの光度特性は、表面テクスチャである、
    請求項記載の方法。
  8. 前記整合させるステップは、前記少なくとも1つのオブジェクトのポーズ及び位置と、前記選択された3次元モデルのポーズ及び位置との間の差を最小にするステップを含む、
    請求項記載の方法。
  9. 前記最小にするステップは、非決定的なサンプリング技法を適用して、前記差を表すコスト関数のパラメータをランダムにサンプリングして最小となる差を与える閉じた解を確定するステップを含む、
    請求項記載の方法。
  10. 前記位置合わせするステップは、
    前記選択された3次元モデルの投影された2次元の輪郭を前記少なくとも1つのオブジェクトの輪郭に整合させるステップと、
    前記整合される輪郭間の差を最小にするステップと、
    前記選択された3次元モデルの少なくとも1つの光度特性を前記少なくとも1つのオブジェクトの少なくとも1つの光度特性に整合させるステップと、
    前記少なくとも1つの光度特性間の差を最小にするステップと、
    を更に含む請求項1記載の方法。
  11. 前記整合される輪郭間の最小となる差と、前記少なくとも1つの光度特性間の最小となる差との少なくとも1つに重み付けファクタを適用するステップを更に含む、
    請求項1記載の方法。
  12. 少なくとも1つの2次元画像に相補的な2次元画像を形成する、3次元変換システムであって、
    複数の予め決定された3次元モデルを記憶する記憶手段と、
    少なくとも1つの2次元画像を取得し、取得された少なくとも1つの2次元画像相補的な2次元画像を形成するポストプロセッシング装置を含み、
    前記ポストプロセッシング装置は、
    前記取得された少なくとも1つの2次元画像における少なくとも1つのオブジェクトを識別するオブジェクト検出手段と、
    前記識別された少なくとも1つのオブジェクトに対して、再構成モジュールで選択された少なくとも1つの3次元モデルを位置合わせするオブジェクト整合手段と、
    前記少なくとも1つの3次元モデルをあるシーンに投影するオブジェクトレンダリング手段と、
    前記記憶手段に記憶されている前記複数の予め決定された3次元モデルから、前記識別された少なくとも1つのオブジェクトの種類と同じ種類である前記少なくとも1つの3次元モデルを選択し、前記選択された3次元モデルを、前記取得された少なくとも1つの2次元画像の画像平面とは異なる画像平面に投影することで、前記取得された少なくとも1つの2次元画像に相補的な2次元画像を形成する再構成モジュールと、
    を有することを特徴とするシステム。
  13. 前記オブジェクト整合手段は、前記少なくとも1つのオブジェクトの輪郭を検出する、
    請求項12記載のシステム。
  14. 前記オブジェクト整合手段は、前記選択された3次元モデルの投影された2次元の輪郭を前記少なくとも1つのオブジェクトの輪郭に整合させる、
    請求項13記載のシステム。
  15. 前記オブジェクト整合手段は、前記識別された少なくとも1つのオブジェクトのポーズ、位置及びスケールに整合させるため、前記選択された3次元モデルのポーズ、位置及びスケールを計算し、前記少なくとも1つのオブジェクトのポーズ、位置及びスケールと、前記選択された3次元モデルのポーズ、位置及びスケールとの間の差を最小にする、
    請求項14記載のシステム。
  16. 前記オブジェクト整合手段は、非決定的なサンプリング技法を適用して、前記差を表すコスト関数のパラメータをランダムにサンプリングして最小となる差を与える閉じた解を確定する、
    請求項15記載のシステム。
  17. 前記オブジェクト整合手段は、前記選択された3次元モデルの少なくとも1つの光度特性を前記少なくとも1つのオブジェクトの少なくとも1つの光度特性に整合させる、
    請求項12記載のシステム。
  18. 前記少なくとも1つの光度特性は、表面テクスチャである、
    請求項17記載のシステム。
  19. 前記オブジェクト整合手段は、前記少なくとも1つのオブジェクトのポーズ及び位置と、前記選択された3次元モデルのポーズ及び位置との間の差を最小にする、
    請求項17記載のシステム。
  20. 前記オブジェクト整合手段は、非決定的なサンプリング技法を適用して、前記差を表すコスト関数のパラメータをランダムにサンプリングして最小となる差を与える閉じた解を確定する、
    請求項19記載のシステム。
  21. 前記オブジェクト整合手段は、
    前記選択された3次元モデルの投影された2次元の輪郭を前記少なくとも1つのオブジェクトの輪郭に整合させ、
    前記整合される輪郭間の差を最小にし、
    前記選択された3次元モデルの少なくとも1つの光度特性を前記少なくとも1つのオブジェクトの少なくとも1つの光度特性に整合させ、
    前記少なくとも1つの光度特性間の差を最小にする、
    請求項12記載のシステム。
  22. 前記オブジェクト整合手段は、整合される輪郭間の最小となる差と、前記少なくとも1つの光度特性間の最小となる差との少なくとも1つに重み付けファクタを適用する、
    請求項21記載のシステム。
  23. コンピュータに、少なくとも1つの2次元画像に相補的な2次元画像形成する方法を実行させるための命令を含むプログラムを記録したコンピュータにより読み取り可能な記録媒体であって、
    前記方法は、
    複数の予め決定された3次元モデルを記憶手段に記憶するステップと
    少なくとも1つの2次元画像を取得するステップと、
    少なくとも1つの2次元画像の少なくとも1つのオブジェクトを識別するステップと、
    前記記憶手段に記憶されている前記複数の予め決定された3次元モデルから、前記識別された少なくとも1つのオブジェクトの種類と同じ種類である少なくとも1つの3次元モデルを選択するステップと
    前記選択された3次元モデルを前記識別された少なくとも1つのオブジェクトに対して位置合わせするステップと、
    前記選択された3次元モデルを、少なくとも1つの2次元画像の画像平面とは異なる画像平面に投影することで、前記少なくとも1つの2次元画像に相補的な画像を形成するステップと、
    を含むことを特徴とする記録媒体
JP2009537129A 2006-11-17 2006-11-17 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法 Expired - Fee Related JP4896230B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2006/044834 WO2008060289A1 (en) 2006-11-17 2006-11-17 System and method for model fitting and registration of objects for 2d-to-3d conversion

Publications (3)

Publication Number Publication Date
JP2010510569A JP2010510569A (ja) 2010-04-02
JP2010510569A5 JP2010510569A5 (ja) 2011-12-08
JP4896230B2 true JP4896230B2 (ja) 2012-03-14

Family

ID=38290177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009537129A Expired - Fee Related JP4896230B2 (ja) 2006-11-17 2006-11-17 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法

Country Status (5)

Country Link
US (1) US20090322860A1 (ja)
EP (1) EP2082372A1 (ja)
JP (1) JP4896230B2 (ja)
CA (1) CA2668941C (ja)
WO (1) WO2008060289A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7542034B2 (en) 2004-09-23 2009-06-02 Conversion Works, Inc. System and method for processing video images
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
US8274530B2 (en) 2007-03-12 2012-09-25 Conversion Works, Inc. Systems and methods for filling occluded information for 2-D to 3-D conversion
JP4938093B2 (ja) * 2007-03-23 2012-05-23 トムソン ライセンシング 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
US7750983B2 (en) * 2007-10-04 2010-07-06 3M Innovative Properties Company Stretched film for stereoscopic 3D display
US8189035B2 (en) * 2008-03-28 2012-05-29 Sharp Laboratories Of America, Inc. Method and apparatus for rendering virtual see-through scenes on single or tiled displays
US10585344B1 (en) 2008-05-19 2020-03-10 Spatial Cam Llc Camera system with a plurality of image sensors
US8355042B2 (en) * 2008-10-16 2013-01-15 Spatial Cam Llc Controller in a camera for creating a panoramic image
US11119396B1 (en) 2008-05-19 2021-09-14 Spatial Cam Llc Camera system with a plurality of image sensors
US9294751B2 (en) 2009-09-09 2016-03-22 Mattel, Inc. Method and system for disparity adjustment during stereoscopic zoom
US8884948B2 (en) 2009-09-30 2014-11-11 Disney Enterprises, Inc. Method and system for creating depth and volume in a 2-D planar image
US8502862B2 (en) 2009-09-30 2013-08-06 Disney Enterprises, Inc. Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image
US8947422B2 (en) 2009-09-30 2015-02-03 Disney Enterprises, Inc. Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images
US9042636B2 (en) 2009-12-31 2015-05-26 Disney Enterprises, Inc. Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers
US20110157155A1 (en) * 2009-12-31 2011-06-30 Disney Enterprises, Inc. Layer management system for choreographing stereoscopic depth
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
EP2395769B1 (en) 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
JP5739674B2 (ja) * 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
CN102903143A (zh) * 2011-07-27 2013-01-30 国际商业机器公司 用于将二维图像三维化的方法和系统
EP2764696B1 (en) 2011-10-05 2020-06-03 Bitanimate, Inc. Resolution enhanced 3d video rendering systems and methods
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9661307B1 (en) 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9129375B1 (en) * 2012-04-25 2015-09-08 Rawles Llc Pose detection
EP3693893A1 (en) * 2012-08-23 2020-08-12 NEC Corporation Object identification apparatus, object identification method, and program
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
CA2820305A1 (en) 2013-07-04 2015-01-04 University Of New Brunswick Systems and methods for generating and displaying stereoscopic image pairs of geographical areas
KR20150015680A (ko) * 2013-08-01 2015-02-11 씨제이씨지브이 주식회사 특징점의 생성을 이용한 이미지 보정 방법 및 장치
KR20150026358A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 피사체 정보에 따른 템플릿 피팅 방법 및 그 장치
GB2518673A (en) * 2013-09-30 2015-04-01 Ortery Technologies Inc A method using 3D geometry data for virtual reality presentation and control in 3D space
JP6331517B2 (ja) * 2014-03-13 2018-05-30 オムロン株式会社 画像処理装置、システム、画像処理方法、および画像処理プログラム
US10122992B2 (en) 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
US9857784B2 (en) * 2014-11-12 2018-01-02 International Business Machines Corporation Method for repairing with 3D printing
US9767620B2 (en) 2014-11-26 2017-09-19 Restoration Robotics, Inc. Gesture-based editing of 3D models for hair transplantation applications
CN105205179A (zh) * 2015-10-27 2015-12-30 天脉聚源(北京)教育科技有限公司 一种obj类型的3D类型文件转换的方法及装置
US10325370B1 (en) 2016-05-31 2019-06-18 University Of New Brunswick Method and system of coregistration of remote sensing images
US10878392B2 (en) 2016-06-28 2020-12-29 Microsoft Technology Licensing, Llc Control and access of digital files for three dimensional model printing
US10735707B2 (en) * 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
US10614604B2 (en) * 2017-12-04 2020-04-07 International Business Machines Corporation Filling in an entity within an image
US10636186B2 (en) * 2017-12-04 2020-04-28 International Business Machines Corporation Filling in an entity within a video
US11138410B1 (en) * 2020-08-25 2021-10-05 Covar Applied Technologies, Inc. 3-D object detection and classification from imagery
KR20220045799A (ko) 2020-10-06 2022-04-13 삼성전자주식회사 전자 장치 및 그 동작 방법
EP4013048A1 (en) * 2020-12-08 2022-06-15 Koninklijke Philips N.V. Object visualization

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (ja) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd 立体cg動画像生成装置
JP2000259855A (ja) * 1999-03-08 2000-09-22 Fujitsu Ltd 三次元cgモデル作成装置および処理プログラムを記録した記録媒体
JP2001202532A (ja) * 1999-11-17 2001-07-27 Korea Advanced Inst Of Sci Technol Zバッファを用いた立体映像生成方法
US20010052899A1 (en) * 1998-11-19 2001-12-20 Todd Simpson System and method for creating 3d models from 2d sequential image data
JP2003187265A (ja) * 2001-11-05 2003-07-04 Canon Europa Nv 画像処理装置
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法
JP2006254240A (ja) * 2005-03-11 2006-09-21 Fuji Xerox Co Ltd 立体画像表示装置、その方法及びプログラム
JP2008513882A (ja) * 2004-09-23 2008-05-01 カンヴァージァン、ウォークス、インク ビデオイメージ処理システム及びビデオイメージ処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US35098A (en) * 1862-04-29 Improvement in plows
US85890A (en) * 1869-01-12 Improvement in piston-rod packing
US6281904B1 (en) * 1998-06-09 2001-08-28 Adobe Systems Incorporated Multi-source texture reconstruction and fusion
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
JP4573085B2 (ja) * 2001-08-10 2010-11-04 日本電気株式会社 位置姿勢認識装置とその位置姿勢認識方法、及び位置姿勢認識プログラム
US7609230B2 (en) * 2004-09-23 2009-10-27 Hewlett-Packard Development Company, L.P. Display method and system using transmissive and emissive components
US8396329B2 (en) * 2004-12-23 2013-03-12 General Electric Company System and method for object measurement
US20070080967A1 (en) * 2005-10-11 2007-04-12 Animetrics Inc. Generation of normalized 2D imagery and ID systems via 2D to 3D lifting of multifeatured objects
US7573475B2 (en) * 2006-06-01 2009-08-11 Industrial Light & Magic 2D to 3D image conversion

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1074269A (ja) * 1996-06-26 1998-03-17 Matsushita Electric Ind Co Ltd 立体cg動画像生成装置
US20010052899A1 (en) * 1998-11-19 2001-12-20 Todd Simpson System and method for creating 3d models from 2d sequential image data
JP2000259855A (ja) * 1999-03-08 2000-09-22 Fujitsu Ltd 三次元cgモデル作成装置および処理プログラムを記録した記録媒体
JP2001202532A (ja) * 1999-11-17 2001-07-27 Korea Advanced Inst Of Sci Technol Zバッファを用いた立体映像生成方法
JP2003187265A (ja) * 2001-11-05 2003-07-04 Canon Europa Nv 画像処理装置
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法
JP2008513882A (ja) * 2004-09-23 2008-05-01 カンヴァージァン、ウォークス、インク ビデオイメージ処理システム及びビデオイメージ処理方法
JP2006254240A (ja) * 2005-03-11 2006-09-21 Fuji Xerox Co Ltd 立体画像表示装置、その方法及びプログラム

Also Published As

Publication number Publication date
US20090322860A1 (en) 2009-12-31
CA2668941C (en) 2015-12-29
EP2082372A1 (en) 2009-07-29
WO2008060289A1 (en) 2008-05-22
CA2668941A1 (en) 2008-05-22
JP2010510569A (ja) 2010-04-02
CN101536040A (zh) 2009-09-16

Similar Documents

Publication Publication Date Title
JP4896230B2 (ja) 2次元から3次元に変換するためのオブジェクトのモデルフィッティング及びレジストレーションのシステム及び方法
JP4938093B2 (ja) 2d−to−3d変換のための2d画像の領域分類のシステム及び方法
JP4879326B2 (ja) 3次元画像を合成するシステム及び方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
EP2033164B1 (en) Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8433157B2 (en) System and method for three-dimensional object reconstruction from two-dimensional images
CA2723627C (en) System and method for measuring potential eyestrain of stereoscopic motion pictures
CA2650557C (en) System and method for three-dimensional object reconstruction from two-dimensional images
US20130127988A1 (en) Modifying the viewpoint of a digital image
US8611642B2 (en) Forming a steroscopic image using range map
US20130129192A1 (en) Range map determination for a video frame
JP2010510569A5 (ja)
Du et al. Changing perspective in stereoscopic images
Lee et al. Estimating scene-oriented pseudo depth with pictorial depth cues
CN101536040B (zh) 为了2d至3d转换对对象进行模型拟合和配准的系统及方法
Liu Improving forward mapping and disocclusion inpainting algorithms for depth-image-based rendering and geomatics applications
Nazzar Automated detection of defects in 3D movies
Chahal et al. Stereo Pair Generation by Introducing Bokeh Effect in 2D Images
Medina A survey of techniques for depth extraction in films

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20111017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111220

R150 Certificate of patent or registration of utility model

Ref document number: 4896230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350