JP5036132B2 - 裸眼立体表示のための視差画像のクリティカルな位置合わせ - Google Patents

裸眼立体表示のための視差画像のクリティカルな位置合わせ Download PDF

Info

Publication number
JP5036132B2
JP5036132B2 JP2004555526A JP2004555526A JP5036132B2 JP 5036132 B2 JP5036132 B2 JP 5036132B2 JP 2004555526 A JP2004555526 A JP 2004555526A JP 2004555526 A JP2004555526 A JP 2004555526A JP 5036132 B2 JP5036132 B2 JP 5036132B2
Authority
JP
Japan
Prior art keywords
image
view
computer
images
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004555526A
Other languages
English (en)
Other versions
JP2006507764A (ja
Inventor
エイ. メーヒュー クリストファー
ビー. マーティン マイケル
Original Assignee
ビジョン サード イメージング,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビジョン サード イメージング,インコーポレイテッド filed Critical ビジョン サード イメージング,インコーポレイテッド
Publication of JP2006507764A publication Critical patent/JP2006507764A/ja
Application granted granted Critical
Publication of JP5036132B2 publication Critical patent/JP5036132B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof

Description

本発明は視覚技術分野に関し、より詳細には、ディスプレイ上で、特殊な視覚支援を使用することなく3次元になるように知覚されることが可能である、2次元画像を作成するための裸眼立体イメージング方法に関する。
3次元の錯覚を提供するために表示することができる2次元画像の作成は、視覚技術分野において長年の目標である。このような3次元の錯覚を生み出すための方法および装置は、ある程度、人間の奥行知覚の生理機能の理解の増大、ならびに、アナログ/デジタル信号処理およびコンピュータイメージングソフトウェアを通じた画像操作における発展とある程度平行に進んでいる。
両眼(すなわち、ステレオ)視は、重複する視野で同じ方向を見る2つの眼を必要とする。それぞれの眼はシーンをわずかに異なる角度から見て、シーンの焦点を網膜上に合わせ、網膜は、眼の後方の凹面であり、神経細胞またはニューロンが敷き詰められている。それぞれの眼からの2次元の網膜像が視神経に沿って脳の視覚野に伝達され、そこでこれらの網膜像が、立体視として知られるプロセスにおいて結合されて、シーンの知覚3次元モデルが形成される。
3次元空間の知覚は、例えば、単眼手がかり(monocular cues)および両眼手がかり(binocular cues)を含む、見られているシーンにおける様々な種類の情報に依存する。単眼手がかりには、相対サイズ、線遠近(linear persective)、干渉(interposition)、光および影などの要素が含まれる。両眼手がかりには、網膜視差、調節(accommodation)、輻輳(convergence)、および、学習された手がかり(例えば、対象をよく知っていること)が含まれる。これらのすべての要素は、シーンにおける3次元空間の知覚の作成に寄与しうるが、網膜視差は、3次元の知覚を作成するための情報の最も重要なソースの1つを提供する。詳細には、網膜視差は、脳に供給される視差情報(すなわち、位置における見かけの変化、運動の方向、または、異なる観察位置によって引き起こされた対象の他の視覚的特性)をもたらす。各眼は異なる観察位置を有するので、それぞれの眼は同じシーンのわずかに異なる視界を提供することができる。これらの視界の間の差は視差情報を表し、この情報を脳が使用して、シーンの3次元の態様を知覚することができる。
視差情報は、同時に脳に提示される必要はない。例えば、左および右眼の奥行情報を、交互に左および右眼に提示することができ、結果として、時間間隔が100ミリ秒を超えない限り、奥行知覚を生じることができる。脳は、これらの眼がそれぞれ最大100ミリ秒の期間にわたって交互に覆われ、覆いを取られるときでさえ、視差情報を3次元シーンから抽出することができる。脳はまた、視差情報が順序付けられる場合、両眼に同時に提示された視差情報を受け入れて処理することもできる。例えば、異なる観察視点から取られた同じシーンの2つ以上の視界を、ある順序で両眼に示すことができる(例えば、視界の各々を、その順序における次の視界を示す前に、短い時間の間両眼に示すことができる)。
いくつかの3次元画像表示方法が、提案および/または実施されている。これらの方法を、立体表示方法(stereoscopic display)および裸眼立体表示方法(autostereoscopic display)という2つの主なカテゴリに分割することができる。ステレオスコープ、偏光(polarization)、アナグリフ(anaglyphic)、プルフリヒ(Pulfrich)、およびシャッタリング技術を含む立体技術は、見る者が例えばメガネなどの特殊視覚装置を着用することを必要とする。ホログラフィ、レンチキュラースクリーンおよび視差バリア(parallax barriers)など、裸眼立体技術は、特殊メガネを使用することなく3次元の錯覚を有する画像を作成するが、これらの方法は一般に特殊なスクリーンの使用を必要とする。
しかし、特殊メガネも特殊表示スクリーンも必要としない、他のシステムが提案されている。これらのシステムには裸眼立体テレビおよび映画システムが含まれ、これらのシステムは、2台のカメラによって異なる視点から記録されたシーンの交互に表示されるビューを利用する。例えば、Imsandの米国特許第4006291号明細書、McElveenの4006291号明細書、Jones他の米国特許第4429328号明細書およびMayhew他の米国特許第4815819号明細書で説明されている装置はすべて、2台の慎重に位置合わせされたカメラを利用して、シーンの、水平に変位されたビュー、垂直に変位されたビュー、または水平および垂直の組み合わせで変位されたビューを記録する。これらのシステムは主に、標準のスクリーンを使用した裸眼立体表示のための画像獲得の技術を扱うが、適切な画像を取り込むために、カメラは慎重にマッチされおよび位置合わせされなければならない。さらに、カメラからの画像が取り込まれると、画像の位置合わせを再調整することはできない。
さらにもう1つの手法では、Mayhewに発行された米国特許第5510831号明細書に、スリット走査技術を使用した視差画像の裸眼立体表示の方法が説明されている。この技術では、2台のカメラが慎重に位置合わせされて、立体画像が取り込まれる。これらの画像は、第1の画像を背景画像として提供し、第2の画像を第1の画像上に走査スリットの形態でオーバーレイすることによって、表示することができる。
これらの説明されている方法およびシステムの各々を使用して、3次元画像表示のための画像を取り込むことはできるが、各々に関連する問題がある。例えば、これらの方法の多数は、視差情報を有する画像を取り込むために、慎重に位置合わせされた少なくとも2台のカメラの使用を必要とする。複数のカメラを共通のシーンで位置合わせすることは、煩わしい。搬送して位置決めするべき複数のカメラがあるだけでなく、これらのカメラの適切な位置合わせ、および、色/輝度のマッチングは、困難である場合がある。位置合わせの後でさえ、これらのカメラはなお、後の表示のために所望の程度の画像位置合わせを提供しない場合がある。さらに、従来技術の方法の多数は、3次元の錯覚を作成するために、特殊なカメラまたはレンズメカニズム、ビデオ切り替え機器、特殊視覚メガネ、および/または特殊スクリーンを必要とする。また、これらの3次元表示方法のいずれも、ランダムに獲得された画像と共に使用するため、または、従来のビデオ画像ストリーム(例えば、シーケンス)、もしくは、例えば平行のビュー(parallel views)による画像から抽出された画像と共に使用するのに適切ではない。
本発明は、従来技術の3次元画像表示システムおよび方法に関連する問題の1つまたは複数を克服することを対象とする。
本発明の第1の態様は、裸眼立体表示を生成するための方法を含む。この方法は、第1の視差画像および少なくとも1つの他の視差画像を獲得することを含む。第1の視差画像の一部を、少なくとも1つの他の視差画像の対応する部分と位置合わせすることができる。第1の視差画像および少なくとも1つの他の視差画像の交互ビュー(alternating views)を表示することができる。
本発明の第2の態様は、位置合わせされた視差画像の組を生成するためのシステムを含む。このシステムは、コンピュータ、および、コンピュータ上で実行するアプリケーションを含む。アプリケーションは、2つ以上の視差画像の交互ビューを所望のビューレート(viewing rate)で表示するように、および、2つ以上の視差画像を、視差画像の第1のものの少なくとも一部が視差画像の第2のものの少なくとも一部と位置合わせされるように、操作するように構成される。
本発明の1つの例示的実施形態は、視差画像を操作して、結果として得られる動画を作成することによって、裸眼立体表示を作成するための方法を含む。結果として得られる動画は、裸眼立体表示を提供することができ、従来のスクリーン(例えば、TV、コンピュータのモニタ、映写幕、動画ディスプレイ、または、動画を表示することができる他のいずれかのタイプのディスプレイ)上で表示することができる。上述のように、視差画像には、重複する視野を有するが異なる視点を有する、2つ以上の画像が含まれる。例えば、図1に例示するように、カメラ10は第1の画像の組を取り込むことができ、カメラ12は、互いに離れている間に、共通のシーン14の第2の画像の組を取り込むことができる。カメラ10および12からの結果として得られた画像の組は、視差画像となる。すなわち、カメラ10からの画像の組およびカメラ12からの画像の組には、カメラ10および12が同じシーン14の画像を取り込むという事実により、ある重複した視覚情報が含まれるようになる。しかし、カメラ10および12からの画像の組には、異なる視点の結果として得られる、ある異なる視覚情報も含まれるようになる。これらの視差画像は、本発明に一致する裸眼立体表示を生成するための基礎としての役割を果たすことができる。
カメラ10および12は、視差画像を同時または交互に取り込むことができることに留意されたい。視差画像を、単一のカメラ10によって生成することもでき、カメラ10は、新しい位置(例えば、図1のカメラ12の位置)に移動してシーン14の第2の画像を取り込む前に、シーン14の第1の画像を取り込む。さらに、シーン14の視差画像を取り込む間に、いかなる長さの時間が経過してもよい。例えば、シーン14の第1の画像を取り込んだ後、異なる視点からの第2の画像を、後の任意の時間(1秒、1時間、1日、1年など)に取り込むことができる。加えて、カメラ10および12は、本発明と共に使用するために適切な視差画像を作成するために、いかなる特殊な配置構成である必要もない。
本発明の例示的方法は、ソース画像の獲得および選択、画像のクリティカルな位置合わせ、および画像の表示のステップを含むことができる。一実施形態では、図2に例示するように、この方法は、ステップ20でソース画像を獲得すること、ステップ22でソース画像を位置合わせソフトウェアにロードすること、ステップ24で位置合わせパラメータを調整すること、ステップ26で、位置合わせされた画像を保存/格納すること、および、ステップ28で、位置合わせされた画像を表示することを含むことができる。
獲得および選択
裸眼立体表示を生成するために使用される視差画像を、デジタルスチルカメラ、デジタルビデオカメラ、従来のフィルムカメラおよび従来のビデオカメラ(その後に、続いて起こるデジタル化が続く)、コンピュータにより生成されたグラフィックスソース、および、いずれかの他の適切なイメージングソースなどの様々なイメージングソースから獲得することができる。加えて、視差画像を単一の画像ストリームから、あるいは複数の画像ストリームから取り込むことができる。複数の画像ストリームを、ビデオステレオカメラペアの出力にすることができ、あるいはより一般には、平行した視点による重複する画像シーケンスを含む、同じシーンの重複するビューを有する、いずれかの2つ以上の画像ソースにすることができる。視差画像をまた、コンピュータ(3Dレンダリングされたグラフィックスと同様に)、または、RADAR、SONARなどによって作り出された擬似カラー画像によって生成することもできる。
クリティカルな位置合わせ
位置合わせプロセスは、視差画像の交互ビューを所望のビューレート(すなわち、視差画像ビューが変更される頻度)で表示すること、および次いで、交互ビューを、位置合わせにマッチするように操作することを含む。交互ビューを任意の所望のビューレートで表示することもできるが、一実施形態では、ビューレートを約3Hzから約6Hzまでとすることができる。「位置合わせにマッチする」という用語は、位置合わせされる(すなわち、輻輳される(converged))画像における関心領域が、参照画像フレームにおける対応する領域として位置合わせされる画像のフレーム内の同じ場所を占有するように、位置決めされる状態を指す。関心領域は、位置合わせされる画像の全部であっても一部であってもよい。
位置合わせマッチングプロセスは、図3aに示すような参照画像30を、視差画像の組から選択することによって開始する。参照画像30が選択されると、視差画像からの、図3bに示すような他の画像32を、参照画像30に対して位置合わせすることができる。単一の位置合わせされていない画像32のみを図3bに示すが、位置合わせされていない画像32は、複数のN個の画像を表す場合がある。複数のN個の画像のうち1つまたは複数を、参照画像30に対して選択および位置合わせすることができる。ある状況では、本発明に一致する裸眼立体表示の安定性は、異なる視差位置を有する視差画像の数が増すにつれて、増大しうる。
参照画像30は、関心領域34を含むことができる。同じ関心領域34’は、異なる視点から見られたにもかかわらず、位置合わせされていない画像32に現れる可能性がある。位置合わせされていない画像32を、例えば、図3dに例示するように領域34’が領域34との位置合わせにマッチするまで、図3cに示すように操作することができる。操作プロセスを、トランスレーション、回転、スケーリング、および/または他のいずれかの所望の変換を含む、アフィン変換によって表すことができる。加えて、位置合わせされていない画像32がその周囲で回転される点を、画像の中心以外の位置に調整することもできる。
クリティカルな位置合わせプロセスを、コンピュータによって実行することができる。例えば、視差画像の組を、ユーザが参照画像を選択することを可能にするソフトウェアアプリケーションにロードすることができる。例えば、視差画像の組を、オープングラフィックス言語(OGL)ソフトウェア、または、画像データを操作するために適切な他のソフトウェアにロードすることができる。次いで、コンピュータは、その組内の残りの視差画像の1つまたは複数の位置合わせを自動的に実行することができる。しかし、代替として、ソフトウェアは、オペレータがその組内の残りの視差画像の1つまたは複数のための変換パラメータを入力することを可能にすることができる。
1つの例示的実施形態では、ユーザは参照画像において、および、位置合わせされていない画像の1つまたは複数において、輻輳点(convergence points)を選択することができる。コンピュータは適切なトランスレーションを実行して、画像における輻輳点を、これらの画像において選択された輻輳点の間の計算された差に基づいて、位置合わせすることができる。コンピュータはさらに、パターンマッチングまたは特徴抽出アルゴリズムを実行して、(a)いずれかの有意な回転視差(rotational disparities)が2つ以上の選択された画像の間に存在するかどうか、(b)回転視差の程度、(c)選択された画像の1つまたは複数をその周囲で回転させることができる点または回転、および(d)選択された輻輳点で、またはその付近で、選択された画像における関心領域の位置合わせにマッチするために、何の回転トランスレーションが必要とされるかを、決定することができる。このように、コンピュータは、選択された輻輳点に基づいて画像を位置合わせし、これらの画像を、位置合わせにマッチするように回転させることができる。
別の実施形態では、コンピュータは、位置合わせプロセスのより大きい部分もコントロールすることができる。例えば、オペレータまたはコンピュータのいずれかは、輻輳点を参照画像30において選択することができる。次に、コンピュータはパターンマッチングアルゴリズムを使用して、参照画像30内の輻輳点の周囲の領域に対応する、位置合わせされていない画像32内のマッチング領域のための推定値を計算することができる。当技術分野で知られるいかなる適切なパターンマッチングアルゴリズムも、この計算を実行するために使用することができる。例えば、画像30および32の各々からのピクセルのブロックを選択し、類似について比較することができる。このプロセスを、最良のマッチが選択されるまで、繰り返すことができる。次第により小さい変位でこのプロセスの繰り返しを実行して、トランスレーション値を精緻化することができる(例えば、サブピクセルの解像度の変換パラメータを提供するため)。回転もまた、上述のように処理することができる。
さらに別の実施形態では、コンピュータは、オペレータが1つまたは複数の視差画像のための変換パラメータを入力することを可能にすることができる。したがって、位置合わせされる画像毎に、ユーザは手動で変換パラメータを入力および変更して、視差画像を位置合わせすることができる。位置合わせソフトウェアには、例えば、グラフィカルユーザインターフェース(GUI)が含まれる場合があり、GUIでは、ユーザは、トランスレーションパラメータ、スケーリングパラメータ、回転値、回転ピボット点、および、画像変換に関連付けられた他のいずれかのパラメータなど、変換パラメータを入力することができる。追加の機能には、マッチング領域を定性的に識別する助けとなる位置合わせガイド、ズームイン/アウトを行う能力、および、画像の関心領域の外側の部分を隠す(すなわち、覆う)能力が含まれる場合がある。
自動化の程度にかかわらず、各プロセスにおける変換パラメータを、クリティカルな位置合わせが達成されるまで、継続的に調整することができる。クリティカルな位置合わせは、安定した裸眼立体表示を達成するために位置合わせの程度が十分である状態に対応する。画像全体の安定性は、裸眼立体表示内の少なくとも特定の関心領域が安定する限り、必要とされない場合がある。
開示された位置合わせプロセスの重要な要素の1つは、クリティカルな位置合わせを達成するためのサブピクセルの解像度の視差画像操作の使用である。具体的には、クリティカルな位置合わせを達成するための変換は、サブピクセルレベルまで進むことができ、このレベルでは、あるイメージが別のイメージに対して、整数のピクセルより小さい量により移動される。すなわち、変換には、整数のピクセルに1ピクセルの大きさの任意の端数をプラスまたはマイナスした変位が含まれる場合がある。これらのサブピクセル操作は、裸眼立体表示の安定性を最大にする助けとなることができる。サブピクセル位置合わせを達成するため、双3次再スケーリング、双1次再スケーリング、または、他のいずれかの適切な画像補間方法など、画像補間方法を使用することができる。
表示
視差画像およびその交互ビューを、視差画像のクリティカルな位置合わせの前、間、または後に表示することができる。視差画像の交互ビューをクリティカルな位置合わせプロセス中に表示することは、1つまたは複数の画像がいつ参照画像との位置合わせにマッチするかを決定する助けとなりうる。例えば、視差画像の交互ビューが表示されるとき、ユーザは、上述のように断続的に変換パラメータを入力して、2つ以上の視差画像を位置合わせすることができる。視差画像を位置合わせプロセス中に表示する1つの利点は、ユーザがリアルタイムで、入力された変換パラメータがイメージの位置合わせに関して有する効果を見ることができることである。このように、ユーザは、変換パラメータを入力すること、視差画像の位置合わせ状態を観察すること、および、変換パラメータを再入力して、視差画像の位置合わせ状態を精緻化することによって、位置合わせにマッチする状態に向かって追加的に進むことができる。
視差画像が位置合わせされると、位置合わせされた画像を画像データの組として格納することができる。画像データをこの方法で格納することは、位置合わせが完了された後、位置合わせされた視差画像をスタンドアロンのオペレーションで表示するために、有用である。例えば、位置合わせされた視差画像をビデオフォーマットで格納し、後で表示することができる。さらに、格納され、位置合わせされた視差画像を、表示またはさらに処理するために、位置合わせソフトウェアに再ロードすることができ、これらの処理には、例えば、これらの画像を新しい関心領域に対して位置合わせすることが含まれる。
代替として、画像を位置合わせするために使用された変換の記録(すなわち、画像位置合わせパラメータ)を格納することができる。後のプロセスで、格納された変換を取り出し、視差画像の組に再び適用して、画像の、位置合わせにマッチする状態を再生成することができる。一実施形態では、画像位置合わせパラメータを格納し使用して、同じ画像のより高解像度のバージョンを位置合わせすることができる。このプロセスは、例えば、高解像度画像の処理を速めるために有用である。かなりの処理リソースを必要とする場合があり、画像のリアルタイム操作を遅くするか、あるいは妨げる場合のある、高解像度画像についてクリティカルな位置合わせプロセスを実行するのではなく、これらの操作を高解像度画像の低解像度バージョンで実行することができる。次いで、低解像度画像に対して決定された位置合わせパラメータを、画像のより高解像度のバージョンに適用することができる。
立体表示とは異なり、本発明に一致する裸眼立体画像を画像のシーケンスとして、テレビ、コンピュータのモニタ、映写幕、動画ディスプレイ、または、動画を表示することができる他のいずれかのタイプのディスプレイなど、従来の2次元ディスプレイ(例えば、スクリーン)上で表示することができる。位置合わせされた画像の組を順次に、ランダムに選択された順序で、または、他のいずれかの所望の順序で表示することができる。例えば、図4aは、マッチされた位置合わせにおける6つの視差画像の組(例えば、3つの右−左ペア)を表す。図4bは、順次の再生パターンを例示し、このパターンでは、その組において位置合わせされた視差画像は繰り返しの順序で連続的に表示される。図4cおよび4dは、2つの可能性のあるランダム再生順序を明示している。上述のように、シーケンス内のビューが変更される頻度(すなわち、ビューレート)を、任意の所望の頻度にすることができる。しかし、一実施形態では、ビューレートを約3Hzと約6Hzの間にすることができる。さらに、ビューレートは一定である必要はないが、経時的に変化される場合がある。
解析
位置合わせされた視差画像を表示することに加えて、またはその代わりに、コンピュータ解析を画像について実行することができる。例えば、ある定量的情報を、位置合わせされた視差画像から抽出することができる。画像に含まれた視差情報の結果として、対象の見かけのシフトが、異なるビューの間で存在する場合がある。見かけのシフトは、画像内の点が、異なる視点から取られた複数の画像の間で移動するように見える距離を指す。2つ以上の視差画像内の点の見かけのシフトの量を測定することによって、カメラと画像内の点の間の距離など、ある他の情報が知られている場合、定量的位置の値を画像内の対象に関する点について計算することができる。例えば、カメラと、空から取り込まれた画像内の地面の間の距離を知ることによって、および、2つ以上の視差画像の間でビルの先端の見かけのシフトを測定することによって、ビルの高さおよび/または体積を計算することができる。
加えて、シーンの点についての定量的位置情報を、画像内に現れる既知の量に基づいて計算することができる。例えば、あるモデルの自動車が画像内に現れ、その自動車についての寸法データが入手可能である場合、自動車に関連付けられたシーン内の1つまたは複数の点の見かけのシフトを測定することによって、他のシーンの点のための位置の値を計算することができる。
さらに、画像内で十分なシーンの点のための位置の値を決定することによって、そのシーン内の対象についての深度マップを計算することができる。この深度マップ(depth map)を使用して、中間視差角(intermediate parallax angle)に対応するビューを作成することができる。これは、最初に取り込まれた画像からの複数のビューの補間を可能にする。
本発明の例示的実施形態による、視差画像を生成ための例示的カメラ位置を例示する図である。 本発明の例示的実施形態による、視差画像をクリティカルに位置合わせするための方法を表す流れ図である。 本発明の例示的実施形態による、視差画像を位置合わせするための変換プロセスを例示する図である。 本発明の例示的実施形態による、視差画像を位置合わせするための変換プロセスを例示する図である。 本発明の例示的実施形態による、視差画像を位置合わせするための変換プロセスを例示する図である。 本発明の例示的実施形態による、視差画像を位置合わせするための変換プロセスを例示する図である。 本発明の例示的実施形態による、位置合わせ中および後の視差画像の表示のための様々な順序パターンを例示する図である。 本発明の例示的実施形態による、位置合わせ中および後の視差画像の表示のための様々な順序パターンを例示する図である。 本発明の例示的実施形態による、位置合わせ中および後の視差画像の表示のための様々な順序パターンを例示する図である。 本発明の例示的実施形態による、位置合わせ中および後の視差画像の表示のための様々な順序パターンを例示する図である。

Claims (28)

  1. 裸眼立体表示を生成する方法であって、
    1の視野の第1の画像および前記第1の視野と少なくとも部分的にオーバーラップする第2の視野の少なくとも1つの第2の画像を獲得するステップであって、前記第1の画像と前記第2の画像との間の差は視差情報を含む、ステップと、
    コンピュータに関連付けられたプロセッサが、前記第1の画像および前記第2の画像を、ディスプレイ上に交互に表示するステップと、
    前記画像を表示する間に、前記第1の画像に関連付けられたユーザ選択の関心領域を、前記第2の画像の対応する関心領域と、位置合わせして、前記第1の画像の関心領域は前記ディスプレイにおいて前記第2の画像の関心領域と同じ場所を占めるようになる、位置合わせするステップと
    備えことを特徴とする方法。
  2. 前記位置合わせするステップは、トランスレーション、回転およびスケーリングのうち少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  3. 前記位置合わせするステップサブピクセルの解像度で実行されることを特徴とする請求項2に記載の方法。
  4. 前記第1の画像および前記第2の画像のうち少なくとも1つに関連付けられた位置合わせパラメータを格納するステップ、および、前記位置合わせパラメータを、前記第1の画像および前記第2の画像のうち前記少なくとも1つに適用するステップをさらに備えることを特徴とする請求項1に記載の方法。
  5. 記ディスプレイは、コンピュータのモニタ、テレビ、映写幕および動画ディスプレイのうち少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  6. 前記第1の画像および前記第2の画像は、2台の異なるカメラが前記第1の視野を見ることによって取り込まれたことを特徴とする請求項1に記載の方法。
  7. 前記第1の画像は、ビデオカメラによって取り込まれたビデオ画像ストリームの第1のフレームを含み、前記第2の画像は、前記ビデオカメラによって取り込まれた前記ビデオ画像ストリームの少なくとも1つのフレームを含み、該少なくとも1つのフレームは、前記第1のフレームからの時間遅延型であることを特徴とする請求項1に記載の方法。
  8. 前記第1の画像および前記第2の画像は、その位置が、前記第1の画像および前記第2の画像を取り込むことの間で移動された、単一のカメラを使用して取り込まれたことを特徴とする請求項1に記載の方法。
  9. 前記第1の画像および前記第2の画像は、コンピュータによって生成されたことを特徴とする請求項1に記載の方法。
  10. 位置合わせされた視差画像の組を生成するためのシステムであって、
    コンピュータシステムで使用するためのコンピュータ可読媒体を有するコンピュータを備え、
    前記コンピュータ可読媒体は、少なくとも第1の視差画像および第2の視差画像について画像記録装置が獲得した交互ビューを所望のビューレートで表示し、前記画像を表示する間、前記第1の画像に関連付けられたユーザ選択の関心領域を、前記第2の画像の対応する関心領域と、位置合わせして、前記第1の画像の関心領域がディスプレイにおいて前記第2の画像の関心領域と同じ場所を占めるようにする、前記コンピュータに実行させるように構成されるコンピュータ実行可能アプリケーションを有することを特徴とするシステム。
  11. 前記アプリケーションは、変換の組を前記第1および第2の視差画像の少なくとも1つに適用することを前記コンピュータに実行させるように、さらに構成されることを特徴とする請求項10に記載のシステム。
  12. 前記1または複数の変換は、トランスレーション、回転およびスケーリングのうち少なくとも1つを含むことを特徴とする請求項10に記載のシステム。
  13. 前記アプリケーションは、前記第1および第2の視差画像の1つを参照画像として指定する入力をオペレータから受け入れること、および、前記第1および第2の視差画像の変換に影響を及ぼす変換パラメータを前記オペレータから受け入れること、を前記コンピュータに実行させるように、さらに構成されることを特徴とする請求項10に記載のシステム。
  14. 前記アプリケーションは、前記第1および第2の視差画像における輻輳点を識別する入力をオペレータから受け入れること、および、前記第1および第2の視差画像の変換を実行するための変換パラメータを計算すること、を前記コンピュータに実行させるように、さらに構成されることを特徴とする請求項10に記載のシステム。
  15. 前記アプリケーションは、パターンマッチングを実行して、いずれかの有意な回転視差が前記第1および第2の視差画像の間に存在するかどうか、前記回転視差の程度、回転点、および、前記回転視差を補正するために必要とされる回転トランスレーションを決定することを前記コンピュータに実行させるように、さらに構成されることを特徴とする請求項10に記載のシステム。
  16. 前記アプリケーションは、前記第1および第2の視差画像の各々において現れる点に関連付けられた見かけのシフトの量を測定すること、および、前記点のための定量的位置の値を計算すること、を前記コンピュータに実行させるように、さらに構成されることを特徴とする請求項10に記載のシステム。
  17. 前記アプリケーションは、前記第1および第2の視差画像において現れる対象のための深度マップを計算することを前記コンピュータに実行させるように、さらに構成されることを特徴とする請求項10に記載のシステム。
  18. 裸眼立体表示を生成する方法であって、
    第1の画像を第1の視点で、イメージキャプチャデバイスを使用して取り込むステップと、
    前記イメージキャプチャデバイスを使用して、少なくとも1つの第2の画像を、前記第1の視点とは異なる第2の視点から取り込むステップと、
    前記第1の画像および前記第2の画像の交互ビューを、所望のビューレートでディスプレイ上で表示するステップと
    前記画像を表示する間、前記第1の画像に関連付けられたユーザ選択の関心領域を、前記第2の画像の対応する関心領域と、位置合わせして、前記第1の画像の関心領域が前記ディスプレイにおいて前記第2の画像の関心領域と同じ場所を占めるようにする、位置合わせするステップと
    を備えることを特徴とする方法。
  19. 前記イメージキャプチャデバイスはビデオカメラであることを特徴とする請求項18に記載の方法。
  20. 前記所望のビューレートは約3Hzと約6Hzの間であることを特徴とする請求項18に記載の方法。
  21. 前記位置合わせされた第1および第2の画像を格納するステップと、
    前記位置合わせされた画像の交互ビューをビデオフォーマットで再生するステップと
    をさらに備えることを特徴とする請求項18に記載の方法。
  22. 前記第1および第2の位置合わせされた画像に関連付けられた位置合わせパラメータを格納するステップと、前記位置合わせパラメータを前記第1および第2の画像の関連バージョンに適用するステップとをさらに備えることを特徴とする請求項18に記載の方法。
  23. 前記第1の画像および前記第2の画像の交互ビューを表示するステップは、前記第1の画像および前記第2の画像の交互ビューを所定のビューレートで表示するステップを備えることを特徴とする請求項1に記載の方法。
  24. 前記所定のビューレートは約3Hzと約6Hzの間であることを特徴とする請求項23に記載の方法。
  25. 前記所望のビューレートは約3Hzと約6Hzの間であることを特徴とする請求項10に記載のシステム。
  26. 裸眼立体表示を生成する方法であって、
    画像記録装置が、第1の視野の第1の画像および前記第1の視野と少なくとも部分的にオーバーラップする第2の視野の少なくとも1つの第2の画像を獲得するステップであって、前記第1の画像と前記第2の画像との間の差は視差情報を含む、ステップと、
    コンピュータに関連付けられたプロセッサが、前記第1の画像および前記第2の画像のうちの少なくとも1つに1または複数の変換を実行している間に、交互の前記第1の画像および第2の画像を交互にディスプレイ上に表示して前記第1および第2の画像が表示されながら、前記第1の画像に関連付けられたユーザ選択の対応する関心領域を、前記第2の画像の対応する領と、前記ディスプレイ上でクリティカルに位置合わせするステップ
    備えることを特徴とする方法。
  27. 裸眼立体表示を生成する方法であって、
    画像記録装置が、第1の視野の第1の画像および前記第1の視野と少なくとも部分的にオーバーラップする第2の視野の少なくとも1つの第2の画像を獲得するステップであって、前記第1の画像と前記第2の画像との間の差は視差情報を含む、ステップと、
    コンピュータに関連付けられたプロセッサが、交互の前記第1の画像および前記第2の画像を標準のディスプレイ上で、特殊メガネまたは立体表示スクリーンの使用を要することなく、交互に表示し前記第1の画像および前記第2の画像のうちの少なくとも1つについて1または複数の変換を実行している間に、前記第1の画像および前記第2の画像に関連付けられたユーザ選択の対応する関心領域をクリティカルに位置合わせして、前記視差情報をユーザが認識できるようにするステップと
    を備えることを特徴とする方法。
  28. 裸眼立体表示を生成する方法であって、
    画像記録装置が、第1の視野の第1の画像および前記第1の視野と少なくとも部分的にオーバーラップする第2の視野の少なくとも1つの第2の画像を獲得するステップであって、前記第1の画像と前記第2の画像との間の差は視差情報を含む、ステップと、
    コンピュータに関連付けられたプロセッサが、前記第1の画像および前記第2の画像のうちの少なくとも1つについて1または複数の変換を実行している間に、交互の前記第1の画像および前記第2の画像をディスプレイ上で交互に表示し、前記第1の画像および前記第2の画像に関連付けられたユーザ選択の対応する関心領域を前記ディスプレイ上でクリティカルに位置合わせすることで、クリティカルに位置合わせされた1または複数の画像を生成するステップと、
    前記1または複数のクリティカルに位置合わせされた画像を記録媒体に格納するステップ
    備えることを特徴とする方法。
JP2004555526A 2002-11-21 2003-11-20 裸眼立体表示のための視差画像のクリティカルな位置合わせ Expired - Lifetime JP5036132B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US42796102P 2002-11-21 2002-11-21
US60/427,961 2002-11-21
PCT/US2003/037203 WO2004049736A1 (en) 2002-11-21 2003-11-20 Critical alignment of parallax images for autostereoscopic display

Publications (2)

Publication Number Publication Date
JP2006507764A JP2006507764A (ja) 2006-03-02
JP5036132B2 true JP5036132B2 (ja) 2012-09-26

Family

ID=32393334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004555526A Expired - Lifetime JP5036132B2 (ja) 2002-11-21 2003-11-20 裸眼立体表示のための視差画像のクリティカルな位置合わせ

Country Status (7)

Country Link
US (4) US8081206B2 (ja)
EP (1) EP1570683A1 (ja)
JP (1) JP5036132B2 (ja)
KR (1) KR101237945B1 (ja)
AU (2) AU2003298681A1 (ja)
CA (1) CA2506608C (ja)
WO (1) WO2004049736A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842400B2 (en) 2015-01-27 2017-12-12 Samsung Electronics Co., Ltd. Method and apparatus for determining disparity

Families Citing this family (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
FR2873214B1 (fr) * 2004-07-13 2008-10-10 Canon Res Ct France S A S Soc Procede et dispositif d'obtention d'un signal stereoscopique
US20060034485A1 (en) * 2004-08-12 2006-02-16 Shahriar Negahdaripour Point location in multi-modality stereo imaging
JP4578294B2 (ja) * 2005-03-18 2010-11-10 株式会社エヌ・ティ・ティ・データ三洋システム 立体視画像表示装置、立体視画像表示方法及びコンピュータプログラム
US7301497B2 (en) * 2005-04-05 2007-11-27 Eastman Kodak Company Stereo display for position sensing systems
US20070127909A1 (en) * 2005-08-25 2007-06-07 Craig Mowry System and apparatus for increasing quality and efficiency of film capture and methods of use thereof
FR2888346B1 (fr) * 2005-07-06 2008-08-08 Canon Res Ct France Soc Par Ac Procede et dispositif d'obtention d'une sequence d'images stereoscopiques a partir d'une sequence d'images monoscopiques
KR100739764B1 (ko) * 2005-11-28 2007-07-13 삼성전자주식회사 입체 영상 신호 처리 장치 및 방법
US7511684B2 (en) 2006-07-31 2009-03-31 Motorola, Inc. Image alignment method for binocular eyewear displays
KR100834637B1 (ko) 2006-11-27 2008-06-02 삼성전자주식회사 스테레오 카메라 장치에서 이미지들을 정렬하기 위한 장치및 방법
WO2009011492A1 (en) * 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
DE102007039079B4 (de) * 2007-08-16 2011-07-21 VisuMotion GmbH, 07745 Verfahren und Anordnung zur räumlichen Darstellung einer Szene mit nur geringer oder ohne Beleuchtung
CN102017640B (zh) * 2008-05-01 2012-11-28 松下电器产业株式会社 再现装置、集成电路与再现方法
US8902321B2 (en) 2008-05-20 2014-12-02 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US9001115B2 (en) * 2009-01-21 2015-04-07 Vision Iii Imaging, Inc. System and method for three-dimensional visualization of geographical data
JP4995854B2 (ja) * 2009-03-11 2012-08-08 富士フイルム株式会社 撮像装置、画像補正方法および画像補正プログラム
TWI411870B (zh) * 2009-07-21 2013-10-11 Teco Elec & Machinery Co Ltd 立體影像產生方法及系統
US8436893B2 (en) * 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
US8508580B2 (en) 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
WO2011014420A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3d) images
US20120224027A1 (en) * 2009-08-20 2012-09-06 Yousuke Takada Stereo image encoding method, stereo image encoding device, and stereo image encoding program
GB2473247B (en) * 2009-09-04 2015-02-11 Sony Corp A method and apparatus for image alignment
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8704877B2 (en) * 2010-02-01 2014-04-22 Eldon Technology Limited Systems and methods for presenting three-dimensional content using apertures
GB2478164A (en) * 2010-02-26 2011-08-31 Sony Corp Calculating misalignment between a stereoscopic image pair based on feature positions
US9438886B2 (en) 2010-04-07 2016-09-06 Vision Iii Imaging, Inc. Parallax scanning methods for stereoscopic three-dimensional imaging
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
JP5235976B2 (ja) * 2010-05-31 2013-07-10 株式会社ソニー・コンピュータエンタテインメント 映像再生方法、および映像再生装置
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US20120120051A1 (en) * 2010-11-16 2012-05-17 Shu-Ming Liu Method and system for displaying stereoscopic images
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US9113074B2 (en) * 2010-12-22 2015-08-18 Olympus Corporation Imaging apparatus, imaging method, and computer readable storage medium for applying special effects processing to an automatically set region of a stereoscopic image
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
WO2012092246A2 (en) 2010-12-27 2012-07-05 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3d) content creation
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
JP5087163B1 (ja) * 2011-08-31 2012-11-28 株式会社東芝 立体画像表示装置
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
EP2761534B1 (en) 2011-09-28 2020-11-18 FotoNation Limited Systems for encoding light field image files
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
JP2013219421A (ja) * 2012-04-04 2013-10-24 Seiko Epson Corp 画像処理装置および画像処理方法
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
AU2013305770A1 (en) 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP4307659A1 (en) 2012-09-28 2024-01-17 Adeia Imaging LLC Generating images from light fields utilizing virtual viewpoints
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
CA2848794C (en) * 2014-04-11 2016-05-24 Blackberry Limited Building a depth map using movement of one camera
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
KR20170063827A (ko) 2014-09-29 2017-06-08 포토네이션 케이맨 리미티드 어레이 카메라들의 동적 교정을 위한 시스템들 및 방법들
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
WO2019041035A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. STEREOSCOPIC IMAGE DISPLAY DEVICE ADJUSTED BY THE SPECTATOR
US10484667B2 (en) * 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
BR112022006617A2 (pt) 2019-10-07 2022-06-28 Boston Polarimetrics Inc Sistemas e métodos para detecção por sensor de normais à superfície com polarização
EP4066001A4 (en) 2019-11-30 2024-01-24 Boston Polarimetrics Inc SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
KR20220132620A (ko) 2020-01-29 2022-09-30 인트린식 이노베이션 엘엘씨 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들
JP2023511747A (ja) 2020-01-30 2023-03-22 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN113959398B (zh) * 2021-10-09 2024-04-12 广东汇天航空航天科技有限公司 基于视觉的测距方法、装置、可行驶设备及存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4006291A (en) * 1974-02-22 1977-02-01 Imsand Donald J Three dimensional television system
US4303316A (en) * 1978-10-19 1981-12-01 Mcelveen Robert H Process for recording visual scenes for reproduction in stereopsis
US4429328A (en) * 1981-07-16 1984-01-31 Cjm Associates Three-dimensional display methods using vertically aligned points of origin
ES508295A0 (es) * 1981-08-27 1983-06-16 Becton Dickinson Co "perfeccionamientos introducidos en un aparato para introducir reactivos en recipientes de recogida de muestras".
US4815819A (en) * 1987-04-30 1989-03-28 Christopher A. Mayhew Method for obtaining images for use in displaying a three-dimensional illusion and related image recording medium
JP2813211B2 (ja) * 1989-09-29 1998-10-22 富士通株式会社 距離画像生成方式
US5448322A (en) * 1993-11-05 1995-09-05 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using a parallax scanning lens aperture
JP3214688B2 (ja) * 1994-02-01 2001-10-02 三洋電機株式会社 2次元映像を3次元映像に変換する方法及び3次元映像信号生成装置
US5510831A (en) * 1994-02-10 1996-04-23 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using suit scanning of parallax images
JPH08191463A (ja) * 1994-11-11 1996-07-23 Nintendo Co Ltd 立体画像表示装置およびそれに用いられる記憶装置
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JPH08331607A (ja) * 1995-03-29 1996-12-13 Sanyo Electric Co Ltd 三次元表示画像生成方法
JP3544752B2 (ja) * 1995-06-06 2004-07-21 株式会社ナムコ 画像情報生成方法、画像表示方法及び画像表示システム
JP3579162B2 (ja) * 1995-06-29 2004-10-20 松下電器産業株式会社 立体cg画像生成装置
JPH1127703A (ja) * 1997-06-30 1999-01-29 Canon Inc 表示装置及びその制御方法
US6191809B1 (en) * 1998-01-15 2001-02-20 Vista Medical Technologies, Inc. Method and apparatus for aligning stereo images
JP3081589B2 (ja) * 1998-10-02 2000-08-28 日本電信電話株式会社 三次元表示方法および装置
JP3420504B2 (ja) * 1998-06-30 2003-06-23 キヤノン株式会社 情報処理方法
US6657655B1 (en) * 1999-09-30 2003-12-02 Canon Kabushiki Kaisha Stereoscopic-image display apparatus
JP2002077947A (ja) * 2000-09-05 2002-03-15 Sanyo Electric Co Ltd 立体画像補正方法及びこれを用いた立体画像装置
JP2002250895A (ja) * 2001-02-23 2002-09-06 Mixed Reality Systems Laboratory Inc 立体画像表示方法及びそれを用いた立体画像表示装置
US20030152264A1 (en) * 2002-02-13 2003-08-14 Perkins Christopher H. Method and system for processing stereoscopic images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842400B2 (en) 2015-01-27 2017-12-12 Samsung Electronics Co., Ltd. Method and apparatus for determining disparity

Also Published As

Publication number Publication date
EP1570683A1 (en) 2005-09-07
US8081206B2 (en) 2011-12-20
CA2506608A1 (en) 2004-06-10
US8953015B2 (en) 2015-02-10
US20120176479A1 (en) 2012-07-12
WO2004049736A1 (en) 2004-06-10
KR20050085099A (ko) 2005-08-29
US9848178B2 (en) 2017-12-19
US20160182879A1 (en) 2016-06-23
CA2506608C (en) 2013-01-22
US20150116466A1 (en) 2015-04-30
KR101237945B1 (ko) 2013-02-28
US20060203335A1 (en) 2006-09-14
JP2006507764A (ja) 2006-03-02
AU2010200085A1 (en) 2010-01-28
AU2010200085B2 (en) 2012-07-12
AU2003298681A1 (en) 2004-06-18

Similar Documents

Publication Publication Date Title
JP5036132B2 (ja) 裸眼立体表示のための視差画像のクリティカルな位置合わせ
EP2603834B1 (en) Method for forming images
US9460555B2 (en) System and method for three-dimensional visualization of geographical data
CA2488925C (en) Method for producing stereoscopic images from monoscopic images
JP3524147B2 (ja) 3次元画像表示装置
Berretty et al. Real-time rendering for multiview autostereoscopic displays
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
JP2004102526A (ja) 立体画像表示装置、表示処理方法及び処理プログラム
JP2011529285A (ja) 再現描写メディア中への両眼ステレオ情報の包含のための合成構造、メカニズムおよびプロセス
JPH10336703A (ja) 画像合成装置、方法および記憶媒体
Kang Wei et al. Three-dimensional scene navigation through anaglyphic panorama visualization
KR101831978B1 (ko) 회전된 렌티큘러시트를 부착한 디스플레이에 표시되는 요소영상콘텐츠 생성 방법
Hill Scalable multi-view stereo camera array for real world real-time image capture and three-dimensional displays
Audu et al. Generation of three-dimensional content from stereo-panoramic view
Ince Correspondence Estimation and Intermediate View Reconstruction
KR100400209B1 (ko) 텔레비젼(tv)신호로부터삼차원동영상을발생시키는장치
JPH09261537A (ja) 画像処理装置及び画像処理方法
KR20230087795A (ko) 3d/2d 변환이 가능한 집적영상 생성 및 재생 장치와 그 방법
Barham et al. Some variations on VISIDEP using computer graphics
EP1492358A2 (en) Process for the formation of images suitable for three-dimensional viewing, and image obtained using that process
Ideses et al. 3D from arbitrary 2D video
Nguyen et al. Novel Web-based Autostereogram Creation using GPU Stereo Vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100422

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100430

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100524

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100622

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110801

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110808

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110901

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120703

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5036132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term