JP4996922B2 - 立体映像化 - Google Patents
立体映像化 Download PDFInfo
- Publication number
- JP4996922B2 JP4996922B2 JP2006530568A JP2006530568A JP4996922B2 JP 4996922 B2 JP4996922 B2 JP 4996922B2 JP 2006530568 A JP2006530568 A JP 2006530568A JP 2006530568 A JP2006530568 A JP 2006530568A JP 4996922 B2 JP4996922 B2 JP 4996922B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- substrate
- stereo
- coordinates
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000012800 visualization Methods 0.000 title description 3
- 239000000758 substrate Substances 0.000 claims description 295
- 238000000034 method Methods 0.000 claims description 189
- 230000001427 coherent effect Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 34
- 230000000007 visual effect Effects 0.000 claims description 25
- 230000009466 transformation Effects 0.000 claims description 23
- 238000009877 rendering Methods 0.000 claims description 21
- 239000011521 glass Substances 0.000 claims description 12
- 238000004088 simulation Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000014509 gene expression Effects 0.000 claims description 3
- 239000000463 material Substances 0.000 claims description 3
- 238000007639 printing Methods 0.000 claims description 2
- 230000000875 corresponding effect Effects 0.000 description 119
- 238000013507 mapping Methods 0.000 description 63
- 238000000605 extraction Methods 0.000 description 34
- 238000003384 imaging method Methods 0.000 description 25
- 230000000694 effects Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 21
- 230000002829 reductive effect Effects 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 17
- 238000005070 sampling Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 238000013459 approach Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000008447 perception Effects 0.000 description 9
- 239000000243 solution Substances 0.000 description 9
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 8
- 239000012634 fragment Substances 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 210000004556 brain Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 208000003464 asthenopia Diseases 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 230000009977 dual effect Effects 0.000 description 5
- 239000002245 particle Substances 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 206010019233 Headaches Diseases 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 4
- 239000011111 cardboard Substances 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 231100000869 headache Toxicity 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000010004 neural pathway Effects 0.000 description 4
- 210000000118 neural pathway Anatomy 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010425 computer drawing Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- BYJQAPYDPPKJGH-UHFFFAOYSA-N 3-(2-carboxyethyl)-1h-indole-2-carboxylic acid Chemical compound C1=CC=C2C(CCC(=O)O)=C(C(O)=O)NC2=C1 BYJQAPYDPPKJGH-UHFFFAOYSA-N 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 239000011087 paperboard Substances 0.000 description 1
- 239000002574 poison Substances 0.000 description 1
- 231100000614 poison Toxicity 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 208000018316 severe headache Diseases 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000012086 standard solution Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
- H04N13/351—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/388—Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
Fangi, G., Find, F., Gagliardini, G., Malinvemi, E. (2002) "Fast and Accurate Close Range 3D Modelling by Laser Scanning System:" in Albertz, J. (Editor), Surveying and Documentation of Historic Buildings-Monuments-Sites: Traditional and Modem Methods. Proceedings of the XVIIIth International Symposium of CIPA, Potsdam (Germany), September 18-21, 2001. The ICOMOS/ISPRS Committee for Documentation of Cultural Heritage, Berlin.
図1は、左右のカメラを使用して複雑な物体のステレオ記録を行うためのシステムを示す。
図2は、ステレオ記録された物体のトップダウン断面図であり、オブジェクトポイントとイメージポイントとの間の関係を示す。
図3は、立体画像の左右イメージのステレオ投射及び視野を示す。
図4は、鑑賞者によって知覚された投影立体画像における見かけ上の深度を図説する。
図5は、鑑賞者によって知覚された投影立体画像における見かけ上の深度のトップダウン断面図である。
図6は、様々なイメージポイント対の表面視差を図説する。
図7は、見かけ上のポイント(B)に対応するイメージポイントの表面視差を除去するように位置決めされたスクリーンを示す。
図8は、対応するイメージポイントの特定の三対の表面視差を除去するための、3個のスクリーンの位置決めを示す。
図9は、全ての対応するイメージポイント対の表面視差を除去するたよう位置決めされた、理論上「完全な」基板を図説する。
図10は、厳密に投射された三対のステレオ光線の理論上の交差点を示す。
図11は、ゼロ視差ポイントの計算による表面視差の除去、及び、見かけ上の残りの視差表面の発生を図説する。
図12は、ステレオ光線の交差点の選択対が基板の頂点にマップされたところの基板及び立体画像間の関係の遠近法による視野である。
図13は、質感優位の原則を図説するものであり、これによって、鑑賞者は基板ではなく見かけ上の表面だけを知覚する。
図14は、従前のモデル及び可干渉性のステレオ質感のあるモデルにおいて全体的な深度(巨視的視差)を軽減した場合の効果の対比である。
図15は、ステレオカーソルを使った、見かけ上の立体的特徴のプロッティングを図説する。
図16は、複雑な表面の断片のステレオ写真撮影記録を図説する。
図17は、左右の平坦な多角形状メッシュをステレオプロッティングするための動作の経過を示す。
図18は、各イメージ座標値を伴った平坦なメッシュの頂点間の関係を図説する。
図19は、ステレオ対応する左右の平坦なメッシュからの三次元基板の計算及び構築を表す。
図20は、ステレオプロットされたイメージ座標、左右の平坦なメッシュ、テクスチャマッピング座標の左右の組、の間の関係を図説する。
図21は、三次元多角形状の基板上への、単一(単観測,monoscopic)テクスチャイメージマップの投影マッピングを示す。
図22は、三次元多角形状の基板上への、対応する対の(双観測,stereoscopic)テクスチャイメージマップの投影マッピングを示す。
図23は、描画されたスクリーン空間、3D VR物体空間、実物体空間、2Dテクスチャイメージ空間の間の関係を図説する。
図24は、正確にテクスチャデータをサンプリングする過程を図説する。
図25は、可干渉性のステレオ質感のあるモデルの、様々なユーザ指定の空間的変形の連続を示す。
図26は、イメージ抽出の基板を伴った可干渉性のステレオ質感のあるモデルと任意の基板を使ったモデルとの間の空間的関係を図説する。
図27は、可干渉性のステレオ質感のあるモデルの見かけ上の表面から真の3D測量を抽出する方法を図説する。
図28は、3D物体のステレオ記録のための写真測量法上の関係及びパラメータを示す。
図29は、ステレオイメージから抽出されたデータを使った、可干渉性のステレオ質感のあるモデル生成の基本的手法を表す。
本発明の第一の局面によれば、三次元物体の立体的表現を形成するための、次のステップから構成される方法が与えられる。
(a)物体の第一及び第二視野から構成される立体画像を与え、
(b)物体の基本形状を表現する第一及び第二視野から、対応するイメージポイントの複数の対を選択し、
(c)基板を与え、
(d)対応するイメージポイントの各選択対のための表面視差が実質的に除去され、対応するイメージポイントの少なくともいくつかの非選択対のために、残りの表面視差が発生するように、第一及び第二視野を基板に割り当てる。
(a)数学的に投射された光線の対が対応するイメージポイントの各対からそれぞれ通過する、三次元空間におけるポイントの組を決定し、
(b)基板の表面を生成するために三次元空間において決定されたこのポイントの組を使用し、それによって、表面上の決定されたポイントの組が座標の組と対応することとなる。
(a)それぞれの第一及び第二視野の遠近法による中心に関して、基板の位置及び方向を決定し、
(b)基板の表面によって定義された各座標から第一及び第二視野の各遠近法による中心を通る数学的に投射される光線による、対応するイメージポイントの複数の対を選択する。このようにして、基板は、物体のスケールモデルとなる(例えば、物体の基本形状のスケールモデル)。物体は、レーザースキャンやそれに類するもののいずれかの標準的測量技術を使って測定してよい。そして、三次元的な参照系を有してもよい。もし物体と関連するカメラ位置が、立体画像の生成時に既知となれば、基板及びカメラの関係は、共通参照システムの探索によって計算される。例えば、これは、GPS座標や、物体の上や周囲に配置され、立体画像として記録される可視目標に基づいてもよい。他の実施形態では、レーザースキャン中及び立体画像の両視野中の共通ポイントを探索することでこの関係が決定され、そして、これらのポイントは、カメラのアングル及びポジションを決定するために使用される。このようにして、カメラと基板との間の空間的関係が、物体を参照することなく計算される。
(a)基板上の立体画像の第一視野を割り当てるための、イメージ座標の第一の組を与え、そして、
(b)基板上の第二視野を割り当てるための、イメージ座標の第二の組を与える。
一実施形態において、この立体的表現は、第一視野が表示されるときには、基板に対して第一視野を割り当てるために第一の組の座標が使用され、第二視野が表示されるときには、基板に対して第二視野を割り当てるために第二の組の座標が使用されるように描画される。他の実施例において、基板は、第一及び第二の基板部分から構成され、各基板部分は物体の基本形状を表現し、三次元空間内の一組の座標を定義する表面を持ち、立体画像の第一及び第二視野を基板に割り当てるステップは、第一視野を第一の基板部分(例えば、第一組のイメージ座標の使用)に割り当てることと、第二視野を第二の基板部分(例えば、第二組のイメージ座標の使用)に割り当てることとから構成される。
(a)既に明らかにされた、本発明の第一の局面の実施方法のいずれかに基づいて、それぞれ形成された複数の立体的表現を与え、
(b)この一連の複数の立体的表現を、特定のフレームレートで鑑賞するために配列する。
(a)物体の第一及び第二の視野を構成する立体画像を発生する手段、
(b)物体の基本形状を表現する第一及び第二の視野から、対応するイメージポイントの複数の選択対を選択する手段、
(c)基板を発生する手段、
(d)対応するイメージポイントの各選択対のために表面視差が実質的に除去され、対応するイメージポイントの少なくともいくつかの非選択対のために残りの表面視差が発生するように、発生させた基板に第一及び第二の視野を割り当てる手段。
(a)物体の第一及び第二視野からなる立体画像、
(b)基板、
(c)対応するイメージポイントのあらかじめ選択された対のために、物体の基本形状を表現する第一及び第二の視野から表面視差が実質的に除去され、対応するイメージポイントの少なくともいくつかの他の対のために、残りの表面視差が発生するように、第一及び第二視野を基板に割り当てる手段。
本発明は、可干渉性のあるステレオ質感モデル(coherently stereo−textured model;CSTM)と呼ばれる、三次元の立体的存在物の新規な様式と、可干渉性のあるステレオ質感と呼ばれる、このCSTMによって生成され、描画され、表示されるところの処理とから構成される。CSTMの基本構成は、次のものである。
(1)一つ又はそれ以上の立体画像、
(2)三次元基板、
(3)基板の構造、及び、基板とそれに適用されたイメージとの間の関係を(全体又は一部として)決定する、ここにゼロ視差ポイントとして参照される一組の座標。
従来の立体画像は、適当なステレオビューアで見たときに、部分のイメージ及びその基板は二次元でしかないにも関わらず、三次元の幻影を生成する。しかしながら、従来の立体画像は、ただ一つの視点(そのイメージ対が記録された時のカメラの位置)を表現できるだけであるので、三次元の幻影は、基本的に静的であり、鑑賞者は、イメージに対する自身の位置関係に関わらず、この一つの視点に制限されることとなる。
可干渉性のステレオ質感のあるモデルを生成するために、三つの基本的方法が存在する。すなわち、イメージ抽出のもの、物体抽出のもの、組み合わせ抽出のもの、である。イメージ抽出方法においては、三次元基板を構築するためのデータは、ステレオイメージから導かれる。物体抽出方法においては、データは、レーザセオドライト測定又は3Dレーザスキャニング処理といった他の方法によって、オリジナル物体から採取された測量から導かれる。第三の処理は、人工的に生成され描画されたコンピュータグラフィックスモデルからのCSTSの生成物を含み、基本的には第一及び第二の処理の混成であり、ここでは、(マップすべき)立体画像のためのイメージが、人工的にコンピュータ「内部」で描画されている。
この方法は、まず、VR環境において(つまり、立体的に描画された、対話式3Dコンピュータグラフィックスシステム上で)、複雑な実世界の物体を表現及び表示するの適している。この処理の基本的な動作は次の通りである。
(a)三次元空間における特定のオブジェクトポイント
(b)カメラの遠近法による中心
(c)三次元空間において、全てが同じ直線上に置かれた、オブジェクトポイントに対応するイメージポイント
この状態を実施する等式は、通常、「共線的等式」と呼ばれ、そして、多くの写真測量技術がこれらの等式に基づいている(下記、等式の節を参照)。
この方法において、基板は、物体を記録するために使用された立体画像からというよりは、物体それ自身の測量から抽出された3Dデータから構成される。この三次元データは、手動による測量、図面、線図、レーザセオドライトマッピング、レーザ距離計スキャン等、様々な拠り所から集められ得る。ゼロ視差ポイントとして機能する、抽出されたポイントは、多角形状の面の組又はメッシュの頂点を構築するために使用される。関心のある物体に対する立体的画像の相対的な方向は、認知されるべきである。独立して抽出された3Dデータの方向も、オリジナル物体のための共通参照フレーム及びオリジナルの立体的画像をキャプチャするカメラステーションに認知されるべきである。
この方法は、組み合わせ生成されたコンピュータグラフィックスモデル及び描画(例えば、3Dモデリング及び描画プログラムにおいて作成されたモデル)からの、CSTMの生成物に関連する。この技術は、オリジナル物体の立体的画像が3Dモデリング又はグラフィックスプログラムにおける仮想カメラ(又は、複数のカメラ)を使って撮影されるという点以外は、本質的にイメージ抽出方法に非常に似ている。左右イメージの一対のステレオ描画が生成されると、これらは、CSTMの生成のためのイメージ抽出処理と全く同じように使用される。しかしながら、立体的画像は、組み合わせのコンピュータグラフィックスモデルを「記録する」ために使用されるので、CSTMを生成するために必要なデータのほとんどは、既にモデル自体の中に存在している。
三次元表現をもたらすためのコンピュータグラフィックスにおいて使用される、他の三次元技術が複数存在する。まず一つの方法は、CAT及びMRI医療スキャンによって生成されたような、容量イメージを使うことである。ここで、イメージは、固形物体を通してスライスのように生成され、各スライスはイメージ値の二次元配列から構成されることとなる。イメージの平坦な平面が互いの上部に積み上げられて描画されると、容量表現が作り出されるのである。ピクセルの代わりに、ボクセル(voxel)を有している。これら組み合わせ生成のCSTMのための方法に似た方法を使って、CSTMを生成するための容量データが再サンプルされ得る。ここで、左右の仮想カメラは、特定の関連位置からの容量データを描写するために使用される。
描画ハードウェア及びソフトウェアに依存して、CSTMを構成する基本データの組は、多くの異なった方法で利用される。主として採用されているスキームは、「フレームシーケンシャル描画モード」として知られるところのものである。フレームシーケンシャルステレオにおいて、左右の描画された視野は、スクリーン上に交互に現れる。LCDシャッターグラス(例えば、CrystalEyes(登録商標))のような特別のアイウェアを使用することで、フリッカやクロストークを起こすことなく、彼らのそれぞれの目に対して、正確に描画された左右の視野を示すことが可能になる。
上記した処理の一つによって、一度CSTMが生成されると、その多角形状基板を異なる形へ歪める又は変形させるといった、さらなる修正を施すことが可能である。CSTMの使用は、オリジナルの立体的画像の、自然なステレオ投影された形状に最初に順応するものの一つであると考えられている(つまり、ゼロ視差ポイントが、対応するステレオ光線の自然なステレオ交差に位置付けられる)。この基板の変形は、多角形状基板を構成する個々の頂点の値を変更することによって実行される。テクスチャ座標は、多角形状基板に割り当てられているので、基板のメッシュを変形させ、今なお表面に対応してマップされたテクスチャイメージを持つことが可能となる。言い換えると、ステレオ対応する左右のポイントは、基板が新しい形状に変形されたとしても、なお、ゼロ視差ポイントに収束するよう作られるのである。
立体的画像は、単一の視野を表現するだけであるので、鑑賞スクリーンに関して観察者が移動すると、立体的モデルは僅かに歪められる。立体的ずれとして知られる現象である。従来の立体的画像と比較して、全体的なずれの効果が意味を持って軽減されるにも関わらず、可干渉性のステレオ質感のあるモデルにおいて、ある程度の立体的ずれは、なお発生するであろう。これは、この基板が、平坦スクリーン又は基板よりもオリジナル物体の近似により近いという事実によって、表面視差が軽減されるだけだからである。
物理的に作られた基板から構成されるCSTMを生成すること、そして、基板の表面上にマップされ、投影され、印刷されたステレオイメージを持つことが可能である。投影されたステレオイメージの左右視野を分離することができる方法が存在する場合には(例えば、円形又は線形の分極化、あるいは立体写真技術)、システム全体がCSTMとして機能する。CSTMの出力をハードコピー可能なもののひとつは、その上に立体写真の形式で印刷された立体イメージを伴った、紙又は厚紙モデルであろう(つまり、左右の目のための分離フィルタを伴う眼鏡を使用する)。これを実現するひとつの可能な手法を、以下に述べる。
本発明の最初の出願[英国特許出願0322840.0,「立体的画像イメージング」(出願日2003年9月30日)及び米国優先出願、米国特許出願番号60/507,727(出願日2003年9月30日)]において、「トリホモログ(Tri-Homologous)描画」との用語は、ステレオ対応する光線対が交差し、対応する基板頂点が配置されるところの、三次元空間におけるポイントに関して使用されたものである。明確にするために、この専門用語は、基板の頂点を「ゼロ視差ポイント」と呼び、そして、光線対が交差するポイント(以前は、「バイホモログポイント(Bi-Homologous Point)」とも呼ばれていた)を「ステレオ光線交差ポイント」と呼ぶことを選んで、消し去ったものである。同様の理由で、「可干渉性のステレオ質感のある存在物」及び「写真投影的なステレオ質感のある共線的多角形状基板」は、単一の用語「可干渉性のステレオ質感のあるモデル」を選択することとして、消し去った。
(共線等式の有益な導出)
3D空間における物体ポイントの2Dイメージ平面上への遠近法による投影は、次のように計算される。空間における三次元ポイントXa,Ya,Zaは、カメラ又はイメージングシステム(図28参照)の二次元イメージ平面上に投影され、次の定義が与えられる。
二つのポイントPoV(左)及びPoV(右)は、CSTMの左右遠近法による視野の描画に使用される、左右の鑑賞錐台の遠近法による中心である(図27参照)。視野のフィールドの中に誘導されるステレオカーソルは、見かけ上のポイントの3D位置を計算するために使用され、また、3Dカーソルは、見かけ上のポイントに空間的に位置するものとして用いられる。いったん見かけ上のポイントの3D位置が決定されると、光線は、PoV(左)及びPoV(右)への見かけ上のポイントP(a)から構成される。基板上の表の平面は、P1、P2、P3によって定義される。それゆえ、次の動作は、投影されたイメージポイント、B(左)及びB(右)の三次元位置をもたらすために、基板の表の平面と共に二つの光線の交差ポイントを計算することである。投影されたポイントを二つの異なる多角形上に発生させることも可能であり、二つの異なる平面にあるステレオ対応のポイントの投影を考慮に入れた手順を開発することも可能である。使用された一般的な等式は、以下で示したように、共に三次元空間において平面を伴った線の交差ポイントに関連するものである。見かけ上のポイントP(t)の真の位置は、第二の光線対の交差ポイントによって計算される。一つの光線は、投影された左イメージポイントB(左)を通って左イメージの遠近法による中心O(左)の3D位置から構成され、他の交差光線は、右イメージの遠近法による中心O(右)及び投影された右イメージポイントB(右)から構成される。両光線は、P(t)で交差し、この見かけ上のポイントに対する真の位置は、三次元空間における二つの線(又は光線)の交差ポイントを決定するための、以下の等式を使用して計算される。同じ原則は、CSTMの手続き上のステレオ質感にも使用可能である。
1.02 複雑な実世界物体
2.01 複雑な物体の表面
2.02 左カメラ/イメージの遠近法による中心
2.03 右カメラ/イメージの遠近法による中心
2.04 オリジナルな立体的画像が記録された左右カメラの間の基本分割
2.05 左イメージ平面
2.06 右イメージ平面
3.01 左右ステレオプロジェクタ
3.02 ステレオアイウェア
3.03 平坦な投影スクリーン
4.01 平坦な投影スクリーン
4.02 物体の見かけ上の表面
5.01 スクリーンの平面
5.02 見かけ上の平面の横断面
6.01 見かけ上の平面の横断面
6.02 見かけ上のオブジェクトポイントAのスクリーン視差距離
6.03 見かけ上のオブジェクトポイントBのスクリーン視差距離
6.04 見かけ上のオブジェクトポイントCのスクリーン視差距離
6.05 平坦なスクリーンの平面
6.06 左イメージの遠近法による中心
6.07 右イメージの遠近法による中心
6.08 プロジェクタ/カメラ間の距離
6.09 左イメージ平面
6.10 右イメージ平面
7.01 見かけ上の表面の横断面
7.02 平坦なスクリーンの平面
7.03 見かけ上のオブジェクトポイントBのゼロとなったスクリーン視差距離
7.04 見かけ上のオブジェクトポイントBに対応する左イメージポイント
7.05 見かけ上のオブジェクトポイントBに対応する右イメージポイント
7.06 左イメージの遠近法による中心
7.07 右イメージの遠近法による中心
7.08 プロジェクタ/カメラ間の距離
8.01 見かけ上のポイントAに位置付けされた小スクリーン
8.02 見かけ上のポイントBに位置付けされた小スクリーン
8.03 見かけ上のポイントCに位置付けされた小スクリーン
8.04 左イメージ
8.05 右イメージ
8.06 左イメージの遠近法による中心
8.07 右イメージの遠近法による中心
8.08 プロジェクタ/カメラ間の距離
9.01 「完全な」基板
9.02 左イメージの遠近法による中心
9.03 右イメージの遠近法による中心
9.04 プロジェクタ/カメラ間の距離
9.05 左イメージ
9.06 右イメージ
10.01 オリジナルなステレオ記録された物体の表面に関連して示された、三対のステレオ光線の交差ポイント
10.02 左イメージの遠近法による中心
10.03 右イメージの遠近法による中心
10.04 オリジナルな立体的画像が記録された左右カメラの間の基本分割
10.05 左イメージ
10.06 右イメージ
11.01 多角形状基板(鑑賞者に不可視)
11.02 鑑賞者によって知覚されたときの、物体の見かけ上の表面
11.03 左イメージの遠近法による中心
11.04 右イメージの遠近法による中心
11.05 オリジナルな立体的画像が記録された左右カメラの間の基本分割
11.06 左イメージ
11.07 右イメージ
11.08 付帯的なゼロ視差ポイント
11.09 (正及び負の)残りの表面視差からもたらされた見かけ上の表面
12.01 多角形状基板
12.02 割り当てられた立体的画像のためのゼロ視差ポイントとして各頂点が働く、見かけ上の表面
14.01 従来の手法によって明示的にモデルされた複雑な表面
14.02 ステレオ記録された3D形状の、意図的なアンダーサンプリングによって生成された簡易CSTM基板
14.03 CSTMの見かけ上の表面
14.04 全体的な深度(巨視的視差)が十分に軽減されたときの、従来モデルの見かけ上の表面
14.05 全体的な深度(巨視的視差)が十分に軽減されたときの、CSTM基板(鑑賞者に不可視)
14.06 全体的な深度(巨視的視差)が十分に軽減されたときの、CSTMの見かけ上の表面
14.07 全体的な深度(巨視的視差)がゼロにまで軽減されたときの、従来モデルの見かけ上の深度
14.08 全体的な深度(巨視的視差)がゼロにまで軽減されたときの、CSTM基板(鑑賞者に不可視)
14.09 全体的な深度(巨視的視差)がゼロにまで軽減されたときの、CSTMの見かけ上の表面
15.01 ステレオ可能なディスプレイ
15.02 ステレオ記録された物体の見かけ上の表面
15.03 ステレオカーソルの左構成部分
15.04 ステレオカーソルの右構成部分
15.05 立体的アイウェアの左構成部分
15.06 立体的アイウェアの右構成部分
15.07 左目
15.08 右目
15.09 ステレオカーソルの見かけ上の位置
16.01 真の3D複雑表面の断片
16.02 左イメージ
16.03 右イメージ
16.04 左イメージ/イメージングシステムの遠近法による中心
16.05 右イメージ/イメージングシステムの遠近法による中心
16.06 左右イメージのための効果的な焦点長
17.01 左イメージフレーム
17.02 右イメージフレーム
17.03 記録された物体の左イメージ
17.04 記録された物体の右イメージ
17.05 プロットされた左イメージポイント
17.06 プロットされた対応する右イメージポイント
17.07 左の「平坦な」メッシュ
17.08 右の「平坦な」メッシュ
17.09 ステレオカーソルの左構成部分
17.10 ステレオカーソルの右構成部分
18.01 左イメージフレーム
18.02 右イメージフレーム
18.03 左のイメージポイント
18.04 右の対応するイメージポイント
18.05 左イメージ/カメラの効果的な焦点長
18.06 右イメージ/カメラの効果的な焦点長
18.07 左イメージ/イメージングシステムの遠近法による中心
18.08 右イメージ/イメージングシステムの遠近法による中心
18.09 左の「平坦な」メッシュ
18.10 右の「平坦な」メッシュ
19.01 左イメージフレーム
19.02 右イメージフレーム
19.03 左イメージ/イメージングシステムの遠近法による中心
19.04 右イメージ/イメージングシステムの遠近法による中心
19.05 左の頂点及びイメージポイント
19.06 右の対応する頂点及びイメージポイント
19.07 数学的に投射された左光線
19.08 数学的に投射された右光線
19.09 ステレオ光線交差ポイント及び3D空間における基板頂点の配置
19.10 抽出された3D形状のメッシュ
20.01 左イメージ
20.02 右イメージ
20.03 左テクスチャマップ
20.04 右テクスチャマップ
20.05 左にプロットされたイメージポイント、テクスチャイメージポイント、基板上の頂点
20.06 右にプロットされた対応するイメージポイント、テクスチャイメージポイント、基板上の頂点
20.07 垂直オフセット
20.08 水平オフセット
20.09 列についての画素の数又はイメージの幅の長さ
21.01 テクスチャマップされた3D基板
21.02 左イメージフレーム
21.03 左テクスチャマップの位置
21.04 左にプロットされたイメージポイント、テクスチャイメージポイント、基板上の頂点
22.01 可干渉性のステレオ質感のある多角形状基板
22.02 投影的にマップされた左右のイメージ
23.01 記録された物体の断片の効果的な位置
23.02 記録された物体の基本表面を表現する3D多角形
23.03 投影された/描画された多角形の2Dスクリーン空間位置
23.04 ディスプレイスクリーン/ビューポート/描画されるべきイメージ
23.05 あらかじめ決定された、鑑賞錐台の遠近法による中心
23.06 オリジナルな記録物体に関するイメージフレームの効果的な位置
23.07 イメージフレーム及びカメラ/記録システムの遠近法による中心
23.08 テクスチャ空間の中にマップされた、3D空間における多角形の位置
23.09 テクスチャマップの位置及び境界
23.10 3D多角形の第一頂点
23.11 3D多角形の第二頂点
23.12 3D多角形の第三頂点
23.13 第一頂点の、投影された「スクリーン」位置
23.14 第二頂点の、投影された「スクリーン」位置
23.15 第三頂点の、投影された「スクリーン」位置
23.16 第二頂点に対応するテクスチャイメージポイントの計算されたマッピング
23.17 第一頂点に対応するテクスチャイメージポイントの計算されたマッピング
23.18 第三頂点に対応するテクスチャイメージポイントの計算されたマッピング
24.01 描画のためのスキャンライン
24.02 ビュー投影された多角形の「左」の縁とのスキャンラインの交差
24.03 ビュー投影された多角形の「右」の縁とのスキャンラインの交差
24.04 あらかじめ決定された、鑑賞錐台の遠近法による中心
24.05 三次元的に投影されたスキャンライン区分のスタートポイント
24.06 三次元的に投影されたスキャンライン区分
24.07 三次元的に投影されたスキャンライン区分のエンドポイント
24.08 テクスチャ空間におけるサンプリングのための投影されたラインのスタートポイント
24.09 テクスチャ空間におけるサンプリングのための投影されたラインのエンドポイント
24.10 イメージフレーム及びカメラ/記録システムの遠近法による中心
24.11 現在のビューポート/描画されたイメージディスプレイピクセル
24.12 三次元的に投影された、現在のスキャンラインピクセルの位置
24.13 現在のサンプリングポイントの変換位置
24.14 テクスチャ空間において「投影された」スキャンライン区分の変換位置
24.15 第一頂点に対応する、計算されたマッピング座標
24.16 テクスチャマップの隅
24.17 より大きなイメージ内のテクスチャフレームの位置
24.18 現在のスキャンラインピクセルの3D座標空間への投影
24.19 実世界3D空間において効果的に記録された物体ポイント
24.20 第一頂点の3D位置
24.21 イメージテクスチャ空間から実世界オブジェクト空間への効果的な投影
25.01 CSTMの基板
25.02 CSTMの見かけ上の表面
25.03 ゼロ視差ポイント
25.04 ゼロ視差ポイント
25.05 ゼロ視差ポイント
25.06 平らにされた基板
25.07 ステレオ質感のある基板の見かけ上の表面
25.08 変換されたCSTMの見かけ上の表面
25.09 CSTMの変換された基板
26.01 イメージ抽出方法によって発生したCSTM基板
26.02 イメージ抽出CSTMの見かけ上の表面
26.03 第二CSTMの任意基板
26.04 強制的収束によって形成されたゼロ視差ポイント
26.05 第二CSTMの見かけ上の残りの視差表面
26.06 右イメージからの選択された光線の強制マッピング又は収束
26.07 左イメージの遠近法による中心
26.08 右イメージの遠近法による中心
26.09 左右カメラ/イメージングシステムの基本分割
26.10 左イメージ及びイメージ平面
26.11 右イメージ及びイメージ平面
27.01 右に描画されたCSTMのビューイメージ
27.02 左に描画されたCSTMのビューイメージ
27.03 CSTMの3D基板
27.04 記録された物体の立体的画像の左イメージ
27.05 記録された物体の立体的画像の右イメージ
28.01 三次元物体の表面
28.02 三次元物体の表面ポイント
28.03 左イメージ上の記録されたイメージポイント
28.04 左イメージのフレーム及び方向
28.05 右イメージのフレーム及び方向
28.06 右イメージ上に記録されたイメージポイント
28.07 左の遠近法による中心から左のイメージポイントを通る、オブジェクトポイントから投影された光線
28.08 右の遠近法による中心から右のイメージポイントを通る、オブジェクトポイントから投影された光線
28.09 左イメージ及びイメージングシステムの遠近法による中心
28.10 右イメージ及びイメージングシステムの遠近法による中心
28.11 左イメージングシステム/カメラの、効果的又は較正された焦点長
28.12 右イメージングシステム/カメラの、効果的又は較正された焦点長
29.01 立体写真の記録
29.02 対応するイメージポイントの選択対のステレオプロッティング
29.03 対応するイメージポイントの各選択対からのステレオ光線の数学的投影、及び、各交差ポイントに頂点を配置することによる基板の形成
29.04 テクスチャマップを導くためのイメージのサンプリング
29.05 マッピング指示及び座標の計算
29.06 対応する頂点に割り当てられた対応するイメージポイントの各選択対を伴った、可干渉性のステレオ質感のあるモデルの描画、ポイントの選択対のための視差を除去した結果もたらされた、他の非選択ポイント対のための残りの表面視差
29.07 表示された残りの表面視差の立体的な融合
Claims (39)
- 三次元物体の立体的表現を形成するための装置上で実行されるステップからなる方法であって、
(a)前記物体の立体画像を与えるために、第一及び第二の視野を構成するステップと、
(b)前記第一及び第二の視野から、前記物体の基本形状を表現する三次元特徴に関し対応するイメージポイントの複数の対を選択し、それぞれの視野のイメージ座標システムに関し各選択されたポイントのイメージ座標を決定するステップと、
(c)それぞれのイメージ座標に関して対応するイメージポイントの各選択対の三次元空間において、それに対して関連する強制収束点の位置を決定するステップと、
(d)三次元空間における一組の座標、前記強制収束点の位置に対応する座標の組によって定義された表面を有する三次元座標で表された基板を与えるステップと、
(e)対応するイメージポイントの各選択対を伴った前記基板に対して、対応するイメージポイントの各選択対のための表面視差がゼロとなり、対応するイメージポイントの少なくともいくつかの非選択対によって残りの表面視差が発生するように前記第一及び第二の視野を割り当てることにより、可干渉性のステレオ質感のあるモデルを提供するステップと
を有することを特徴とする方法。 - 請求項1記載の方法において、前記基板は、前記物体の基本形状の表面特徴の三次元表現であることを特徴とする方法。
- 請求項1又は2記載の方法において、前記基板は、複数の分離した表面要素からなることを特徴とする方法。
- 請求項3記載の方法において、前記分離した表面要素は多角形状であることを特徴とする方法。
- 請求項3又は4記載の方法において、対応するイメージポイントの各選択対は、分離した表面要素の対応する頂点に割り当てられたことを特徴とする方法。
- 請求項2ないし5のいずれか1項に記載の方法において、前記基板は立体画像から抽出されたデータを使用して生成されることを特徴とする方法。
- 請求項6記載の方法において、前記基板は、
(a)対応するイメージポイントの各対から数学的に投射された光線の対がそれぞれ通過し、遠近法によるそれぞれの中心を通って三次元空間内で交差するような三次元空間において一組のポイントを決定し、
(b)三次元空間における前記決定されたポイントの組を前記基板の表面を生成するために使用し、それによって、前記表面上の前記決定されたポイントの組が前記座標の組に対応する
ことを特徴とする方法。 - 請求項2ないし5のいずれか1項に記載の方法において、前記基板は前記物体から直接抽出されたデータを使用して生成されることを特徴とする方法。
- 請求項8記載の方法において、対応するイメージポイントの複数対を選択するステップは、
(a)前記それぞれの第一及び第二視野の遠近法による中心について、前記基板の位置及び方向を決定し、
(b)前記基板の表面によって定義された各座標から前記第一及び第二の視野の遠近法によるそれぞれの中心を通って数学的に投射された光線によって、対応するイメージポイントの前記複数の対を選択する
ことを含むことを特徴とする方法。 - 請求項1〜9のいずれか1項に記載の方法において、前記物体は、仮想物体(例えば、デジタル化された存在物)であり、立体画像は前記物体の左右視野の描画によって生成されることを特徴とする方法。
- 請求項1〜10のいずれか1項に記載の方法において、前記基板は物理空間に存在する触知可能な存在物であることを特徴とする方法。
- 請求項11記載の方法において、前記基板は、ユーザに対して立体眼鏡を使うことなく前記物体の立体的表現をもたらす素材で構成されていることを特徴とする方法。
- 請求項12記載の方法において、前記基板は、レンズ状のスクリーンからなることを特徴とする方法。
- 請求項1ないし10記載の方法において、前記基板は、仮想基板(例えば、デジタル化された存在物)であることを特徴とする方法。
- 請求項14記載の方法において、鑑賞者に対して、描画された左右の視野間の基本分割を調整可能とする一組のユーザ制御を与えるステップをさらに備えたことを特徴とする方法。
- 請求項1〜15のいずれか1項に記載の方法において、前記立体画像は前記物体について与えられた視野の複数の立体画像の一つであり、前記複数の立体画像はそれぞれ異なった基本分割を有し、複数の前記基板の各立体画像を割り当てるための、一組のイメージ座標の組をさらに与えることを特徴とする方法。
- 請求項16記載の方法において、前記基板に割り当てるべき利用可能な立体画像を観察者に選択可能にする一組のユーザ制御を与えるステップをさらに備えたことを特徴とする方法。
- 請求項1〜17のいずれか1項に記載の方法において、前記立体画像は、人の鑑賞にとって快適であることを通常考慮した視差の範囲を超える第一基本分割が与えられており、
人の鑑賞にとって快適であることを考慮した視差の範囲を生み出す第二基本分割を有する第一及び第二仮想カメラを使って、前記物体の立体的表現をデジタル方式で描画するステップと、
デジタル方式で描画された前記基板の立体的表現を、新規な立体画像として記録し、蓄積するステップと
をさらに有することを特徴とする方法。 - 請求項1〜18のいずれか1項に記載の方法において、少なくとも一対の追加的な対応するイメージポイントの選択を可能にするシステムを使用して前記立体的画像を表示することをさらに含む方法。
- 請求項19記載の方法において、前記基板の表面をさらに定義するための前記基板表面上の新規な座標組を生成するために、前記追加的に選択された対応するイメージポイントの対を使用することをさらに含む方法。
- 請求項19記載の方法において、前記物体の表面特徴に対応する前記基板上のポイントから測量を抽出するために、少なくとも一つの追加的に選択された対応するイメージポイントの対を使用することをさらに含む方法。
- 請求項1〜21のいずれか1項に記載の方法において、三次元の立体的表現の少なくとも一つの操作及び注釈を可能にするシステム使用して立体的表現を表示することをさらに含む方法。
- 請求項1〜22のいずれか1項に記載の方法において、
(a)前記基板上の立体画像の前記第一視野を割り当てるための、イメージ座標の第一の組を与えるステップと、
(b)前記基板上の立体画像の前記第二視野を割り当てるための、イメージ座標の第二の組を与えるステップと
をさらに含むことを特徴とする方法。 - 請求項23記載の方法において、前記第一視野が表示されたときに前記基板に対する第一視野を割り当てるために前記第一の組の座標が使用され、前記第二視野が表示されたときに前記基板に対する第二視野を割り当てるため前記第二の組の座標が使用されるように前記立体的表現が描画されることを特徴とする方法。
- 請求項23記載の方法において、前記基板は、第一および第二基板部分からなり、各基板部分は前記物体の基本形状を描画し、三次元空間における一組の座標を定義する表面を有し、前記基板に対する立体画像の前記第一及び第二視野を割り当てるステップは、前記第一基板部分に対する第一視野に割り当てるための前記第一の組のイメージ座標の使用と前記第二基板部分に対する第二視野に割り当てるための前記第二の組のイメージ座標の使用とからなることを特徴とする方法。
- 請求項1ないし22のいずれか1項に記載の方法において、
(a)前記第二視野は、前記第一視野において対応するイメージポイントと位置的に一致するために各選択されたイメージポイントが作られるように歪められ、
(b)一組のイメージ座標が、前記基板上の立体画像の前記第一視野を割り当てるために与えられ、
(c)前記第一視野及び歪められた第二視野が共に前記第一視野のイメージ座標を使って前記基板に割り当てられるように前記立体的表現が描画される
ことを特徴とする方法。 - 請求項23ないし26のいずれか1項に記載の方法において、シミュレーションループを使って実時間描画のために必要な反復をさらに行うことを特徴とする方法。
- 請求項1、3ないし5、10ないし27に記載の方法において、前記与えられた基板は任意の形状であることを特徴とする方法。
- 請求項1〜28のいずれか1項に記載の方法において、新規な形状を与えるための空間的変換が前記基板に施されることを特徴とする方法。
- 時間的に連続する物体の立体的表現の系列を形成する方法において、
(a)請求項1〜29のいずれか1項に記載された方法によってそれぞれ形成された複数の立体的表現を与えるステップと、
(b)前記複数の立体的表現を特定のフレームレートで鑑賞するために連続的に配列するステップと
を有することを特徴とする方法。 - 請求項30記載の方法において、単一の基板が複数の表現の形成に使用されることを特徴とする方法。
- 請求項11記載の方法において、前記基板の上に立体画像を物理的に印刷することさらに有する方法。
- 請求項1ないし32のいずれか1項に記載の処理をコンピュータに実行させるためのプログラム命令から構成されるコンピュータプログラム。
- 記録媒体に組み込まれた、請求項33記載のコンピュータプログラム。
- コンピュータメモリに組み込まれた、請求項33記載のコンピュータプログラム。
- 読み出し専用メモリ(リードオンリーメモリ)に組み込まれた、請求項33記載のコンピュータプログラム。
- 電気的搬送波に組み込まれた、請求項33記載のコンピュータプログラム。
- 物体の立体的表現を形成するための装置であって、
(a)前記物体の立体画像を与えるために、第一及び第二の視野を構成する手段と、
(b)前記第一及び第二の視野から、前記物体の基本形状を表現する三次元特徴に関し対応するイメージポイントの複数の対を選択し、それぞれの視野のイメージ座標システムに関し各選択されたポイントのイメージ座標を決定する手段と、
(c)それぞれのイメージ座標に関して対応するイメージポイントの各選択対の三次元空間において、それに対して関連する強制収束点の位置を決定する手段と、(d)三次元空間における一組の座標、前記強制収束点の位置に対応する座標の組によって定義された表面を有する三次元座標で表された基板を生成する手段と、
(e)対応するイメージポイントの各選択対を伴った前記生成された基板に対して、対応するイメージポイントの各選択対のための表面視差がゼロとなり、対応するイメージポイントの少なくともいくつかの非選択対によって残りの表面視差が発生するように前記第一及び第二の視野を割り当てることにより、可干渉性のステレオ質感のあるモデルを提供する手段と
を有することを特徴とする装置。 - 請求項38記載の装置において、基板を生成する前記手段は、前記基板の基本三次元形状の表面特徴の三次元表現となる基板を生成するように構成されることを特徴とする装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB0322840.0A GB0322840D0 (en) | 2003-09-30 | 2003-09-30 | Stereoscopic imaging |
GB0322840.0 | 2003-09-30 | ||
PCT/GB2004/004155 WO2005034527A1 (en) | 2003-09-30 | 2004-09-30 | Stereoscopic imaging |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007507945A JP2007507945A (ja) | 2007-03-29 |
JP4996922B2 true JP4996922B2 (ja) | 2012-08-08 |
Family
ID=29287101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006530568A Expired - Lifetime JP4996922B2 (ja) | 2003-09-30 | 2004-09-30 | 立体映像化 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1668919B1 (ja) |
JP (1) | JP4996922B2 (ja) |
AU (1) | AU2004306226B2 (ja) |
CA (1) | CA2540538C (ja) |
GB (1) | GB0322840D0 (ja) |
WO (1) | WO2005034527A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007142649A1 (en) | 2006-06-09 | 2007-12-13 | Thomson Licensing | Method and system for color correction using three-dimensional information |
KR101342987B1 (ko) * | 2006-11-21 | 2013-12-18 | 톰슨 라이센싱 | 3d 이미지의 컬러 보정을 위한 방법 및 시스템 |
KR101417024B1 (ko) | 2007-11-22 | 2014-07-08 | 엘지이노텍 주식회사 | 카메라를 이용한 3d 영상 획득 방법 |
JP2010123007A (ja) * | 2008-11-21 | 2010-06-03 | Casio Computer Co Ltd | 画像処理装置 |
CA2683206C (en) * | 2009-10-17 | 2018-07-03 | Hermary Opto Electronics Inc. | Enhanced imaging method and apparatus |
US8624960B2 (en) | 2010-07-30 | 2014-01-07 | Silicon Image, Inc. | Multi-view display system |
EP2898263A4 (en) * | 2012-09-21 | 2016-05-25 | Third Dimension Ip Llc | 3D REVERSE ANGLE CONVERGENT DISPLAY |
KR101389865B1 (ko) | 2013-02-28 | 2014-04-29 | 주식회사 펀진 | 이미지 인식 시스템 및 그를 이용한 이미지 인식 방법 |
TWI558167B (zh) * | 2014-12-30 | 2016-11-11 | 友達光電股份有限公司 | 立體影像顯示系統與顯示方法 |
CN107705244B (zh) * | 2017-09-11 | 2021-01-15 | 中国国土资源航空物探遥感中心 | 一种适用于大区域多幅遥感影像的接边纠正方法 |
CN107833266B (zh) * | 2017-11-02 | 2021-01-15 | 青岛擎鹰信息科技有限责任公司 | 一种基于色块匹配和仿射校正的全息图像获取方法 |
WO2019146194A1 (ja) * | 2018-01-25 | 2019-08-01 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
KR102250869B1 (ko) * | 2020-09-09 | 2021-05-11 | 한국전자기술연구원 | 다중 광학식 카메라를 이용한 가상현실 플랫폼에서의 다중 객체 위치 추적 시스템 및 방법 |
CN112215934B (zh) * | 2020-10-23 | 2023-08-29 | 网易(杭州)网络有限公司 | 游戏模型的渲染方法、装置、存储介质及电子装置 |
US12113951B2 (en) * | 2021-10-08 | 2024-10-08 | Google Llc | High-resolution pseudo-random dots projector module for depth sensing |
CN114449249B (zh) * | 2022-01-29 | 2024-02-09 | 深圳市火乐科技发展有限公司 | 图像投影方法、装置、存储介质以及投影设备 |
CN114581586A (zh) * | 2022-03-09 | 2022-06-03 | 北京百度网讯科技有限公司 | 一种模型基底的生成方法、装置、电子设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0522753A (ja) * | 1991-07-12 | 1993-01-29 | Koudo Eizou Gijutsu Kenkyusho:Kk | 立体映像表示装置 |
US5905499A (en) * | 1995-07-05 | 1999-05-18 | Fakespace, Inc. | Method and system for high performance computer-generated virtual environments |
US5940167A (en) | 1997-03-06 | 1999-08-17 | Gans; Richard | Process and apparatus for displaying an animated image |
US6031564A (en) * | 1997-07-07 | 2000-02-29 | Reveo, Inc. | Method and apparatus for monoscopic to stereoscopic image conversion |
AUPO894497A0 (en) * | 1997-09-02 | 1997-09-25 | Xenotech Research Pty Ltd | Image processing method and apparatus |
JP2000013818A (ja) * | 1998-06-23 | 2000-01-14 | Nec Corp | 立体表示装置及び立体表示方法 |
EP1085769B1 (en) | 1999-09-15 | 2012-02-01 | Sharp Kabushiki Kaisha | Stereoscopic image pickup apparatus |
JP4587601B2 (ja) * | 2000-05-30 | 2010-11-24 | パナソニック株式会社 | 地図表示装置、地図表示方法、地図表示装置において用いられるコンピュータプログラム、及びプログラム記録媒体 |
-
2003
- 2003-09-30 GB GBGB0322840.0A patent/GB0322840D0/en not_active Ceased
-
2004
- 2004-09-30 EP EP04768698A patent/EP1668919B1/en not_active Expired - Lifetime
- 2004-09-30 AU AU2004306226A patent/AU2004306226B2/en not_active Ceased
- 2004-09-30 WO PCT/GB2004/004155 patent/WO2005034527A1/en active Application Filing
- 2004-09-30 JP JP2006530568A patent/JP4996922B2/ja not_active Expired - Lifetime
- 2004-09-30 CA CA2540538A patent/CA2540538C/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
AU2004306226A1 (en) | 2005-04-14 |
WO2005034527A1 (en) | 2005-04-14 |
CA2540538C (en) | 2014-12-02 |
EP1668919B1 (en) | 2013-02-20 |
GB0322840D0 (en) | 2003-10-29 |
EP1668919A1 (en) | 2006-06-14 |
JP2007507945A (ja) | 2007-03-29 |
CA2540538A1 (en) | 2005-04-14 |
AU2004306226B2 (en) | 2010-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7643025B2 (en) | Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates | |
US20120182403A1 (en) | Stereoscopic imaging | |
US9288476B2 (en) | System and method for real-time depth modification of stereo images of a virtual reality environment | |
US9342914B2 (en) | Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image | |
JP4996922B2 (ja) | 立体映像化 | |
US6205241B1 (en) | Compression of stereoscopic images | |
WO2020150045A1 (en) | Free-viewpoint photorealistic view synthesis from casually captured video | |
Oliveira | Image-based modeling and rendering techniques: A survey | |
Klose et al. | Stereoscopic 3D view synthesis from unsynchronized multi-view video | |
WO2012140397A2 (en) | Three-dimensional display system | |
EP3057316B1 (en) | Generation of three-dimensional imagery to supplement existing content | |
KR20170091710A (ko) | 디지털 비디오 렌더링 | |
KR20080034419A (ko) | 3d 영상 생성 및 디스플레이 시스템 | |
Knorr et al. | An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion | |
Chang et al. | A review on image-based rendering | |
Evers‐Senne et al. | Image based interactive rendering with view dependent geometry | |
Waschbüsch et al. | 3d video billboard clouds | |
CA2716257A1 (en) | System and method for interactive painting of 2d images for iterative 3d modeling | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
Thatte et al. | Real-World Virtual Reality With Head-Motion Parallax | |
Blanc et al. | Towards fast and realistic image synthesis from real views | |
CA2252063C (en) | System and method for generating stereoscopic image data | |
Huang et al. | P‐4.15: Multi‐Viewpoint Glasses‐Free 3D Display Technology Based on Representation Fusion NeRF | |
Sommerer et al. | Time-lapse: an immersive interactive environment based on historic stereo images | |
Sommerer et al. | Time_lapse: immersive interaction with historic 3-D stereo images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100816 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101116 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20101124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110907 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110912 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120507 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120514 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4996922 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |