JP5133418B2 - 現実環境内にバーチャルオブジェクトを描写する方法および装置 - Google Patents
現実環境内にバーチャルオブジェクトを描写する方法および装置 Download PDFInfo
- Publication number
- JP5133418B2 JP5133418B2 JP2010526203A JP2010526203A JP5133418B2 JP 5133418 B2 JP5133418 B2 JP 5133418B2 JP 2010526203 A JP2010526203 A JP 2010526203A JP 2010526203 A JP2010526203 A JP 2010526203A JP 5133418 B2 JP5133418 B2 JP 5133418B2
- Authority
- JP
- Japan
- Prior art keywords
- real environment
- virtual object
- information
- segment
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 83
- 238000009877 rendering Methods 0.000 title claims description 9
- 230000011218 segmentation Effects 0.000 claims description 41
- 230000003287 optical effect Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 19
- 238000001454 recorded image Methods 0.000 claims description 12
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000003786 synthesis reaction Methods 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 3
- 238000013459 approach Methods 0.000 description 25
- 230000003190 augmentative effect Effects 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 20
- 239000003550 marker Substances 0.000 description 14
- 230000008569 process Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000013439 planning Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 241000270295 Serpentes Species 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000013440 design planning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000007621 cluster analysis Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 235000013882 gravy Nutrition 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000006424 Flood reaction Methods 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004138 cluster model Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Description
図1の例で示されているように、基準ジオメトリ4を含む使用環境6は、図示しない記録装置(例えばカメラ)によって光学的に記録され、この記録は、記録画像データの形で保存される。基準ジオメトリ4に対する記録装置の位置は、公知の画像処理アルゴリズムによって把握され、これによって、バーチャルに存在する家具(ここではソファ3)の画像データと記録画像データとが、正しい遠近感でもって互いに組み合わせられる。そして、正しい遠近感でもって挿入されたソファ3とともに、その使用環境6がユーザに対し表示される。この記載したシステムおよび方法の利点は、特に、使用環境におけるリアルオブジェクトおよびバーチャルオブジェクトの組み合わせた感じ方が得られることである。これにより、種々の製品の使用目的についての適性を、直感的に評価できるようになる。さらに、使用する場所における製品の幾何学的な適性を極めて容易に把握することができる。さらに、使用目的に対する製品の適性、例えば家具類の適性を、先に配送することなく、判定することが可能となる。ユーザは、製品と他のオブジェクトとの干渉を、素早く発見することができる。
本システムに適用可能な情報について以下に説明する。
焦点距離は、現実環境の記録に用いるカメラの内部カメラパラメータに関連する。焦点距離は、自己校正によって把握することができる。代替として、いわゆるEXIFデータあるいはカメラデータベースから得ることもできる。もしEXIFデータが不完全な場合、例えば焦点距離だけがmmで記述され、チップ寸法が記述されていない場合には、チップ寸法だけをデータベースから得ることもできる。代わりに、デジタルカメラの平均的焦点距離とみなしてもよい。あるいは代替として、消失点の情報から焦点距離を得ることもできる。この場合、ユーザは、現実の中に例えば2本の平行な直線をマーキングする。その消失点から焦点距離を演算することが可能である。マーキングした直線は、コンピュータ・ビジョン方法による画像中の実際の直線と高精度にマッチングしていなければならない。有利には、複数の画像が利用可能であるならば、複数の画像から焦点距離を演算することもできる。
カメラ画像の歪曲は、理想的なケースでは指定されており、画像をデジタル的に修正することができ、あるいはその値を演算の度に考慮に入れることができる。Zhang あるいは Luhmannには、公知の修正値の例が記述されている。もし修正値が既知でない場合は、自動校正のアプローチを実行することができる。代替として、ユーザは、現実では直線であるが画像中では曲がっている画像エレメント(寄木模様、壁/フロアの境界、など)を、インタラクティブにパラメータを変更することによって「直線化」することができる。歪曲の修正のために、特に、ユーザによる直線についての情報、例えば部屋の境界や焦点距離決定のための直線、についての情報を用いることができる。
カメラの外部パラメータつまり空間内でのカメラの位置および方向を把握するために、異なる方法を適用することができる。
有利には、システムによって処理すべき画像データを、最初の段階で編集することができる。
殆どのケース(但し、全てのケースではない)では、ほぼ平坦なフロア平面が存在し、その上に、マーカー(もし用いる場合には)が平面的に置かれる、とみなすことができる。
図9のステップ1.0(1つあるいは多数の画像についてのカメラポーズの判定。例えばマーカーとコンピュータビジョン、あるいはマニュアル操作、あるいは外部センサ(例えば車両のセンサ)による。):
最初のステップ1.0においては、各拡張リアリティシステムにおいて、記録装置(ここではカメラ)の空間内でのポーズが判定される。これは、部屋内に配置したマーキング手段(図1〜図8におけるマーカー4を参照)によって把握され、あるいは、外部センサ手段(例えばメカニカルトラッキング)によって、あるいはマーカー無しトラッキング法によって、あるいは単純なマニュアルプロセスによって、把握される。
他の方法と比較して本発明における有益な要素は、インテリアデザインのプランニングの場合に、しばしば壁が画像中に存在する、という事実を考慮することである。壁はほぼ平面であるとみなされる。さらに、壁は、フロア平面に対し直角に配置されているものとみなされる。
部屋のプランニングの場合においては、フロア平面や壁平面や他のオブジェクトを表すセグメントの認識および把握が重要である。拡張リアリティの車両用ナビゲーションにおいては、どのセグメントが道路や他の車両あるいは他のオブジェクトを表しているかを認識することが関心事となる。個々のサブステップ2.1〜2.4は、初期化情報を提供し、これが、ステップ3.0の2Dセグメント化アプローチに入力される。ステップ2.1のような自動処理ステップとステップ2.2のようなマニュアルステップとの組み合わせは、いわゆるハイブリッドアプローチとして知られている。
後述する2Dセグメント化は、スプリアス・オブジェクト毎に前景/背景の分化をなす場合には、より効果的である。スプリアス・オブジェクトを3Dデータから識別するために、クラスタ・アルゴリズム(以下の「クラスタリング」を参照)を適用することができる。クラスタリングとは、分類が初期には未知であることを意味する。そして、3D情報は、例えばグラフ・カットの手段により、2Dセグメント化の初期化に寄与する。
スプリアス・オブジェクトの3D認識のために、1組の例からシステムが予めスプリアス・オブジェクトの学習を行う学習型アプローチが使用される。例えば、異なる家具部品ないし基本形状についてデータベースが生成される。家具は一般に(壁にぶら下がる棚を除いて)フロア平面の上をずれるだけであるので、ここでは、自由度を制限することが役に立つ。おそらく、これが、少なくとも単純な家具部品を自動的にマッチングする方法となり、例えば3D長方形でもって近似できる(状態ベクトル:位置−x、位置−y、回転−z、x寸法、y寸法、z寸法)。
特徴部のマッチング(例えば、SURF、SIFT、あるいは、広角特徴部ディスクリプタによる)は、有利には、複数の画像に亘って(ステレオカメラでは1つの画像から)、ある点がフロア平面上に位置するか否かを把握することができる。もしフロア平面上になければ、その3D点は、いわゆるスレッシュホールディングの基礎として、あるいは、他の2Dセグメント化法の基礎として、働く。特徴部マッチングからの3D点は、また、フロア平面についての情報にかかわらずに、クラスタ・アルゴリズムに入力することもでき、2Dセグメント化法の基礎として働く。3D位置の演算は、例えば、三角測量あるいは動的法ないし光学流れからの構造により実行することができる。
このアプローチのためには、同じマーカーおよび除去すべきオブジェクトを各々が含む少なくとも2つの画像が必要である。最初に一つの画像が基準画像として選択される。マーカーの手段により判定されたカメラポーズに基づいて、残りの画像は、マーカーが位置する平面が全ての画像においてマッチングするように、変換される。その後、基準画像と各々の変換した画像との間の差分の画像が形成される。マーカー平面は全ての画像でマッチングしているので、これらは、各々の差分画像では見えない。従って、フロア(マーカー平面)とオブジェクト(基準画像で見えているもの)とを識別することが可能となる。
オクルージョン問題に関する本発明は、インテリアデザインのプランニングにのみ役立つものではなく、例えば自動車における拡張リアリティに対しても役立つ。ここでは、いわゆる飛行時間型カメラないしレーダーのようなセンサについて、オクルージョン・オブジェクトおよびその深度(奥行)の指標を与えることができる。しかしながら、センサの情報は、一般に、ビジュアル表示のためには、過度にノイズが多く、かつ解像度が低すぎる。従って、後述する2Dセグメント化ステップがステップ3.0として行われる。
フロア平面が存在し、他の全ての平面/表面がこのフロア平面に直交する、という条件の下では、次の文献に記載の方法を適用することができる。"Efficient Monocular 3D Reconstruction from Segments for Visual Navigation in Structured Environments" (P.E. Lopez-de-Teruel, A. Ruiz, L. Fernandez, 18th International Conference on Pattern Recognition, 2006, pp. 143-146)。
オプションとして、ユーザは、スプリアス・オブジェクトをマーキングし、かつ背景をマーキングする。そして、各形状の3D情報がそれらのクラスに割り当てられる。これは、分類と呼ばれる。
基本的に、追加の情報を用いない自動セグメント化プロセスによってプロセスを実行することも可能である。この情報は、ステップ3.0においてステップ2.1の結果と合成される。
セグメント化は、オブジェクトの輪郭を記述する関数を変更することによって実行される("Fast Marching Methods and Level Set Methods for Propagating Interfaces.pdf", J. A. Sethian, von Karman Institute Lecture Series, Computational Fluid Mechanics, 1998を参照)。
「領域合成」においては、画像が非常に小さい画像領域(例えば2×2ピクセル)に分割され、かつ互いに均質(homogeneous)な隣接領域同士が再度結合される。「領域分割」においては、画像は最初に全体として観察され、その後、各領域が均質なものとなるまで逐次分割されていく。「分割および合成」は、これら2つのアプローチを組み合わせたものであり、最初に画像は全ての領域が均質なものとなるまで細分され、続いて、均質性の基準を侵すことなく、隣接する領域が再結合される。
(グレースケール値の)画像は、丘や窪地を有する等高線地図として解釈できる。このような等高線地図に水を満たしたとすると、互いに沿った異なる領域が形成される。この「水で満たす」ためには、2つの異なるアプローチが存在し、以下で簡単に説明する。
マーキングされていない各画素の上に雨滴を配置する。この雨滴を、カラー値の傾斜に従って局所的最小へと「流れる」ようにする。通過した各画素に、最小というラベルを付す。
最も低いカラー値(グレースケール値)から開始して、徐々に「水位」を上昇させる。これにより、風景は徐々に洪水となる。2つの窪地が繋がり始めようとしたときに、これを防ぐように2つの窪地の境界にダムを立てる。このようにして、最終的なセグメント化が得られる。
図2Aのシーン10において、フロア平面17および壁18が存在すると仮定すると、これらの平面が識別されたときに、ウィザードは、フロアと壁との間の境界を横切っている全てのオブジェクトを識別することができる。この目的のために、表面のセグメント化を先に実行することもでき、表面が直線19と交差していてもよい。代替として、直線19に沿って諧調度の観測を実行するようにしてもよく、セグメント化のためのシードが成長するに従い、双方の平面で類似した色と組み合わされた少数派のユニットを外していくようにしてもよい。
2Dセグメント化のためには異なるアプローチが可能であり、有利には、画像中から影の部分を抽出し、オクルージョン・セグメントとして影のセグメントを除去するために、これらのアプローチを組み合わせることができる。さらに、画像中に複数のスプリアス・オブジェクトが予想される場合には、これらのアプローチを、例えばその数と組み合わせて、1つの画像に対し数回実行することもできる。
個々の画素からなるノードを含むグラフが、画像から形成され、2つの追加のノードがオブジェクトおよび非オブジェクト/背景に挿入される。各画素は、隣接する画素(4方向の隣接画素)および2つの追加のノードに、接続される。このようにして、オブジェクト・ノードはオブジェクトの画素のみに、背景ノードは残りの画素のみに、それぞれ接続されるように、グラフが分割される。オブジェクト画素あるいは背景画素として、3D情報が画像中にマッピングされる。スプリアス・オブジェクトは複数存在し得るので、グラフ・カット法も1つの画像に対し複数回実行することができる。以下を参照のこと。
変形可能なモデルを用いるセグメント化。ここでは、3つのコスト関数が最小化される。
画像値に対して制限値が定義される。もし画素が所定範囲内の画像値を示せば、それはオブジェクトに割り当てられ、それ以外のものは割り当てられない。制限値の決定はヒストグラムに基づいて自動的になされ、あるいは、ユーザとの対話(ヒストグラムもしくは画像領域のマーキング)を介して行われる。
画像中の開始点が選択され(自動もしくはマニュアルで)、ここから他の画素へと進行して、隣接する画素が均質性の基準(閾値内など)を満たすものであればキューに加えていく。このキューは、ステップ・バイ・ステップに処理され、現在の画素に隣接するものがそれぞれ観察される。均質性の基準を満たす画素は、求めるオブジェクトに追加される。
画像は、計画性のないグラフとみなされ、各画素がノードに対応する。ここでユーザが自由な形の線を与える(マウスで)と、この線の両端の点を結ぶ最小のコストを有する経路がグラフ内で求められる。エッヂのコストは、エッヂが上記経路として望ましくは選択されるように、選択される。これは、ライブ・ワイヤアプローチに対応し、他方、ライブ・レーン/アダプティブ・レーンアプローチでは、最小コストの経路を探すサーチ領域が、提供された線の周囲に制限される。この周囲の大きさは、例えばマウスの動きの速度に応じて選択することができる。
上述した方法(より複雑な方法を初期化するための「単純な」アプローチ)の組み合わせ。
もし自動もしくは半自動のプロセスにおいて誤差が発生した場合には、マウスによる描画などの単純なマニュアルでの介入によって、これを変更することができる。勿論、これは、全ての用途で可能ないし役立つわけではない(例えば車両における拡張リアリティ)。
特別な予防策のない拡張リアリティ技術のよく知られた問題は、バーチャルオブジェクトがしばしば現実のものの一部を遮る、ということである。空間的にリアルオブジェクトの背部に配置されたバーチャルオブジェクトはリアルオブジェクトによって遮蔽されるべきであるので、このことはリアルな印象を損なう。
1つあるいは複数の画像についてセグメントが生成された後に、これらは、オクルージョンのために用いられ得る。これは従来から公知の方法を用いて実現できる。例えば、いわゆるOpenGLレンダリングのいわゆるステンシル・バッファ情報を、2D表面情報に基づいて記述し、zバッファの占有についてのマスクとして使用することができる。さらに、VRMLのいわゆるビルボード・ノードを用いることができる。しかしながら、異なる複数画像におけるセグメントの画像化に基づいて体積体を形成し、体積レンダリングを用いることもできる。オクルージョン構造物が示す深度ないし3D位置は、別の方法によって決定できる。
オクルージョン構造物の深度ないし3D位置の確定は、ユーザによるマニュアルでの対話形式によって簡単に行うことができる。例えば、この対話により、カメラに対する、メートルでの深度を調整することができる。また、「前方」および「背後」の調整が有利であり、これにより、全ての描写したバーチャルオブジェクトの前方もしくは背後に常にオクルージョン構造物が位置するように、自動的に深度が演算される。さらに、固定したフロア平面を用いる場合には、マーキングによって、フロア平面に関して調整された深度が表示され得る。
本発明の他の有利な設定では、ステップ2.0〜2.4の情報に基づいてオクルージョン構造物に深度が自動的に割り当てられる。例えば、深度は、3Dオブジェクトに基づくセグメント化の際に、カメラに対し先頭の面の点に基づいて定義され得る。
本発明の可能性のある用途の一つは、部屋の模様替えであり、例えば、空きスペースを必要とするバーチャルな家具を部屋の中に置いてみることである。拡張リアリティ技術の利点は、現実環境の中でオブジェクトを見ることであり、例えば木製テーブルを既存の木製フロアの上や既存のキャビネットの前に置いて見ることである。従って、完全なバーチャルではなく、シーンからスプリアスな現実の家具部品を除去し、あるいは、これらを消すことなくマニュアルでその位置を部屋の脇に変更することが、役立つものとなる。
スプリアス・オブジェクトがセグメント化されたときに、ユーザは、どれを除去すべきかを選択することができる(例えば対応するセグメントをクリックすることによる)。この情報は、可能であれば、トラッキング情報に基づき複数の画像に亘って作用するものとすべきである。
リアルオブジェクトの遮蔽は、簡単に言えば、「隣のもの」から光学的構造物によって遮蔽することで、生じる。これにより、本発明の範囲内で、追加の情報(例えば空間的記述)に対するアプローチの質を高めることができる。
先のステップにおいてユーザにより除去すべきスプリアス・オブジェクトが選択されており、かつそのアウトラインが既知であるときに、オブジェクト領域のテクスチャの置き換えが実行される。この目的のために、除去した画像領域を埋めるためのソース源として、元の画像の中のオブジェクトによって覆われていない表面が用いられる。この置き換えをできるだけリアルに行うために、下記の付加的情報が利用される。
"PatchWorks: Example-Based Region Tiling for Image Editing" by P. Perez, M. Gangnet, A. Blake, Microsoft Research Report TR-2004-04 (2004)
"Inference of Segmented Color and Texture Description by Tensor Voting" by Jiaya Jia, Chi-Keung Tang, IEEE Transactions on Pattern Analysis and Machine Intelligence, June 2004, Volume 26, Issue 6, pp. 771-786
"Image Inpainting" by M. Bertalmio, G. Sapiro, V. Caselles, C. Ballester, Proc. Of SIGGRAPH 2000, pp. 417-424, New Orleans, USA, July 2000。
参考:"Shared Nearest Neighbor": "A New Shared Nearest Neighbor Clustering Algorithm and its Applications" by Levent Ertoz, Michael Steinbach, Vipin Kumar, Workshop on Clustering High Dimensional Data and its Applications at 2nd SIAM International Conference on Data Mining (2002)。類似性の指標として、共通の最も近い隣のものの個数を用いる。
参考:"AUTOCLUST: Automatic Clustering via Boundary Extraction for Mining Massive Point-data Sets" by Vladimir Estivill-Castro, Ickjai Lee, in Proceedings of the 5th International Conference on Geocomputation, Callaghan 2308, Australia, 2000。
参考:"Gravity Based Spatial Clustering" by M. Indulska, M. E. Orlowska, pp. 125-130, Proceedings of the Tenth ACM International Symposium on Advances in Geographic Information Systems, McLean, VA, USA, Nov. 8-9, 2002.。GRAVIクラスタにおいては、初期のクラスタ中心が最初に演算され、次いで、対応するコスト関数の最小化によってこれらが最適化される。クラスタの個数が先に既知でなければならず、あるいは、この個数は、反復的に把握することができる。
参考:"Self-Organizing Maps", T. Kohonen. Springer, Berlin, 1995。 "Automatic formation of topological maps of patterns in a self-organizing system", T. Kohonen, in Proceedings of 2nd Scandinavian Conference on Image Analysis, Espoa, Finland, pp. 214-220.。
参考:"Efficient algorithms for agglomerative hierarchical clustering methods", William H. E. Day and Herbert Edelsbrunner, Journal of Classification, Volume 1, pp. 1-24, 1984。このアルゴリズムの開始時点では、データセットの各点が個々のクラスタを表すものとみなされる。各ステップで、最小の距離を有する一対のクラスタが決定される。これらの2つのクラスタは、1つのクラスタに合成される。アルゴリズムを完了するためには、存在するクラスタの数が既知でなければならず、あるいは、この数を反復的に把握する必要がある。
参考:"Density-based clustering in spatial databases; the algorithm DBSCAN and its applications", J. Sander, M. Ester, H.-P. Kriegel, X. Xu. Data Mining and Knowledge Discovery, Volume 2, Number 2, June 1998, pp. 169-194 (26)。
このアルゴリズムの開始時点では、全ての点が同じクラスタ内に位置する。そして、存在するクラスタがステップ・バイ・ステップで細分される。アルゴリズムを完了するためには、存在するクラスタの数が既知であるか、あるいは、さらなるクラスタの細分が有益であるかどうかの分析(例えばHopkinsのインデックスによって)を実行する必要がある。
参考:"Alternating cluster estimation: a new tool for clustering and function approximation" by T. A. Runkler, J. C. Bezdek, IEEE Transactions on Fuzzy Systems, Vol. 7, Issue 4, Aug. 1999, pp. 377-393。ここでは、クラスタ中心と仕切りの行列が交互に最適化される。可能性のあるクラスタ・モデルとしては、c-means (CM model) あるいはGustafson-Kessel (GK model)である。
Claims (15)
- 現実環境内にバーチャルオブジェクトを描写する方法であって、
記録装置手段によって現実環境の少なくとも1つの2次元画像を生成するステップと、
現実環境の少なくとも1つの構成要素に対する上記記録装置の位置を把握するステップと、
上記2次元画像において、現実環境の少なくとも1つのセグメントを現実環境の残りの部分から区別して識別するために、対応するセグメント化データを供給しつつ、センサデータを用いて非マニュアル式に生成された3次元画像情報又は空間的情報に基づいて、現実環境の少なくとも1つの領域をセグメント化するステップであって、3次元画像情報又は空間的情報は、2次元セグメント化の初期化に用いられる、セグメント化するステップと、
上記セグメント化データを考慮して、バーチャルオブジェクトを、現実環境の2次元画像と、あるいは光学的半透明要素手段によって現実と直接に、合成するステップと、
を備え、
前記把握するステップ、セグメント化するステップ及び合成するステップは、コンピュータプログラムによって実行されることを特徴とする方法。 - セグメント化データを考慮したバーチャルオブジェクトと現実環境との上記の合成が、バーチャルオブジェクトの少なくとも一部が現実環境のセグメントの少なくとも一部によって遮蔽されるものとして描写されるように実行されることを特徴とする請求項1に記載の方法。
- バーチャルオブジェクトおよび現実環境の正しい遠近感での描写において、上記の現実環境の少なくとも1つのセグメントがバーチャルオブジェクトの前方に配置されているか背後に配置されているかの選択が、ユーザによってなされることを特徴とする請求項1または2に記載の方法。
- セグメント化データを考慮したバーチャルオブジェクトと現実環境の2次元描写との上記の合成が、現実環境のセグメントの少なくとも一部が現実環境の描写から除去されるように実行されることを特徴とする請求項1〜3のいずれかに記載の方法。
- 上記の現実環境のセグメントの少なくとも一部が現実環境の元の描写から除去され、かつ描写の他の場所に再挿入されることを特徴とする請求項4に記載の方法。
- 選択されたセグメントについての情報が、境界ジオメトリ手段によって、空間的に記述され、このセグメントを得た同じリアルオブジェクトの別の視点のために再利用可能であることを特徴とする請求項4または5に記載の方法。
- 情報源を選択する3次元深度情報が、特に既存のフロア平面もしくは既存の壁平面の形態でもって、用いるテクスチャ情報の選択のために考慮されることを特徴とする請求項4〜6のいずれかに記載の方法。
- 現実環境の少なくとも1つのセグメントの識別のために、現実環境の既存のフロア平面と既存の壁平面との間の境界を横切る現実環境の1つの領域が識別されることを特徴とする請求項1〜7のいずれかに記載の方法。
- 現実環境の少なくとも1つのセグメントの識別のために、2次元又は3次元の幾何学形状を有するバーチャルな図形が現実環境の対応する場所に配置されることを特徴とする請求項1〜8のいずれかに記載の方法。
- 上記の3次元図形は、空間的記述ないし光学的マーキングにより既知なフロア平面に基づいて、現実に近似するように、空間内でフロア平面と平行に動くことを特徴とする請求項9に記載の方法。
- 空間的記述から把握される空間的情報あるいはセグメント化データが、バーチャルオブジェクトの影に影響することを特徴とする請求項1〜10のいずれかに記載の方法。
- 現実環境が記録装置手段によって該記録装置手段の異なる複数位置から光学的に記録され、それぞれの記録が、対応する記録画像データセットに保存され、
この記録画像データセットの1つから得たセグメントデータが、記録画像データセットの他の1つにおいて、記録画像データセットに対応するそれぞれの視点でもって挿入されたバーチャルオブジェクトとともに現実環境を現すために、用いられる、
ことを特徴とする請求項1〜11のいずれかに記載の方法。 - 現実環境内にバーチャルオブジェクトを描写する装置であって、
現実環境の2次元画像を生成する記録装置と、
記録された現実環境の少なくとも1つの構成要素に対する上記記録装置の位置を判定するデータ処理システムと、
上記データ処理システムに接続された表示装置と、
を備えてなり、
上記データ処理システム内では、現実環境の少なくとも1つのセグメントを現実環境の残りの部分から区別して識別するために、対応するセグメント化データを供給しつつ、センサデータを用いて非マニュアル式に生成された3次元画像情報又は空間的情報に基づいて、上記2次元画像における現実環境の少なくとも1つの領域をセグメント化する方法が実行され、
3次元画像情報又は空間的情報は、2次元セグメント化の初期化に用いられ、
上記表示装置は、上記セグメント化データを考慮して、記録装置が生成した現実環境の画像をバーチャルオブジェクトと合成して表示する、
ことを特徴とする装置。 - 現実環境内にバーチャルオブジェクトを描写する装置であって、
現実環境の2次元画像を生成する記録装置と、
記録された現実環境の少なくとも1つの構成要素に対する上記記録装置の位置を判定するデータ処理システムと、
光学的半透明表示装置であって、その透明性を通して現実環境を見ることができ、かつ該表示装置に投影することでバーチャルオブジェクトを現実環境と合成する光学的半透明表示装置と、
を備えてなり、
上記データ処理システムは、現実環境の少なくとも1つの構成要素に対する上記表示装置の位置を判定し、
上記データ処理システム内では、現実環境の少なくとも1つのセグメントを現実環境の残りの部分から区別して識別するために、対応するセグメント化データを供給しつつ、センサデータを用いて非マニュアル式に生成された3次元画像情報又は空間的情報に基づいて、上記2次元画像における現実環境の少なくとも1つの領域をセグメント化する方法が実行され、
3次元画像情報又は空間的情報は、2次元セグメント化の初期化に用いられ、
上記表示装置には、上記セグメント化データを考慮して現実環境と合成したバーチャルモデルの描写が表示される、
ことを特徴とする装置。 - 請求項1〜14のいずれかに記載の方法に利用されるソフトウェアコード部分を有するコンピュータプログラム製品であって、現実環境内にバーチャルオブジェクトを描写するシステム内に記憶されることで、記録装置の位置を把握し、現実環境の少なくとも1つの領域をセグメント化し、セグメント化データを考慮してバーチャルオブジェクトを現実環境と合成するコンピュータ読み取り可能記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007045834.9 | 2007-09-25 | ||
DE102007045834A DE102007045834B4 (de) | 2007-09-25 | 2007-09-25 | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
PCT/EP2008/008054 WO2009040093A1 (de) | 2007-09-25 | 2008-09-23 | Verfahren und vorrichtung zum darstellen eines virtuellen objekts in einer realen umgebung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010541053A JP2010541053A (ja) | 2010-12-24 |
JP5133418B2 true JP5133418B2 (ja) | 2013-01-30 |
Family
ID=40120139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010526203A Active JP5133418B2 (ja) | 2007-09-25 | 2008-09-23 | 現実環境内にバーチャルオブジェクトを描写する方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (3) | US9390560B2 (ja) |
EP (1) | EP2206089B1 (ja) |
JP (1) | JP5133418B2 (ja) |
DE (1) | DE102007045834B4 (ja) |
WO (1) | WO2009040093A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10783684B2 (en) | 2017-12-12 | 2020-09-22 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and device for displaying image |
Families Citing this family (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007045835B4 (de) | 2007-09-25 | 2012-12-20 | Metaio Gmbh | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
DE102007045834B4 (de) * | 2007-09-25 | 2012-01-26 | Metaio Gmbh | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
US9147213B2 (en) * | 2007-10-26 | 2015-09-29 | Zazzle Inc. | Visualizing a custom product in situ |
WO2009111047A2 (en) | 2008-03-05 | 2009-09-11 | Ebay Inc. | Method and apparatus for image recognition services |
US9495386B2 (en) | 2008-03-05 | 2016-11-15 | Ebay Inc. | Identification of items depicted in images |
US8407575B1 (en) | 2008-09-10 | 2013-03-26 | Adobe Systems Incorporated | Video content summary |
US8285055B1 (en) | 2008-09-10 | 2012-10-09 | Adobe Systems Incorporated | Determining correspondence between image regions |
US9330476B2 (en) * | 2009-05-21 | 2016-05-03 | Adobe Systems Incorporated | Generating a modified image with additional content provided for a region thereof |
KR20110006022A (ko) * | 2009-07-13 | 2011-01-20 | 삼성전자주식회사 | 가상 오브젝트 기반의 이미지 처리 방법 및 장치 |
US8994645B1 (en) | 2009-08-07 | 2015-03-31 | Groundspeak, Inc. | System and method for providing a virtual object based on physical location and tagging |
US8502835B1 (en) | 2009-09-02 | 2013-08-06 | Groundspeak, Inc. | System and method for simulating placement of a virtual object relative to real world objects |
US9164577B2 (en) * | 2009-12-22 | 2015-10-20 | Ebay Inc. | Augmented reality system, method, and apparatus for displaying an item image in a contextual environment |
CN102906810B (zh) | 2010-02-24 | 2015-03-18 | 爱普莱克斯控股公司 | 支持视觉受损的个体的扩增的现实全景 |
US9213920B2 (en) | 2010-05-28 | 2015-12-15 | Zazzle.Com, Inc. | Using infrared imaging to create digital images for use in product customization |
US8571328B2 (en) | 2010-08-16 | 2013-10-29 | Adobe Systems Incorporated | Determining correspondence between image regions |
JP4914528B1 (ja) * | 2010-08-31 | 2012-04-11 | 新日鉄ソリューションズ株式会社 | 拡張現実提供システム、情報処理端末、情報処理装置、拡張現実提供方法、情報処理方法、及びプログラム |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US10127606B2 (en) | 2010-10-13 | 2018-11-13 | Ebay Inc. | Augmented reality system and method for visualizing an item |
US8625927B2 (en) | 2010-10-27 | 2014-01-07 | Adobe Systems Incorporated | Image processing using image web |
NL1038336C2 (nl) * | 2010-10-27 | 2012-05-01 | Giezer B V | Werkwijze voor het in perspectief en op schaal tonen van een digitale 2d representatie van een voorwerp ten opzichte van een getoonde digitale 2d representatie van een 3d-ruimte, voor een computer leesbaar medium met programmacode, een computersysteem voor het implementeren van de werkwijze en een server computersysteem. |
JP5689693B2 (ja) * | 2011-01-13 | 2015-03-25 | 株式会社ディジタルメディアプロフェッショナル | 描画処理装置 |
US9160966B2 (en) | 2011-05-11 | 2015-10-13 | Microsoft Technology Licensing, Llc | Imaging through a display screen |
CA2845911A1 (en) | 2011-08-31 | 2013-03-07 | Zazzle.Com, Inc. | Tiling process for digital image retrieval |
JP5988563B2 (ja) * | 2011-10-25 | 2016-09-07 | キヤノン株式会社 | 画像処理装置と画像処理装置の制御方法およびプログラムと、情報処理装置と情報処理装置の制御方法およびプログラム |
JP5821526B2 (ja) | 2011-10-27 | 2015-11-24 | ソニー株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9449342B2 (en) | 2011-10-27 | 2016-09-20 | Ebay Inc. | System and method for visualization of items in an environment using augmented reality |
JP5734810B2 (ja) | 2011-11-14 | 2015-06-17 | 株式会社東芝 | 機器制御装置、その方法、及び、そのプログラム |
US9240059B2 (en) | 2011-12-29 | 2016-01-19 | Ebay Inc. | Personal augmented reality |
WO2013191689A1 (en) * | 2012-06-20 | 2013-12-27 | Image Masters, Inc. | Presenting realistic designs of spaces and objects |
US10846766B2 (en) | 2012-06-29 | 2020-11-24 | Ebay Inc. | Contextual menus based on image recognition |
JP5651659B2 (ja) | 2012-08-31 | 2015-01-14 | 株式会社東芝 | 物体検出システムおよびプログラム |
US9466121B2 (en) | 2012-09-11 | 2016-10-11 | Qualcomm Incorporated | Devices and methods for augmented reality applications |
US9336541B2 (en) | 2012-09-21 | 2016-05-10 | Paypal, Inc. | Augmented reality product instructions, tutorials and visualizations |
US8712566B1 (en) | 2013-03-14 | 2014-04-29 | Zazzle Inc. | Segmentation of a product markup image based on color and color differences |
US9535496B2 (en) | 2013-03-15 | 2017-01-03 | Daqri, Llc | Visual gestures |
JP2014186520A (ja) * | 2013-03-22 | 2014-10-02 | Toshiba Corp | 画像処理装置、画像処理方法およびプログラム |
EP3005300A4 (en) * | 2013-06-06 | 2016-05-25 | Ericsson Telefon Ab L M | COMBINATION OF A DIGITAL IMAGE WITH A VIRTUAL UNIT |
JP2015032211A (ja) | 2013-08-05 | 2015-02-16 | 株式会社東芝 | 画像処理装置、方法およびプログラム |
US10095987B2 (en) * | 2014-04-25 | 2018-10-09 | Ebay Inc. | Integrating event-planning services into a payment system |
US10296663B2 (en) * | 2014-05-13 | 2019-05-21 | Atheer, Inc. | Method for moving and aligning 3D objects in a plane within the 2D environment |
WO2016006728A1 (ko) * | 2014-07-08 | 2016-01-14 | 삼성전자 주식회사 | 화상을 이용해 3차원 정보를 처리하는 전자 장치 및 방법 |
WO2016020778A1 (en) | 2014-07-30 | 2016-02-11 | Maticad S.R.L. | A method, mobile device and computer program for substituting a furnishing covering surface of in an image |
US10217185B1 (en) * | 2014-08-08 | 2019-02-26 | Amazon Technologies, Inc. | Customizing client experiences within a media universe |
US9734634B1 (en) * | 2014-09-26 | 2017-08-15 | A9.Com, Inc. | Augmented reality product preview |
US10783284B2 (en) * | 2014-10-15 | 2020-09-22 | Dirtt Environmental Solutions, Ltd. | Virtual reality immersion with an architectural design software application |
US9928544B1 (en) * | 2015-03-10 | 2018-03-27 | Amazon Technologies, Inc. | Vehicle component installation preview image generation |
US9928648B2 (en) | 2015-11-09 | 2018-03-27 | Microsoft Technology Licensing, Llc | Object path identification for navigating objects in scene-aware device environments |
US10089681B2 (en) | 2015-12-04 | 2018-10-02 | Nimbus Visulization, Inc. | Augmented reality commercial platform and method |
US11062383B2 (en) | 2016-05-10 | 2021-07-13 | Lowe's Companies, Inc. | Systems and methods for displaying a simulated room and portions thereof |
WO2018081176A1 (en) * | 2016-10-24 | 2018-05-03 | Aquifi, Inc. | Systems and methods for contextual three-dimensional staging |
JP2018077644A (ja) * | 2016-11-08 | 2018-05-17 | 富士ゼロックス株式会社 | 情報処理システム及びプログラム |
US10304234B2 (en) | 2016-12-01 | 2019-05-28 | Disney Enterprises, Inc. | Virtual environment rendering |
ES2704373B2 (es) * | 2017-09-15 | 2020-05-29 | Seat Sa | Método y sistema para mostrar información de realidad virtual en un vehículo |
US10636137B1 (en) * | 2017-10-23 | 2020-04-28 | Amazon Technologies, Inc. | System for determining object orientations in an image |
CN108010118B (zh) * | 2017-11-28 | 2021-11-30 | 杭州易现先进科技有限公司 | 虚拟对象处理方法、虚拟对象处理装置、介质和计算设备 |
EP3721418A1 (en) * | 2017-12-05 | 2020-10-14 | Diakse | Method of construction of a computer-generated image and a virtual environment |
US10192115B1 (en) | 2017-12-13 | 2019-01-29 | Lowe's Companies, Inc. | Virtualizing objects using object models and object position data |
JP7169358B2 (ja) * | 2017-12-22 | 2022-11-10 | マジック リープ, インコーポレイテッド | 高速立体再構成のための視点依存ブリック選択 |
US20190385372A1 (en) * | 2018-06-15 | 2019-12-19 | Microsoft Technology Licensing, Llc | Positioning a virtual reality passthrough region at a known distance |
US11087538B2 (en) * | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
EP3599539B1 (en) | 2018-07-26 | 2023-08-23 | Nokia Technologies Oy | Rendering objects in virtual views |
US11393170B2 (en) | 2018-08-21 | 2022-07-19 | Lenovo (Singapore) Pte. Ltd. | Presentation of content based on attention center of user |
US10991139B2 (en) | 2018-08-30 | 2021-04-27 | Lenovo (Singapore) Pte. Ltd. | Presentation of graphical object(s) on display to avoid overlay on another item |
JP6991352B2 (ja) * | 2018-09-10 | 2022-01-12 | 富士フイルム株式会社 | 表示装置、方法およびプログラム |
DE102018218746B4 (de) * | 2018-11-01 | 2022-09-29 | Volkswagen Aktiengesellschaft | Verfahren zur Vermeidung einer Sichtfeldstörung für eine Bedienperson eines Objektes, Vorrichtung zur Durchführung des Verfahrens sowie Fahrzeug und Computerprogramm |
KR102629330B1 (ko) | 2018-11-28 | 2024-01-26 | 삼성전자주식회사 | 디스플레이 장치 및 이의 제어 방법 |
US11126845B1 (en) * | 2018-12-07 | 2021-09-21 | A9.Com, Inc. | Comparative information visualization in augmented reality |
US11471773B2 (en) * | 2019-08-01 | 2022-10-18 | Krikey, Inc. | Occlusion in mobile client rendered augmented reality environments |
CN114730485A (zh) * | 2019-11-01 | 2022-07-08 | 英特宜家系统有限公司 | 用于生成对象的虚拟场景的方法、装置和计算机程序 |
EP3816943A1 (en) * | 2019-11-01 | 2021-05-05 | Inter IKEA Systems B.V. | Method, device and computer program for generating a virtual scene of objects |
WO2021097126A1 (en) | 2019-11-12 | 2021-05-20 | Geomagical Labs, Inc. | Method and system for scene image modification |
US10976806B1 (en) | 2019-12-27 | 2021-04-13 | GE Precision Healthcare LLC | Methods and systems for immersive reality in a medical environment |
WO2021184303A1 (zh) * | 2020-03-19 | 2021-09-23 | 深圳市创梦天地科技有限公司 | 一种视频处理的方法及设备 |
WO2021263018A1 (en) * | 2020-06-25 | 2021-12-30 | The Regents Of The University Of California | Contextual augmentation using scene graphs |
KR20220045799A (ko) | 2020-10-06 | 2022-04-13 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
EP3993449A1 (en) | 2020-11-02 | 2022-05-04 | Inter IKEA Systems B.V. | Method and device for communicating a soundscape in an environment |
US11900447B2 (en) | 2021-01-04 | 2024-02-13 | Inter Ikea Systems B.V. | Furnishing selection system |
CN113230651B (zh) * | 2021-04-20 | 2024-02-02 | 网易(杭州)网络有限公司 | 游戏场景的显示方法、装置、电子设备及存储介质 |
US20230067584A1 (en) * | 2021-08-27 | 2023-03-02 | Apple Inc. | Adaptive Quantization Matrix for Extended Reality Video Encoding |
DE102021123138A1 (de) | 2021-09-07 | 2023-03-09 | WALD Digitale Transformations GmbH | Verfahren zum Anpassen der Beschaffenheit eines herzustellenden Gegenstandes, insbesondere Kamins, an die Umgebung des für seine Aufstellung vorgesehenen Standortes und Anwendungssoftware |
US11972133B2 (en) * | 2021-09-14 | 2024-04-30 | International Business Machines Corporation | Management of smart storage areas |
Family Cites Families (113)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03129495A (ja) * | 1989-10-16 | 1991-06-03 | Nippon Telegr & Teleph Corp <Ntt> | オーダーエントリーシステム |
JPH0561962A (ja) | 1991-08-30 | 1993-03-12 | Hitachi Ltd | 製品評価のための環境モデル作成装置 |
US5625765A (en) | 1993-09-03 | 1997-04-29 | Criticom Corp. | Vision systems including devices and methods for combining images for extended magnification schemes |
US6037936A (en) | 1993-09-10 | 2000-03-14 | Criticom Corp. | Computer vision system with a graphic user interface and remote camera control |
JP3558104B2 (ja) * | 1996-08-05 | 2004-08-25 | ソニー株式会社 | 3次元仮想物体表示装置および方法 |
US6166744A (en) | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
JP2000036061A (ja) | 1998-07-17 | 2000-02-02 | Toshiba Corp | 画像処理システム |
JP2000048081A (ja) | 1998-08-03 | 2000-02-18 | Dainippon Printing Co Ltd | 情報提供装置 |
JP2000276613A (ja) | 1999-03-29 | 2000-10-06 | Sony Corp | 情報処理装置および情報処理方法 |
US7119819B1 (en) | 1999-04-06 | 2006-10-10 | Microsoft Corporation | Method and apparatus for supporting two-dimensional windows in a three-dimensional environment |
US6556704B1 (en) | 1999-08-25 | 2003-04-29 | Eastman Kodak Company | Method for forming a depth image from digital image data |
US7193633B1 (en) | 2000-04-27 | 2007-03-20 | Adobe Systems Incorporated | Method and apparatus for image assisted modeling of three-dimensional scenes |
US6337925B1 (en) | 2000-05-08 | 2002-01-08 | Adobe Systems Incorporated | Method for determining a border in a complex scene with applications to image masking |
US20020010655A1 (en) | 2000-05-25 | 2002-01-24 | Realitybuy, Inc. | Real time, three-dimensional, configurable, interactive product display system and method |
EP1373967A2 (en) * | 2000-06-06 | 2004-01-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | The extended virtual table: an optical extension for table-like projection systems |
DE10127396A1 (de) * | 2000-06-13 | 2001-12-20 | Volkswagen Ag | Verfahren zum Verwerten eines Altfahrzeugs |
US20020094189A1 (en) * | 2000-07-26 | 2002-07-18 | Nassir Navab | Method and system for E-commerce video editing |
US7523411B2 (en) | 2000-08-22 | 2009-04-21 | Bruce Carlin | Network-linked interactive three-dimensional composition and display of saleable objects in situ in viewer-selected scenes for purposes of object promotion and procurement, and generation of object advertisements |
US7043695B2 (en) | 2000-09-19 | 2006-05-09 | Technion Research & Development Foundation Ltd. | Object positioning and display in virtual environments |
US6954498B1 (en) | 2000-10-24 | 2005-10-11 | Objectvideo, Inc. | Interactive video manipulation |
JP2002157607A (ja) * | 2000-11-17 | 2002-05-31 | Canon Inc | 画像生成システム、画像生成方法および記憶媒体 |
JP2002334119A (ja) | 2001-05-09 | 2002-11-22 | Matsushita Electric Works Ltd | インターネットを用いた照明シミュレーションの方法 |
US20040135744A1 (en) * | 2001-08-10 | 2004-07-15 | Oliver Bimber | Virtual showcases |
US20040238732A1 (en) * | 2001-10-19 | 2004-12-02 | Andrei State | Methods and systems for dynamic virtual convergence and head mountable display |
JP2005521123A (ja) * | 2001-10-22 | 2005-07-14 | ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー | 光学顕微鏡検出3次元画像の生成方法及び生成装置 |
JP3779907B2 (ja) | 2001-10-26 | 2006-05-31 | 大和ハウス工業株式会社 | プレキャスト基礎の据付治具及び据付方法 |
JP4032776B2 (ja) | 2002-03-04 | 2008-01-16 | ソニー株式会社 | 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム |
DE20203367U1 (de) | 2002-03-04 | 2003-05-08 | Audi Ag | Frühzeitige Visualisierung von Designideen im Ton-/Designmodell |
JP2003264749A (ja) | 2002-03-08 | 2003-09-19 | Matsushita Electric Ind Co Ltd | 受信装置および送信装置 |
JP2003264740A (ja) | 2002-03-08 | 2003-09-19 | Cad Center:Kk | 展望鏡 |
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
US7203356B2 (en) | 2002-04-11 | 2007-04-10 | Canesta, Inc. | Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications |
US7003136B1 (en) | 2002-04-26 | 2006-02-21 | Hewlett-Packard Development Company, L.P. | Plan-view projections of depth image data for object tracking |
US7034822B2 (en) | 2002-06-19 | 2006-04-25 | Swiss Federal Institute Of Technology Zurich | System and method for producing 3D video images |
JP2004046326A (ja) | 2002-07-09 | 2004-02-12 | Dainippon Screen Mfg Co Ltd | 画像表示装置、画像表示方法およびプログラム |
US20040068758A1 (en) * | 2002-10-02 | 2004-04-08 | Mike Daily | Dynamic video annotation |
AU2003277240A1 (en) * | 2002-10-15 | 2004-06-07 | University Of Southern California | Augmented virtual environments |
US7050078B2 (en) * | 2002-12-19 | 2006-05-23 | Accenture Global Services Gmbh | Arbitrary object tracking augmented reality applications |
DE10301849B4 (de) | 2003-01-20 | 2007-03-01 | Metaio Gmbh | System und Verfahren zur statischen Einblendung von virtuellen Objekten in reale Umgebungen |
JP2004234253A (ja) | 2003-01-29 | 2004-08-19 | Canon Inc | 複合現実感呈示方法 |
US7203384B2 (en) | 2003-02-24 | 2007-04-10 | Electronic Scripting Products, Inc. | Implement for optically inferring information from a planar jotting surface |
JP2004287699A (ja) | 2003-03-20 | 2004-10-14 | Tama Tlo Kk | 画像合成装置及びその合成方法 |
JP2004310686A (ja) | 2003-04-10 | 2004-11-04 | Canon Inc | 画像処理方法及び装置 |
US7711155B1 (en) * | 2003-04-14 | 2010-05-04 | Videomining Corporation | Method and system for enhancing three dimensional face modeling using demographic classification |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7372977B2 (en) | 2003-05-29 | 2008-05-13 | Honda Motor Co., Ltd. | Visual tracking using depth data |
US20060063574A1 (en) * | 2003-07-30 | 2006-03-23 | Richardson Todd E | Sports simulation system |
JP2005063225A (ja) | 2003-08-15 | 2005-03-10 | Nippon Telegr & Teleph Corp <Ntt> | 自己画像表示を用いたインタフェース方法、装置、ならびにプログラム |
JP4323910B2 (ja) * | 2003-09-30 | 2009-09-02 | キヤノン株式会社 | 画像合成装置及び方法 |
JP3991020B2 (ja) * | 2003-09-30 | 2007-10-17 | キヤノン株式会社 | 画像表示方法及び画像表示システム |
US7574070B2 (en) * | 2003-09-30 | 2009-08-11 | Canon Kabushiki Kaisha | Correction of subject area detection information, and image combining apparatus and method using the correction |
US7277572B2 (en) | 2003-10-10 | 2007-10-02 | Macpearl Design Llc | Three-dimensional interior design system |
US7110100B2 (en) | 2003-11-04 | 2006-09-19 | Electronic Scripting Products, Inc. | Apparatus and method for determining an inclination of an elongate object contacting a plane surface |
US7268956B2 (en) | 2003-11-24 | 2007-09-11 | Electronic Scripting Products, Inc. | Solid catadioptric lens with two viewpoints |
US7038846B2 (en) | 2003-11-24 | 2006-05-02 | Electronic Scripting Products, Inc. | Solid catadioptric lens with a single viewpoint |
JP2005157610A (ja) | 2003-11-25 | 2005-06-16 | Canon Inc | 画像処理装置および方法 |
US7088440B2 (en) | 2003-12-22 | 2006-08-08 | Electronic Scripting Products, Inc. | Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features |
US7434153B2 (en) * | 2004-01-21 | 2008-10-07 | Fuji Xerox Co., Ltd. | Systems and methods for authoring a media presentation |
US8542219B2 (en) | 2004-01-30 | 2013-09-24 | Electronic Scripting Products, Inc. | Processing pose data derived from the pose of an elongate object |
US7826641B2 (en) | 2004-01-30 | 2010-11-02 | Electronic Scripting Products, Inc. | Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features |
US9229540B2 (en) | 2004-01-30 | 2016-01-05 | Electronic Scripting Products, Inc. | Deriving input from six degrees of freedom interfaces |
US7729515B2 (en) | 2006-03-08 | 2010-06-01 | Electronic Scripting Products, Inc. | Optical navigation apparatus using fixed beacons and a centroid sensing device |
US7961909B2 (en) | 2006-03-08 | 2011-06-14 | Electronic Scripting Products, Inc. | Computer interface employing a manipulated object with absolute pose detection component and a display |
US7023536B2 (en) | 2004-03-08 | 2006-04-04 | Electronic Scripting Products, Inc. | Apparatus and method for determining orientation parameters of an elongate object |
WO2005091220A1 (en) * | 2004-03-12 | 2005-09-29 | Bracco Imaging S.P.A | Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems |
JP4522129B2 (ja) | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
US7161664B2 (en) | 2004-04-13 | 2007-01-09 | Electronic Scripting Products, Inc. | Apparatus and method for optical determination of intermediate distances |
US7113270B2 (en) | 2004-06-18 | 2006-09-26 | Electronics Scripting Products, Inc. | Determination of an orientation parameter of an elongate object with a scan beam apparatus |
JP4464773B2 (ja) | 2004-09-03 | 2010-05-19 | 日本放送協会 | 3次元モデル表示装置及び3次元モデル表示プログラム |
DE102004046144A1 (de) | 2004-09-23 | 2006-03-30 | Volkswagen Ag | Verfahren und System zum Planen einer Produktionsumgebung |
JP4033859B2 (ja) * | 2004-12-28 | 2008-01-16 | 独立行政法人科学技術振興機構 | 立体画像表示方法 |
US7920144B2 (en) | 2005-01-18 | 2011-04-05 | Siemens Medical Solutions Usa, Inc. | Method and system for visualization of dynamic three-dimensional virtual objects |
US20070065002A1 (en) * | 2005-02-18 | 2007-03-22 | Laurence Marzell | Adaptive 3D image modelling system and apparatus and method therefor |
US7512262B2 (en) | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
DE102005011126A1 (de) | 2005-03-10 | 2006-09-14 | Siemens Ag | Generierung virtueller Welten auf Basis einer realen Umgebung |
JP4726194B2 (ja) | 2005-04-01 | 2011-07-20 | キヤノン株式会社 | キャリブレーション方法及び装置 |
US7479967B2 (en) | 2005-04-11 | 2009-01-20 | Systems Technology Inc. | System for combining virtual and real-time environments |
WO2006111374A2 (en) * | 2005-04-19 | 2006-10-26 | Technische Universität München | Software cinema |
JP4747296B2 (ja) | 2005-06-15 | 2011-08-17 | 国立大学法人九州工業大学 | 遮蔽空間の可視化方法 |
US7609888B2 (en) | 2005-07-01 | 2009-10-27 | Microsoft Corporation | Separating a video object from a background of a video sequence |
US8207843B2 (en) * | 2005-07-14 | 2012-06-26 | Huston Charles D | GPS-based location and messaging system and method |
JP4914123B2 (ja) | 2005-07-15 | 2012-04-11 | キヤノン株式会社 | 画像処理装置及び方法 |
US7720282B2 (en) | 2005-08-02 | 2010-05-18 | Microsoft Corporation | Stereo image segmentation |
US20080217472A1 (en) * | 2005-10-03 | 2008-09-11 | Rocket Racing, Inc. | Rocket-powered vehicle racing reality system |
US20070285554A1 (en) * | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US8094928B2 (en) | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
US20070146360A1 (en) | 2005-12-18 | 2007-06-28 | Powerproduction Software | System And Method For Generating 3D Scenes |
DE102005060980B4 (de) * | 2005-12-20 | 2012-10-25 | Metaio Gmbh | Verfahren und System zur Bestimmung eines kollisionsfreien dreidimensionalen Raumvolumens entlang eines Bewegungspfades gegenüber einer realen Umgebung |
DE102005061952B4 (de) | 2005-12-23 | 2008-09-11 | Metaio Gmbh | Verfahren und System zur Bestimmung einer Ungenauigkeitsinformation in einem Augmented Reality System |
EP1826723B1 (en) | 2006-02-28 | 2015-03-25 | Microsoft Corporation | Object-level image editing |
JP5063023B2 (ja) | 2006-03-31 | 2012-10-31 | キヤノン株式会社 | 位置姿勢補正装置、位置姿勢補正方法 |
JP4847184B2 (ja) | 2006-04-06 | 2011-12-28 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
JP4847192B2 (ja) * | 2006-04-14 | 2011-12-28 | キヤノン株式会社 | 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法 |
US7817161B2 (en) | 2006-06-26 | 2010-10-19 | Microsoft Corporation | Texture synthesis using dimensionality-reduced appearance space |
US8508546B2 (en) | 2006-09-19 | 2013-08-13 | Adobe Systems Incorporated | Image mask generation |
US20080071559A1 (en) | 2006-09-19 | 2008-03-20 | Juha Arrasvuori | Augmented reality assisted shopping |
DE102006046735A1 (de) * | 2006-09-29 | 2008-04-10 | Siemens Ag | Vorrichtung zur Fusion eines 2D-Durchleuchtungsbildes mit einem Bild aus einem 3D-Bilddatensatz |
JP4764305B2 (ja) | 2006-10-02 | 2011-08-31 | 株式会社東芝 | 立体画像生成装置、方法およびプログラム |
US20100096491A1 (en) * | 2006-10-02 | 2010-04-22 | Rocket Racing, Inc. | Rocket-powered entertainment vehicle |
US20080266323A1 (en) | 2007-04-25 | 2008-10-30 | Board Of Trustees Of Michigan State University | Augmented reality user interaction system |
US8339418B1 (en) | 2007-06-25 | 2012-12-25 | Pacific Arts Corporation | Embedding a real time video into a virtual environment |
US8902227B2 (en) | 2007-09-10 | 2014-12-02 | Sony Computer Entertainment America Llc | Selective interactive mapping of real-world objects to create interactive virtual-world objects |
DE102007045834B4 (de) * | 2007-09-25 | 2012-01-26 | Metaio Gmbh | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
DE102007045835B4 (de) * | 2007-09-25 | 2012-12-20 | Metaio Gmbh | Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung |
KR100951890B1 (ko) * | 2008-01-25 | 2010-04-12 | 성균관대학교산학협력단 | 상황 모니터링을 적용한 실시간 물체 인식 및 자세 추정 방법 |
US8073243B2 (en) | 2008-05-30 | 2011-12-06 | General Instrument Corporation | Replacing image information in a captured image |
JP5340675B2 (ja) | 2008-08-29 | 2013-11-13 | 槌屋ティスコ株式会社 | 電気掃除機用の回転ブラシ装置及びブラシ |
US8538106B2 (en) * | 2009-10-20 | 2013-09-17 | Siemens Aktiengesellschaft | Three-dimensional esophageal reconstruction |
SE535910E (sv) | 2010-11-09 | 2017-09-05 | Twentyfourseven Holding Ab | Videoproduktion via ett fjärrtrafiknät |
KR101932537B1 (ko) * | 2013-01-08 | 2019-03-15 | 한화테크윈 주식회사 | 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치 |
US8970709B2 (en) | 2013-03-13 | 2015-03-03 | Electronic Scripting Products, Inc. | Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US20150091891A1 (en) * | 2013-09-30 | 2015-04-02 | Dumedia, Inc. | System and method for non-holographic teleportation |
-
2007
- 2007-09-25 DE DE102007045834A patent/DE102007045834B4/de active Active
-
2008
- 2008-09-23 JP JP2010526203A patent/JP5133418B2/ja active Active
- 2008-09-23 WO PCT/EP2008/008054 patent/WO2009040093A1/de active Application Filing
- 2008-09-23 US US12/680,125 patent/US9390560B2/en active Active
- 2008-09-23 EP EP08802539.0A patent/EP2206089B1/de active Active
-
2016
- 2016-07-08 US US15/205,899 patent/US10043315B2/en active Active
-
2018
- 2018-08-06 US US16/055,907 patent/US10665025B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10783684B2 (en) | 2017-12-12 | 2020-09-22 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and device for displaying image |
Also Published As
Publication number | Publication date |
---|---|
US10665025B2 (en) | 2020-05-26 |
US10043315B2 (en) | 2018-08-07 |
EP2206089A1 (de) | 2010-07-14 |
US20100287511A1 (en) | 2010-11-11 |
DE102007045834A1 (de) | 2009-04-02 |
JP2010541053A (ja) | 2010-12-24 |
EP2206089B1 (de) | 2016-06-29 |
US20190188915A1 (en) | 2019-06-20 |
US9390560B2 (en) | 2016-07-12 |
WO2009040093A1 (de) | 2009-04-02 |
DE102007045834B4 (de) | 2012-01-26 |
US20170011558A1 (en) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6321106B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
JP5133418B2 (ja) | 現実環境内にバーチャルオブジェクトを描写する方法および装置 | |
US20230410337A1 (en) | Method and system for scene image modification | |
Johnson et al. | Registration and integration of textured 3D data | |
US6476803B1 (en) | Object modeling system and process employing noise elimination and robust surface extraction techniques | |
US7760932B2 (en) | Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image | |
Goesele et al. | Ambient point clouds for view interpolation | |
KR100888537B1 (ko) | 이미지의 2 계층이며, 삼차원인 표현을 생성하기 위한 컴퓨터 구현 방법, 시스템 및 컴퓨터―판독가능 매체 | |
Rander | A multi-camera method for 3D digitization of dynamic, real-world events | |
US20040165776A1 (en) | Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures | |
Huber et al. | Real-time photo-realistic visualization of 3D environments for enhanced tele-operation of vehicles | |
Frommholz et al. | Inlining 3d reconstruction, multi-source texture mapping and semantic analysis using oblique aerial imagery | |
Wong et al. | 3D object model reconstruction from image sequence based on photometric consistency in volume space | |
CN114972612A (zh) | 一种基于三维简化模型的图像纹理生成方法及相关设备 | |
Poux | How to represent 3D Data? | |
Nyland et al. | Interactive exploration of acquired 3D data | |
Quarendon | Toward Three-Dimensional Models of Reality | |
Birkbeck | Year this Degree Granted: 2005 | |
Besora Vilardaga | Real time city visualization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120612 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120619 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120712 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120720 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120810 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121009 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121107 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5133418 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |