JP2012527025A - 物体の3次元モデルを生成する方法 - Google Patents

物体の3次元モデルを生成する方法 Download PDF

Info

Publication number
JP2012527025A
JP2012527025A JP2012510230A JP2012510230A JP2012527025A JP 2012527025 A JP2012527025 A JP 2012527025A JP 2012510230 A JP2012510230 A JP 2012510230A JP 2012510230 A JP2012510230 A JP 2012510230A JP 2012527025 A JP2012527025 A JP 2012527025A
Authority
JP
Japan
Prior art keywords
texture
depth
dimensional model
representation
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012510230A
Other languages
English (en)
Other versions
JP5465323B2 (ja
Inventor
ロウ,ツエ
フアン・ブルーク,シフールト
フアン・デン・ブルーク,マルク
フアン・ラームドンク,ウルフガング
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2012527025A publication Critical patent/JP2012527025A/ja
Application granted granted Critical
Publication of JP5465323B2 publication Critical patent/JP5465323B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明は、特定の物体の3次元モデルを生成する方法に関する。この方法は最初に、物体の物体奥行き表現を決定するステップと、物体のテクスチャを生成するステップとを含む。次に、3次元モデルは、変位マッピングを前記物体の前記物体奥行き表現に適用し、次に前記テクスチャを前記変位マッピングを使用して生成された前記物体の前記3次元モデルに適用することによって生成される。

Description

本発明は、物体の3次元モデルを生成する方法および関連するシステムに関する。
そのような方法は、例えばhttp://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=01024107に公開された論文「DATA PROCESSING IN 3D VIDEO SYSTEM BASED ON DATA FROM STRUCTERED LIGHT MEASUREMENT SYSTEM」によって既に当技術分野において知られている。
本論文において、構造化光を使用して物体の3次元表現が生成されるシステムおよび方法が記載される。そのようなシステムでは、提案された正確な3D映像は、干渉縞投影法に基づく光学式3D物体測定システムの使用に依存する。この構造化光測定システムは、複数の方向からの3D物体を表す座標点群の形での物体の全ての点に関する奥行き情報である出力データを提供する。点群は、3次元モデルである視覚化用に受け入れられたデータに変換され、3次元モデルは、最終的に仮想環境と組み合わせることができる。
構造化光3Dスキャナは、対象の上に光のパターンを投影し、対象の上のパターンの変形を見る。2次元格子または線縞パターンの例を挙げる。パターンの変形を見るためにパターン投影機からわずかにオフセットされたカメラを使用し、パターンにおけるそれぞれの点の距離を計算するためにかなり複雑なアルゴリズムを使用する。
この結果として生じる「点群」は物体の表面上に多数の点を含み、物体の表面はスキャンされたまたはデジタル化された物体の可視表面を表す。そのような「点群」自体は一般に多くの3D用途において直接使用することができず、したがって通常は、様々な目的に使用することができるように、一般にリバースエンジニアリングと呼ばれるプロセスによって三角メッシュモデル、NURBS表面モデル、またはCADモデルに変換される。「点群」から3Dモデルへの変換は、複雑な計算集約型手順としてよく知られている。
さらに、そのような構造化光システムは、現実の環境において実用的ではないと同時に、複雑な照明設置が要求されるという点で不利である。
http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=01024107に公開された論文、「DATA PROCESSING IN 3D VIDEO SYSTEM BASED ON DATA FROM STRUCTERED LIGHT MEASUREMENT SYSTEM」
本発明の目的は、上記の知られているタイプの、ただし、3次元モデルの生成が通常の照明条件において行われる方法を提供することである。
本発明によれば、この目的は、請求項1に記載の方法、請求項7に記載のシステムおよび請求項8に記載の3次元モデル生成器によって達成される。
実際、最初に、物体に関連する奥行き情報を測定することによって物体の物体奥行き表現を生成することによって、また、物体のこの生成された物体奥行き表現に基づいて、次に、変位マッピングを物体の生成された物体奥行き表現に適用し、物体の生成されたテクスチャを変位マッピングを使用して作成された物体の3次元モデルにマッピングすることによって、物体の3次元モデルを作成することができ、物体のテクスチャ化された3次元モデルが通常の照明条件において得られる。
比較的速く効率的な処理により、したがって非常に短い時間で、変化する物体の場合、3Dモデルを生成する処理時間が短いので、リアルタイムソリューションにおいて使用することができるテクスチャ化された3次元物体をレンダリングする。
このテクスチャは、高精細画像から得ることができる任意のテクスチャ、標準精細テクスチャまたは前記画像を用いて更新された事前定義されたテクスチャであってもよい。
物体奥行き表現を生成することは、物体の奥行き測定値の決定および物体のそれぞれの点の奥行きを測定することによって物体の輪郭を再構築することである。
変位マッピングは、バンプマッピング、法線マッピング、および視差マッピングとは対照的な、(手続き型)テクスチャマップまたは高さマップを使用して効果をもたらす代替のコンピュータグラフィックス技術であり、テクスチャ処理された表面における点の実際の幾何学的位置は、テクスチャ機能が表面上のそれぞれの点に対して評価する値に従って、多くの場合は局部表面法線に沿って、変位される。これは表面に十分な奥行き感およびディテールを与え、特に、自己オクルージョン、自己シャドウイングおよびシルエットを可能にする。一方、これは、多量の追加ジオメトリのために、この種の技術のなかで最も費用のかかるものである。
次に、生成された(高精細)テクスチャのマッピングを変位マッピング後に得られた3次元モデルに適用するために、モデルの再構築された輪郭が使用される。
本発明の追加の利点は、変位マッピング技術は点群技術に比べて消費する計算リソースが少ないということにより、本発明の方法、関連するシステムおよび関連する装置は、より速く、より効率的な方法で、3次元表現を得るということである。したがって、3次元モデルの迅速な生成をもたらす処理が比較的単純であるため、本発明のシステムおよび方法をリアルタイムシステムにおいて使用することができる。
本発明のさらなる特徴的な特性は、請求項2に記載されている。
物体奥行き表現を決定するステップは、カメラ入力から得られた奥行きメッセージの抽出に基づく。典型的な奥行きメッセージは、カメラに最も近い点に最も白い白がマッピングされるグレースケール画像とすることができる。
本発明の別のさらなる特徴的な特性は、請求項3に記載されている。
物体の物体奥行き表現を決定するステップは、赤外線距離測定装置の奥行き測定値に基づく。物体奥行き表現は、赤外線距離測定値に基づいた物体のそれぞれの点の奥行きの決定に基づいて生成される。赤外線距離測定値は、粒子、物体またはストリームが測定時間にわたって移動しながら検出器に到達するまでの距離を測定するために使用される。
本発明のさらなる特徴的な特性は、請求項4に記載されている。
前記物体の(高精細)テクスチャを生成するステップは、カメラの(高精細)2次元画像を生成することである。ここでの画像は、3次元モデルにマッピングするための(高精細)テクスチャのレンダリングに使用される。
本発明のいっそうさらなる特徴的な特性は、請求項5に記載されている。
加えて、本方法は、物体奥行き表現からノイズおよび/またはバックグラウンド情報をフィルタリングするステップを含み、バックグラウンドフィルタリングが適用された場合、バックグラウンド情報のない改善された物体奥行き表現をもたらす。
この物体奥行き表現は、平均的には、構造化光測定システムから得ることができる物体奥行き表現よりもはるかにノイズが多い。ここでは、最初にノイズを低減するために、例えばガウシアンフィルタ、バイポーラフィルタのようなフィルタが使用される。
本発明のいっそうさらなる別の特徴的な特性は、請求項6に記載されている。
本発明による方法のさらなるステップは、変位マッピングおよび(高精細)テクスチャのマッピングを3次元モデルに適用する前に物体奥行き表現をさらにいっそう改善するために、最初の物体奥行き表現またはフィルタリングを適用することによって得られた改善された物体奥行き表現をぼかすステップを含む。物体奥行き表現をぼかすことによって、元の物体奥行き表現におけるノイズの影響をさらに低減することができる。
特許請求の範囲において使用される「備える(comprising)」という用語は、その後に列挙される手段に限定されるものとして解釈されるべきではないことに留意されたい。したがって、「手段AおよびBを備える装置(a device comprising means A and B)」という表現の範囲は、構成要素AおよびBのみから成る装置に限定されるべきではない。これは、本発明に関して、装置の唯一の関連する構成要素はAおよびBであることを意味する。
同様に、やはり特許請求の範囲において使用される「結合された(coupled)」という用語は、直接接続のみに限定されるものとして解釈されるべきではないことに留意されたい。したがって、「装置Bに結合された装置A(a device A coupled to a device B)」という表現の範囲は、装置Aの出力が装置Bの入力に直接接続される装置またはシステムに限定されるべきではない。これは、Aの出力とBの入力との間に、他の装置または手段を含む経路であり得る経路が存在することを意味する。
添付の図面と併せて一実施形態の以下の説明を参照することによって、本発明の上記および他の目的および特徴がより明らかとなり、本発明自体が最もよく理解されるであろう。
本発明による3次元モデルを生成するシステムを表す図である。
以下の段落では、図面を参照しながら、添付の特許請求の範囲に記載された本発明の3次元モデルを生成するシステム、関連する方法、関連する3次元モデル生成装置3−DMGDの、本発明による実施について説明する。
この説明の第1の段落では、図1に示される3次元モデルを生成するシステムの主な要素について説明する。第2の段落では、前述の要素と記載された手段との間の全ての接続を定義する。次に、全ての相互接続の説明に続いて、関連する3次元モデル生成装置3−DMGDを含むシステムの全ての関連する機能的な手段について説明する。後続の段落では、3次元モデルを生成するシステムの実際の実施。
本発明のシステムの必須要素は、そこから3次元モデルが生成される物体Oの物体奥行き表現を決定するための物体奥行き表現決定部ODRPである。タイムオブフライト式カメラのような赤外線指向測定装置を使用して、この物体奥行き表現を決定することができ、または別法として、ステレオペアのカメラを適用することによってステレオマッチングのような奥行き抽出アルゴリズムを適用することによって、物体奥行き表現を決定することができる。
加えて、物体の(高精細)テクスチャを生成するように構成されたテクスチャ決定部TDPがあり、UVマッピングのようなよく知られている技術に基づいた高精細2次元画像または通常の2次元画像に基づいてテクスチャを生成することができる。
さらに、(高精細)テクスチャを物体奥行き表現決定部ODRPによって決定された物体奥行き表現にマッピングすることによって3次元物体表現を生成するためのマッピング部MPがある。
物体奥行き表現決定部ODRPは、同時に3次元モデル生成装置3−DMGDの入力端末である入力端末を有する。物体奥行き表現決定部ODRPは、フィルタリング部FPに結合されており、フィルタリング部FPは、奥行きぼかし部DBPに結合されている。奥行きぼかし部DBPは、出力によってマッピング部MPの第1の入力に結合されており、テクスチャ決定部TDPは、出力によってマッピング部MPの第2の入力に結合されている。マッピング部は、3次元物体転送部3−DOFPの入力端末に結合された出力端末を有し、3次元物体転送部3−DOFPは、同時に3次元モデル生成装置3−DMGDの出力端末である出力端末を有する。
3次元モデル生成装置3−DMGDのこの出力端末は、Second Lifeのような仮想環境に、またはアクセスネットワークおよびコア通信ネットワークのような通信ネットワークを介して結合され得る。
特定の人物の3次元物体表現が得られる本発明を説明するために。この特定の人物のそのような3次元物体表現は、Second LifeまたはOpenSimのような仮想環境にそのような表現を導入するために使用可能である。
最初に、物体奥行き表現決定部ODRPは、3次元モデルが生成される人物である物体Oの物体奥行き表現を決定する。この物体奥行き表現は、タイムオブフライト式カメラのような赤外線指向測定装置のような距離測定装置DMDを使用して決定されるとみなされ、または別法としては、ステレオマッチングのような奥行き抽出アルゴリズムをステレオペアのカメラに適用することによって物体奥行き表現を決定することができる。
加えて、テクスチャ決定部TDPは物体の(高精細)テクスチャを生成し、カメラCAMを使用して画像が撮影される場合、テクスチャは高精細2次元画像または通常の2次元画像であってもよい。
次に、マッピング部MPは、最初に変位マッピングを物体奥行き表現決定部ODRPによって決定される物体(O)の生成された物体奥行き表現に適用することによって、この人物の3次元モデルを生成する。次に、マッピング部MPは、物体の生成された(高精細)テクスチャを変位マッピングを使用して作成された物体の3次元モデルにマッピングし、物体のテクスチャ化された3次元モデルが通常の照明条件において得られる。
マッピング部MPは最初に、変位マッピング技術を物体奥行き表現決定部ODDPによって決定された物体奥行き表現に適用し、変位マッピング技術は、(手続き型)テクスチャマップまたは高さマップを使用して効果をもたらすものとして定義され、表面における点の実際の幾何学的位置は、以前に計算された奥行き表現に基づいて変位される。
このモデルを仮想環境に投入するために、この人物の結果として生じるテクスチャ化された3次元モデルを3次元モデル転送部3−DMFPによって使用することができる。ここでは人物のテクスチャ化された3次元モデルである投入されたテクスチャ化されたモデルを含むこの仮想環境VEにアクセスすることができ、クライアント装置CX、CY、CZのいずれかによってそのコンテンツを閲覧することができる。
現在の照明条件、すなわち、追加の照明が適用されていないことにより、この人物の物体奥行き表現の最初の決定において、奥行きを表すグレースケール値を有するグレースケール画像である結果として生じる物体奥行き表現は一定の量のノイズを含み、これは物体のそれぞれの点の奥行き値が完全に正確ではないことを意味する。
フィルタリング部によって専用のフィルタリングを使用して、物体奥行き表現に含まれるこのノイズを部分的にまたは全体的に除去することができる。
ノイズの第1の部分は、バックグラウンドが含まれ得る物体奥行き表現を生成する際に、物体のバックグラウンドによって構成される。
物体のバックグラウンドに関連する物体の全ての点を除去することによって、例えば、一定の奥行き範囲外にある物体奥行き表現(物体のバックグラウンドに関連する)の全ての点を除去することによって、このバックグラウンドを人物の物体奥行き表現から除去することができる。
不完全な照明条件によって構成されるノイズの第2の部分は、物体奥行き表現をフィルタリングすることによって除去される。このフィルタリングは、例えば、ガウシアンフィルタ、バイポーラフィルタの適用であってもよい。
改善された物体奥行き表現であり、もはや如何なるバックグラウンドも含まない、または限定されたもしくは部分的に残ったバックグラウンドのみを含む、結果として生じる物体奥行き表現を、テクスチャをこの改善された物体奥行き表現にマッピングし、このようにして人物の改善された3次元物体表現を生成するために、マッピング部の入力として使用することができる。
さらに、物体奥行き表現をさらに改善し、したがって人物のさらにいっそう改善された3次元物体表現を得るために、人物の第1の改善された物体奥行き表現を奥行きぼかし部DBPに入力することによって、奥行きをぼかすステップを適用することができる。この奥行きをぼかすステップにおいて、第1の改善された物体奥行き表現がさらに改善されて第1の変位マッピングステップおよび次のテクスチャマッピングステップに対してより適したものとなる。
次に、奥行きぼかし部DPPの出力によって生じるさらに改善された物体奥行き表現を、第1の変位マッピングステップおよび次のテクスチャマッピングステップのためにマッピング部の入力として使用することができ、テクスチャは改善された3Dモデルにマッピングされ、このようにして人物のテクスチャ化された改善された3次元物体表現を生成する。
最後の所見は、本発明の実施形態は機能ブロックに関して上記に説明されているということである。上記に挙げられた、これらのブロックの機能的な説明から、よく知られている電子構成部品を用いてこれらのブロックの実施形態をどのように製造することができるかが電子装置の設計分野における当業者に明らかとなろう。したがって、機能ブロックの内容の詳細なアーキテクチャは提示されない。
特定の装置に関連して本発明の原理を上記に説明してきたが、この説明は例としてなされたものに過ぎず、添付の特許請求の範囲において定義される本発明の範囲を限定するものとしてなされたものではないことが明確に理解されよう。

Claims (8)

  1. 物体の3次元モデルを生成する方法であって、
    a.前記物体(O)の物体奥行き表現を決定するステップと、
    b.前記物体(O)のテクスチャを生成するステップと、
    c.変位マッピングを前記物体(O)の前記物体奥行き表現に適用し、次に前記テクスチャを前記変位マッピングを使用して生成された前記物体の前記3次元モデルに適用することによって、前記物体の3次元モデルを生成するステップと
    を含むことを特徴とする、方法。
  2. 前記物体の物体奥行き表現を決定する前記ステップが、カメラ入力からの前記物体の奥行きメッセージの抽出に基づくことを特徴とする、請求項1に記載の方法。
  3. 前記物体の物体奥行き表現を決定する前記ステップが、赤外線距離測定装置(DMD)の奥行き測定値に基づくことを特徴とする、請求項1に記載の方法。
  4. 前記物体のテクスチャを生成する前記ステップが、カメラ(CAM)の2次元画像に基づくことを特徴とする、請求項1から3のいずれかに記載の方法。
  5. 前記物体奥行き表現からノイズおよび/またはバックグラウンド情報をフィルタリングするステップをさらに含むことを特徴とする、請求項1から請求項3のいずれかに記載の方法。
  6. 前記物体奥行き表現をぼかすステップをさらに含むことを特徴とする、請求項1から請求項3および請求項5のいずれかに記載の方法。
  7. 物体(O)の3次元モデルを生成するシステムであって、
    a.距離測定装置(DMD)によって実行された物体奥行き測定に基づいて前記物体(O)の奥行き情報を決定するように構成された物体奥行き表現決定部(ODRP)と、
    b.前記物体(O)のテクスチャを生成するように構成されたテクスチャ決定部(TDP)と、
    c.変位マッピングを使用して、次に前記テクスチャを前記変位マッピングを使用して生成された前記物体の前記3次元モデルにマッピングして、前記物体の3次元モデルを生成するように構成されたマッピング部(MP)と
    備えることを特徴とする、システム。
  8. 請求項1に記載の方法において使用するための3次元モデル生成器であって、
    a.前記物体(O)の奥行き情報を決定するように構成された物体奥行き表現決定部(ODRD)と、
    b.前記物体のHDテクスチャを生成するように構成されたテクスチャ決定部(TDP)と、
    c.変位マッピングを使用して、次に前記テクスチャを前記変位マッピングを使用して生成された前記物体の前記3次元モデルにマッピングして、前記物体の3次元モデルを生成するように構成されたマッピング部(MP)と
    を備えることを特徴とする、3次元モデル生成器。
JP2012510230A 2009-05-14 2010-05-07 物体の3次元モデルを生成する方法 Expired - Fee Related JP5465323B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP09290359.0 2009-05-14
EP09290359A EP2251832A1 (en) 2009-05-14 2009-05-14 Method for generating a 3-dimensional model of an object
PCT/EP2010/056250 WO2010130650A1 (en) 2009-05-14 2010-05-07 Method for generating a 3-dimensional model of an object

Publications (2)

Publication Number Publication Date
JP2012527025A true JP2012527025A (ja) 2012-11-01
JP5465323B2 JP5465323B2 (ja) 2014-04-09

Family

ID=41020915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012510230A Expired - Fee Related JP5465323B2 (ja) 2009-05-14 2010-05-07 物体の3次元モデルを生成する方法

Country Status (6)

Country Link
US (1) US20120113110A1 (ja)
EP (1) EP2251832A1 (ja)
JP (1) JP5465323B2 (ja)
KR (1) KR101345458B1 (ja)
CN (1) CN102422327A (ja)
WO (1) WO2010130650A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505471A (ja) * 2013-12-13 2017-02-16 アヴィバ ソリューションズ リミテッド レーザスキャンデータの画像レンダリング

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101862199B1 (ko) 2012-02-29 2018-05-29 삼성전자주식회사 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법
KR101454780B1 (ko) 2013-06-10 2014-10-27 한국과학기술연구원 3d 모델의 텍스쳐 생성 방법 및 장치
CN104677911B (zh) * 2013-11-27 2017-10-03 财团法人工业技术研究院 用于机器视觉检验的检验设备和方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
US10252466B2 (en) 2014-07-28 2019-04-09 Massachusetts Institute Of Technology Systems and methods of machine vision assisted additive fabrication
CN110366486A (zh) 2016-12-16 2019-10-22 麻省理工学院 用于增材制造的适应性材料沉积
CN109389665B (zh) * 2018-08-24 2021-10-22 先临三维科技股份有限公司 三维模型的纹理获取方法、装置、设备和存储介质
CN112316434B (zh) * 2020-11-16 2022-06-10 腾讯科技(深圳)有限公司 地形贴图的加载方法、装置、移动终端及存储介质
CN114494550B (zh) * 2021-12-30 2022-11-22 北京城市网邻信息技术有限公司 基于WebGPU的渲染方法、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305894A (ja) * 1995-04-28 1996-11-22 Atr Tsushin Syst Kenkyusho:Kk しわの表現可能な三次元像生成装置
JP2005038426A (ja) * 2003-07-14 2005-02-10 Samsung Electronics Co Ltd 映像基盤レンダリングおよび編集の方法ならびにその装置
JP2005078646A (ja) * 2003-08-29 2005-03-24 Samsung Electronics Co Ltd 映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置
JP2007004318A (ja) * 2005-06-22 2007-01-11 Sega Corp 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体
JP2007514230A (ja) * 2003-12-09 2007-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dイメージ表示画面上で3dシーンをレンダリングするコンピュータ・グラフィックス・プロセッサおよび方法
JP2007220049A (ja) * 2006-02-20 2007-08-30 Korea Advanced Inst Of Science & Technol 映像基盤突出変位マッピング方法、及び該方法を用いる二重変位マッピング方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6057850A (en) * 1997-07-15 2000-05-02 Silicon Graphics, Inc. Blended texture illumination mapping
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
US20030202120A1 (en) * 2002-04-05 2003-10-30 Mack Newton Eliot Virtual lighting system
CN1750046A (zh) * 2005-10-20 2006-03-22 浙江大学 基于图形处理器的三维水墨效果渲染方法
JP4921591B2 (ja) * 2007-07-03 2012-04-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 奥行きマップの計算
US8269765B2 (en) * 2008-02-28 2012-09-18 Autodesk, Inc. System and method for removing seam artifacts
US8890863B1 (en) * 2011-08-12 2014-11-18 Google Inc. Automatic method for photo texturing geolocated 3-D models from geolocated imagery

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305894A (ja) * 1995-04-28 1996-11-22 Atr Tsushin Syst Kenkyusho:Kk しわの表現可能な三次元像生成装置
JP2005038426A (ja) * 2003-07-14 2005-02-10 Samsung Electronics Co Ltd 映像基盤レンダリングおよび編集の方法ならびにその装置
JP2005078646A (ja) * 2003-08-29 2005-03-24 Samsung Electronics Co Ltd 映像に基づいたフォトリアリスティックな3次元の顔モデリング方法及び装置
JP2007514230A (ja) * 2003-12-09 2007-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 3dイメージ表示画面上で3dシーンをレンダリングするコンピュータ・グラフィックス・プロセッサおよび方法
JP2007004318A (ja) * 2005-06-22 2007-01-11 Sega Corp 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体
JP2007220049A (ja) * 2006-02-20 2007-08-30 Korea Advanced Inst Of Science & Technol 映像基盤突出変位マッピング方法、及び該方法を用いる二重変位マッピング方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FAUSTO BERNARDINI: ""THE 3D MODEL ACQUISITION PIPELINE"", COMPUTER GRAPHICS FORUM, vol. 21, no. 2, JPN5012012669, 2002, pages 149 - 172, XP002546481, ISSN: 0002722754, DOI: 10.1111/1467-8659.00574 *
WICKE M: ""CONVERSION OF POINT-SAMPLED MODELS TO TEXTURED MESHES"", EUROGRAPHICS SYMPOSIUM ON POINT-BASED GRAPHICS, JPN5012012668, 21 June 2005 (2005-06-21), US, pages 119 - 124, XP010830052, ISSN: 0002722753 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017505471A (ja) * 2013-12-13 2017-02-16 アヴィバ ソリューションズ リミテッド レーザスキャンデータの画像レンダリング
US10467805B2 (en) 2013-12-13 2019-11-05 Aveva Solutions Limited Image rendering of laser scan data

Also Published As

Publication number Publication date
CN102422327A (zh) 2012-04-18
KR20120007043A (ko) 2012-01-19
JP5465323B2 (ja) 2014-04-09
EP2251832A1 (en) 2010-11-17
WO2010130650A1 (en) 2010-11-18
KR101345458B1 (ko) 2013-12-27
US20120113110A1 (en) 2012-05-10

Similar Documents

Publication Publication Date Title
JP5465323B2 (ja) 物体の3次元モデルを生成する方法
US11354840B2 (en) Three dimensional acquisition and rendering
CN115082639B (zh) 图像生成方法、装置、电子设备和存储介质
Hernandez et al. Laser scan quality 3-d face modeling using a low-cost depth camera
JP6883608B2 (ja) 深度マップに対して画像位置合せを行って深度データを最適化することができる深度データ処理システム
US20140300941A1 (en) Method and apparatus for generating hologram based on multi-view image
Hernandez et al. Near laser-scan quality 3-D face reconstruction from a low-quality depth stream
US20110175900A1 (en) System and method for mesoscopic geometry modulation
KR102076494B1 (ko) 3차원 데이터 처리 장치 및 방법
JP2010121945A (ja) 3次元形状生成装置
Kim et al. Depth video enhancement for haptic interaction using a smooth surface reconstruction
CN111462331B (zh) 扩展对极几何并实时计算三维点云的查找表方法
CN117372647A (zh) 一种建筑用三维模型的快速构建方法及系统
Siv et al. 3D human face reconstruction using depth sensor of Kinect 2
JP2004252603A5 (ja)
Chuchvara et al. A speed-optimized RGB-Z capture system with improved denoising capabilities
Dong et al. Point Cloud Segmentation Algorithm Based on Deep Learning and 3D Reconstruction
WO2017182448A1 (en) Method and device for determining a 3d model
Liu et al. 3D ear reconstruction attempts: Using multi-view
JP2006065472A (ja) 3次元モデル生成装置および方法
Guggeri et al. Shape reconstruction from raw point clouds using depth carving
Park et al. 3D mesh construction from depth images with occlusion
Brusco et al. Passive reconstruction of high quality textured 3D models of works of art.
Woodward et al. Real-time stereo vision on the visionserver framework for robot guidance
Stuebl et al. Deep learning based aesthetic evaluation of state-of-the-art 3D reconstruction techniques

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130826

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees