JP3840150B2 - 3次元客体およびアニメートされた3次元客体のイメージベースの表現とレンダリング方法 - Google Patents

3次元客体およびアニメートされた3次元客体のイメージベースの表現とレンダリング方法 Download PDF

Info

Publication number
JP3840150B2
JP3840150B2 JP2002192577A JP2002192577A JP3840150B2 JP 3840150 B2 JP3840150 B2 JP 3840150B2 JP 2002192577 A JP2002192577 A JP 2002192577A JP 2002192577 A JP2002192577 A JP 2002192577A JP 3840150 B2 JP3840150 B2 JP 3840150B2
Authority
JP
Japan
Prior art keywords
image
rendering
circumscribed cube
point
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002192577A
Other languages
English (en)
Other versions
JP2003051026A (ja
Inventor
萬 ▲鎮▼ 韓
イグナチェンコ アレクセイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2003051026A publication Critical patent/JP2003051026A/ja
Application granted granted Critical
Publication of JP3840150B2 publication Critical patent/JP3840150B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はコンピュータグラフィックスに関するものである。より詳細には、客体(オブジェクト)の実物写真やその幾何学的配置に基づいた、オブジェクトの静止画若しくは動画での3次元的な表現(グラフィック化)、さらに、単純化された幾何学モデルを利用したオブジェクトの表現(グラフィック化)およびレンダリング(rendering)方法に関する。
【0002】
【従来の技術】
3次元の客体(オブジェクト)を、高速かつ高品質でレンダリングすることは、現在のグラフィック業界において、大変注目されている。
3次元の客体(オブジェクト)を高品質でレンダリングするには、客体(オブジェクト)の圧縮や圧縮後の客体(オブジェクト)を、通信網を介して伝送することのできる効率的なアルゴリズムが必要とされる。なお、ここでいう通信網とは、たとえば、電子商取引、コンピュータゲーム、科学、工学、医学などの分野における通信網などである。
【0003】
過去数十年間にわたって、これらの要求を満たすべくポリゴンモデルを使用した検討が種々行われたが、所望の結果を得るには至っていない。
なぜならば、ポリゴンモデルの場合、データが大容量である(たとえば、実際のオブジェクトを表現するには、数千万個の三角ポリゴンが必要となる)、グラフィック化(造形)が難しいという2つの短所があるからである。
そのため、このような短所を克服するための様々なグラフィック化の手法が、近年、種々提案されている。その中で、もっとも有効視されているのが、オブジェクトイメージ(実物の画像)に基づく方法と、3次元空間内で三角ポリゴンの代わりに点を利用する方法である。
【0004】
オブジェクトイメージに基づく方法の場合、オブジェクトは、オブジェクト表面の全ての面を完全に網羅できるように、複数のカメラを用いて異なる位置から撮影されたイメージの集合(オブジェクトの写真の集合、以下、参照イメージという)で表現される。このとき、深度マップ(イメージ平面からオブジェクト表面までの距離の配列を示したマップ)が、前記イメージの集合と共に得られる。
【0005】
この方法の場合、ポリゴンモデルの複雑さには何ら影響されることなく、オブジェクトの高品質での視覚化(グラフィック化)が参照イメージの集合から行える。また、一般的な画像圧縮技術で画質の劣化を伴わずに圧縮できるという利点を有する。さらに、レンダリング時間は、参照イメージと出力イメージの画素数に比例するのみであり、オブジェクトの複雑さとは無関係であることも利点の一つである。なお、ここでいう出力イメージとは、レンダリング後に形成されるオブジェクトのことである。
【0006】
しかし、グラフィック化技術が現在発展途上にあるのと同様に、実際のオブジェクト(たとえば、彫刻品)の深度マップを求めるプロセスが複雑となるという欠点を有している。
【0007】
一方、点を利用する方法では、オブジェクトは、ポリゴンではなく、点の集まりで表現される。
この方法では、各参照イメージの各画素をイメージ平面に垂直の方向に対応する深度値で変換することによって、深度イメージの集合がオブジェクト表面上の(所定の色を有する)点の集合として表される。
すなわち、イメージに基づく表現では、点を利用する方法の特別な場合である。
【0008】
以下に、本発明に関連する実画像(イメージ)に基づく表現(グラフィック化)について説明する。
【0009】
前述の2つの方法(オブジェクトイメージを利用する方法、点を利用する方法)が、3次元のオブジェクトの表現やレンダリングについての以下の参考文献[1]〜[15]に記載されている。
[1]リリーフテクスチャーマッピング、
[2]階層化された深度イメージ、
[3]階層化された深度イメージツリー、
[4]Qsplat、
[5]Surfels。
【0010】
[1]Manuel M.Oliveira,Gary Bishop,David McAllister.Relief Textures Mapping.Proceedings of SIGGRAPH 00.
【0011】
[2]Jonathan Shade,Steven Gortler,Li−wei He,Richard Szeliski,Layered Depth Images,Computer Graphics Proceedings,Annual Conference Series,1998,Proceedings of SIGGRAPH 98,Orlando,Florida,July 19−24,1998.
【0012】
[3]Chun−Fa Chang,Gary Bishop,AnselmoLastra.LDI Tree:A Hierarchical Representation for Image−Based Rendering。
【0013】
[4]Szymon Rusinkiewicz,Marc Levoy.QSplat:A Multiresolution Point Rendering System for Large Meshes.Proceedings of SIGGRAPH 00.
【0014】
[5]Hanspeter Pfister,Matthias Zwicker,Jeroen van Baar,Markus Gross.Surfels:Surface Elements as Rendering Primitives,Proceedings of SIGGRAPH 00.
【0015】
[6]Chamberlain et al.,Fast Rendering of Complex Environments Using a Spatial Hierarchy,Proceedings of Graphics Interface 96.
【0016】
[7]Grossman and Dally,Point sample rendering,Proceedings of Eurographics Workshop on Rendering Techniques 98.
【0017】
[8]Lischinski and Rappoport,Image−Based Rendering for Non−Diffuse Synthetic Scenes,Proceedings of Eurographics Workshop on Rendering Techinques 98.
【0018】
[9]M.Levoy and T.Whitted.The Use of Points as Display Primitives.Technical Report TR 85−022,The University of North Carolina at Chapel Hill,Department of Computer Science,1985.
【0019】
[10]L.Westover.Footprint Evaluation for Volume Rendering.In Computer Graphics,Proceedings of SIGGRAPH 90,page 367−376.August 1990.
【0020】
[11]C.I.Connolly.Cumulative generation of octree models from range data.Proceedings of Intl.Conf.Robotics,pages25−32,March 1984.
【0021】
[12]G.H Tarbox and S.N.Gottschlich.IVIS:An integrated volumetric inspection system.Proceedings of the Second CAD−Based Vision Workshop,pages 220−227,February 1994.
【0022】
[13]Curless,B.,Levoy,M.A volumetric method for building complex models from range images.Proceedings of SIGGRAPH96,pp.16−312.
【0023】
[14]C.Bregler,Video Based Animation Techniques for Human Motion,Proceedings of SIGGRAPH 00,in Course 39,”Image−based modeling and rendering”.
【0024】
[15]Paul F.Debevec,Camillo J.Taylor,Jitendra Malik,Modeling and Rendering Architecture from Photographs:A hybrid geometry−and image−based approach,Proceedings of SIGGRAPH 96.
【0025】
オブジェクトイメージに基づく方法に共通する問題点は、得られたイメージに隙間(孔)が生じるということである。
ポリゴンを用いる方法の場合、オブジェクトの表面が全てのポリゴン(一般的に三角ポリゴン)により線形的に補間されるので、オブジェクトの表面が「連続的」に表現されるが、オブジェクトイメージや点に基づく方法では、近似的に表現されるので、得られるオブジェクトが「不連続」となる。
【0026】
オブジェクトイメージに基づく方法の場合、オブジェクトの表面は、小さなカラー化された四角形、すなわち、参照イメージ上の画素に近似される。
【0027】
しかし、観察方向が、オブジェクトの参照イメージの各平面に対し垂直となる方向(各平面の法線の方向)から大きくずれる時には、四角形により近似して投影する方法では、オブジェクト表面を完全にカバーして投影できない。
言い換えると、観察方向が各参照イメージの平面の法線の方向と大きく異なる場合、前述の四角形に近似する方法では、オブジェクトの全ての平面を網羅して表すことできない。
このことに、起因して生じた隙間(孔)を「第1型孔」という。
【0028】
オブジェクトイメージに基づく方法で得られたイメージに隙間(孔)が生じるまた他の原因は、表面のある部分があらゆる参照イメージで見られないという点に起因するが、ある観測点については見られる(第2型孔という)。
すなわち、オブジェクト表面の一部分が、ある観測方向からの投影により得られた参照イメージでは見えないが、観測方向を変えて得られた別の参照イメージでは見ることができる場合がある。このようなことに起因する隙間(孔)を「第2型孔」という。これはオブジェクトイメージに基づいた表現方法に包含される情報欠如に起因する問題である。
【0029】
前記参考文献に挙げたRelief texture方法[1]では、線形補間法と類似した方法を使用して前述の第1型孔の発生を抑制する。この方法では、前記補間が3次元空間内ではなく、投影された2次元のオブジェクトで行われるために、得られるグラフィックに、歪曲や人工物が生じる可能性がある。この方法において、重要な点は、前記第2型孔が同様にして処理されるということである。
【0030】
階層化された深度イメージ(Layered Depth Image:LDI)[2]は、前記第2型孔に関する問題を解決するために考案されたデータ構造である。
LDIは、その画素が参照イメージ平面のある地点に投影されるあらゆる客体(オブジェクト)点を含むイメージである。[1]の高速プリワーピングアルゴリズムもここに適用される。
しかしながら、第1型孔の問題は未解決のままである。スプラット処理([10]で最初に紹介された)は、第1型孔の問題を解決するために使われる。スプラットとは、任意の色分布(たとえば、ガウシアン色分布)が与えられた小さな2次元の直線若しくは楕円形表面のパッチである
【0031】
LDI方法の場合、これは、グラフィック化(表現)が任意の固定された方向の投影に基づいて行われるので、非対称性が問題となる。これによって前記任意の固定された方向から大きく異なる観測方向から投影した場合に、孔を埋め込むことが非常に難しくなる。
【0032】
LDIツリー[3]は、オクツリー(octree)であるが、各オクツリーセル(ノード)にはLDIが添付される。階層的モデルが有する長所はオクツリー内のあらゆるLDIがレンダリングされる必要がないということである。
さらに離れているこのようなセルはより高い階層のLDIに貯蔵されるフィルタリングされた点を使用することによって比較的簡単にレンダリングされる。
この表現は多くの参照イメージを使用してLDIの非対称性を克服するために考案された。しかし、貯蔵空間が非常に大きくなる;512−by−512イメージ(36つの参照イメージから得られる)に対するLDIツリーは[3]で報告されたように30メガバイトを占める。
[3]で報告されたようにこの客体のレンダリング時間も長い;32250MHz MIPS R10000プロセッサーを有するSilicon Graphics Onyx2上でフレーム当り2〜3秒要する(並列処理を使用しない場合)。
【0033】
イメージに基づくデータをツリー構造で結合するまた他の方法が最近に考案されたSurfels方法[5]である。
この方法は一つのLDIツリーの代わりに、ノードが3つの直交平面に対応する3個のLDIを含む階層化された深度立方体(layered−depth cube;LDC)である特別なツリーを用いる。
[5]で報告された結果は81000個の三角形を含む元のモデルによって得られた。256−by−256出力バッファに対する秒当たり11フレーム(fps)のフレーム速度はペンティアム(R)III 700MHzプロセッサー上で得られた。Surfelsは対応する深度ベクトルによって転移される参照イメージ画素である。ツリー構造は可視要素を選択するための計算速度向上のために使われる。孔の埋め込みは最密近接となり、あるいはガウシアンフィルタリングによって得られる。スプラッティングはこの構造で実行される。得られるイメージの高品質は、データ量およびレンダリング速度を制限して得られる。
【0034】
最近に導入されたQsplat表現[4]はイメージ基盤ではなく点基盤方法である。
この方法は重複された球に基づいた階層的な点構造を使用する。適切な大きさの楕円スプラットがレンダリング段階で使われる。
しかし[4]では多少複雑で時間がかかる切削カリング(truncatedculling)が使われる。またデータ構造はより複雑で長時間の処理を必要とする。
【0035】
深度イメージの集合と同じ範囲データを有するオクツリー構造の3次元モデルを得るアイディアと実行方法が[11]ないし[12]で開発された。[13]はオクツリーを使用して元データからポリゴンモデルを構築することに関する。
【0036】
前述の参考文献は、静止状態にある3次元のイメージにもとづく表現に関するものである。動いている3次元のオブジェクトについては、現在までのところ、イメージに基づく表現方法は、ごく僅かしか提案されていない。
[14]でほとんど一定の3次元顔の幾何学的な外形のための顔イメージ修正に関するアイディアが提示されている。
これは限られた範囲内の動いている3次元のオブジェクトにのみ適用可能であり、実際の3次元の動いているオブジェクトの表現には適用できない。
[15]では、建築物の映像が、いくつかの写真に基づいて、多様な観測点からの建築物内を再構成するテクスチャーマッピングと一体となって表現される。
【0037】
これにより、容量が小さく、高品質の出力イメージが得られるレンダリング、そして動的表現が可能なイメージ基準表現が必要であるということが明らかになる。
【0038】
【発明が解決しようとする課題】
本発明の技術的課題は、高速かつ高品質のレンダリングが可能な深度イメージに基づいた3次元客体(オブジェクト)の表現を提供することにある。
さらに、既存のハードウェアに好適に使用可能な加速手段(アクセラレータ)の使用が可能であり、高速かつ高精度のレンダリングが可能となる深度イメージに基づいた3次元客体(オブジェクト)の表現方法を提供することである。
さらに、データ容量が小さくて正確なレンダリングが可能である。動的な、アニメートされた3次元客体(オブジェクト)の表現方法を提供することである。
【0039】
本発明の他の技術的課題は、高速かつ正確なレンダリングが可能であり、高速ワーピング、正確に計算された大きさのスプラットを利用した可視化、そして不要な計算を除去するカリング過程の利用を許容することによってレンダリング速度を向上させる動的3次元客体(オブジェクト)の簡潔な表現のための方法を提供することである。
【0040】
【課題を解決するための手段】
前記技術的課題を解決するために本発明にかかる3次元客体(オブジェクト)の表現(グラフィック化)とレンダリング方法は、3次元客体のオリジナルデータを点の集合体である表現中間体に変換し、得られた前記表現中間体を、階層化された深度イメージが各面に割り当てられている外接立方体の形態のレンダリング表現に変換する。そして、観測者の位置を考慮して前記外接立方体の可視面を決定し、前記可視面の各々についての前記階層化された深度イメージをテクスチャーに変換し、前記可視面をテクスチャーで可視化することで達成される。
【0041】
本発明に係るアニメートされた3次元客体の表現とレンダリング方法は、3次元客体のオリジナルデータを点の集合体である表現中間体に変換し、変換された表現中間体のフレームに対するデータを、階層化された深度イメージが各面に割り当てられた外接立方体の形態のレンダリング表現に変換する。そして、各フレームに対して観測者の位置を考慮して前記外接立方体の可視面を決定することによって前記得られた表現のシーケンスをレンダリングし、前記可視面に対して前記階層化された深度イメージをテクスチャーに変換し、前記可視面をテクスチャーに可視化することで達成される。
【0042】
【発明の実施の形態】
以下、添付した図面を参照して本発明の望ましい一実施例について詳細に説明する。
【0043】
図1は、3次元客体(オブジェクト)の表現およびレンダリングを説明する説明図である。
図2(a)は、客体(オブジェクト)のグレイスケールイメージ、図2(b)は、客体(オブジェクト)のカラーイメージである。
【0044】
図3(a)および図3(b)は、階層化された深度イメージの各画素の一例を示す図面であって、図3(a)はモデル投影原理を、そして図3(b)は前記投影結果のデータ構造を示す。
図4は、外接立方体の各面に対して階層化された深度イメージを形成する段階で、中間表現点を確認することを示す図面である。
【0045】
図5は、多層深度イメージの各可視面をテクスチャーに変換する段階で外接立方体の一面を四分面に分割する例を示す図面である。
【0046】
図6(a)と図6(b)は、階層化された深度イメージのあらゆる点が結果的なテクスチャーに含まれているか否かを確認する原理を示す図面であって、図6(a)は観測者の位置から点が見えるか否かを確認することを、図6(b)は点が得られるテクスチャーに含まれているか否かを確認することを示す。
【0047】
まず図面の主要部分を参照番号と共に説明すれば次の通りである。
図1は、3次元の客体(オブジェクト)を表現してレンダリングする1段階から4段階までを示した図であって、符号5は3次元の客体(オブジェクト)モデル、符号6、7は表現中間体、符号8はレンダリング表現、符号9はテクスチャー、符号10は、外接立方体のポリゴンモデル、符号11は、前記ポリゴンモデルの視覚化されたイメージを示す。
【0048】
図3(a)、図3(b)における符号14はモデル、符号15は基本平面15、符号16は、階層化された深度イメージの各画素に対するモデルの点を示す。
図4における符号17は外接立方体面、符号18はレンダリング表現の点、符号19は前記点18における法線19、符号20は可視円錐を示す。
【0049】
図5における符号21は、観測者の位置、符号22は、前記観測者の位置から面への垂直投影、符号23、24、25、26は、面17の四分面、符号27、28、29、30は、前記各四分面における走査方向を示す。
【0050】
図6(a)、図6(b)における符号31は、点18における法線19と点21方向との間の角度、符号32は、観測者が位置している点21を通過する平面の投影、そして符号17は観測者を基準として外接立方体面の最も近い面部を示す。
【0051】
以下、図1を参照しながら、3次元客体のモデリング方法およびレンダリング方法を詳細に説明する。
【0052】
[第1段階]
3次元オブジェクトであるモデル5を、表現中間体6(7)に変換する。
この表現中間体6(7)は、図2(a)のグレイスケールイメージ12および図2(b)のカラーイメージ13、若しくは、図3(a)、(b)の多層深度イメージ7から構成される6対のマップの集合である
前者の場合、すなわち、表現中間体6がグレイスケールイメージ12およびのカラーイメージ13から構成される場合、表現中間体6には、モデル5の表面部分のうち、外接立方体の面から見ることのできる部分の情報だけが含まれる。
【0053】
図2(a)のグレイスケールイメージ12の任意の一点における輝度は、外接立方体の面からモデル5の表面までの距離によって決定される。
【0054】
外接立方体の面に最も近い位置にあるモデル5の表面上の一点において、最大輝度となり、反対に、最も遠い位置にある一点において、最小輝度となる。なお、モデル5の表面上に存在しない点は、輝度値「0」として符号化される。
【0055】
一方、表現中間体7が多層深度イメージ7から構成される場合、表現中間体7には、モデル表面14の全ての情報が含まれる。
これは、図3(b)に示すように、階層化された深度イメージの各画素が、その画素に投影されるモデル表面14の点の集合16に対応するからである。
ここでモデル14の表面の点における色と深度、さらに、この点における前記モデル表面における法線もまた、集合16での各点に対応している。
【0056】
[第2段階]
レンダリングによる表現が、外接立方体の各面に対して、階層化された深度イメージとして形成される。
表現中間体6を利用する場合、外接立方体の各面から見ることのできるモデルの表面の点の座標は、対応する他の面の座標系に変換され、変換結果は、前記面に対応する深度イメージに付加される。
【0057】
表現中間体7を利用する場合、階層化された深度イメージは各面の座標系に変換される。
【0058】
表現中間体7を利用して各面ごとの階層化された深度イメージを構築する場合、新しく追加された各点がこの面から見えるか否かを確認する。
図4に示すように、点18における法線19と点17における法線との間の角度20が閾値以下である場合、その点は前記階層化された階層イメージに追加されない。
【0059】
[第3段階]
可視化に必要なテクスチャーが、一般的な方法(4段階)で構築される。
まず、外接立方体の可視面が観測者の現在位置を考慮して決定され、後に各面に対してテクスチャーとして賦課されるイメージが生成される。
テクスチャーの大きさは、前記面の法線と、観測者の位置点と面中心によって定義されるベクトルとの角度を使用して決定される。
もし、その角度が「0」に近ければ、テクスチャーの大きさは元のイメージの大きさと実質的に同一である。
その角度が大きくなるにしたがって、テクスチャーの大きさが減少する。テクスチャーの大きさは各座標u、v毎に別個に計算される。
【0060】
テクスチャー構築過程には、外接立方体の面に対応する多層深度イメージの点の走査が含まれる。図5に示すように、走査順序は次のように選択される。
観測者の位置点21の投影は、前記外接立方体の面平面上に現れる。この投影された点22は、前記面を4個の四分面23、24、25、26に分割する。各四分面における前記階層化された深度イメージの走査方向は、走査が矢印27、28、29、30の方向に直線的に行われるように選択される。
【0061】
そして各四分面内の点は選択された方向で走査され、前記面内の同じ座標を有する点は深度が減少する順に走査される。
各点について、2段階よりなるカリング過程を行う。第1段階は、法線ベクトルが階層化された深度イメージに存在する場合に行われ、図6(a)に示すように、前記点の接線の方向を確認し、観測ベクトルと点18の法線16との間の角度31が決定される。
【0062】
なお、角度31が90°を超える場合には、その点18は無視され、前記過程は二番目の(他の)点について行われる。
角度31が90°を超えない場合には、機能的変換後に前記テクスチャー内に含まれない点を除去する第二段階が行われる。
【0063】
外接立方体の各可視面に対して、2つの配列MuとMv(添字は面の対応する座標(u、v)を表す)が予備的に構成され、この配列は前記外接立方体内に含まれ、前記外接立方体の面17と観測者が位置した点21の最も近い2つの角部を通過する平面上に位置した点の深度で構成される。
【0064】
図6(b)は、座標Uに対応する平面のうちの一つの投影32を示す。配列データ要素は階層化された深度イメージの点に対する二番目のカリング基準で使われる。
点の深度がMu[u]あるいはMv[v]より大きい場合(ここでu、vは外接立方体面における点の座標である)、この点は生成されるテクスチャーにおいて見えないので、前記過程は、次の点において行われる。
続いて、1次元機能変換(ワーピング、[1]を参照)が、点座標(u、v)および深度dに基づいて、各選択された点に行われる。
【0065】
1次元機能変換を行うと、選択された観測者の位置21における座標系における座標(u’、v’)が求められる。
この1次元機能変換は、可視面上の全ての点について行われる。生成されたテクスチャー内に含まれる座標点においてスプラットが形成される。
スプラットの色は、元の座標(u、v、d)点が有する色に対応する。スプラットの形は、通常四角形あるいは円形であるが、テクスチャー内で賦課される速度を考慮して決定される。
スプラットの大きさは元のイメージの大きさ、得られたテクスチャーの大きさから決定され、階層化された深度イメージの点における法線を考慮して調節できる。
【0066】
スプラットセンターの座標はワーピングによって得られた座標(u’、v’)に対応せねばならない。結果的に各可視面に関するイメージが得られ、このイメージは、ポリゴンモデルの対応する面上に、4段階(図1)において賦課される。
何もない領域は、得られたテクスチャーの中では透明に表示されるが、外接立方体ポリゴンモデルでは背景を考慮しないので得られるイメージの正確性を保障する。
【0067】
オブジェクトのアニメーション表現の方法は、前述した方法と基本的に同一であるので、特徴的な点のみ以下に説明する。
外接立方体が、モデルのオリジナルのデータストリーム、すなわち、アニメーションフレーム群、について決定される。
ついで、6対のマップが各フレームに対して構築される。ここで、各マップ対は、前述のグレイスケールイメージとカラーイメージとより構成される(図2(a)、(b)参照)。
その結果、合計12のビデオストリーム、外接立方体の各面ごとに2つのビデオストリーム、が得られる。
カラーイメージに対応するストリームは損失を伴うビデオ圧縮アルゴリズム、例えば、MPEG2のようないかなるアルゴリズムでも圧縮されうる。
しかし、グレイスケールイメージ(深度マップ)に対応するストリームはMPEG4フォーマット内のαチャンネル圧縮のような品質の損傷がない圧縮アルゴリズムを利用して圧縮せねばならない。本発明による方法の望ましい実施例はMPEG4圧縮フォーマットを使用して6つのビデオストリームを圧縮することである。
【0068】
【発明の効果】
以上説明したように、本発明による3次元客体の表現とレンダリング方法は、少貯蔵量、高品質の出力イメージを有するレンダリングが可能であるためにアニメーション目的に適したイメージ基盤表現が可能である。
【図面の簡単な説明】
【図1】3次元客体を表現してレンダリングするための一連の段階を示す図面である。
【図2】(a)は客体のグレイスケールイメージ、(b)は客体のカラーイメージを示す図である。
【図3】図3(a)および図3(b)は、階層化された深度イメージの各画素の一例を示す図面であって、図3(a)はモデル投影原理を、そして図3(b)は前記投影結果のデータ構造を示す。
【図4】外接立方体の各面に対して階層化された深度イメージを形成する段階で、中間表現点を確認することを示す図面である。
【図5】多層深度イメージの各可視面をテクスチャーに変換する段階で外接立方体の一面を四分面に分割する例を示す図面である。
【図6】図6は、階層化された深度イメージのあらゆる点が結果的なテクスチャーに含まれているか否かを確認する原理を示す図面であって、図6(a)は観測者の位置から点が見えるか否かを確認することを、図6(b)は点が得られるテクスチャーに含まれているか否かを確認することを示す。
【符号の説明】
5・・・3次元客体モデル
6、7・中間表現
8・・・レンダリング表現
9・・・テクスチャー
10・・外接立方体のポリゴンモデル
11・・モデルの可視化されたイメージ

Claims (9)

  1. コンピュータを用いて、3次元客体の表現とレンダリングを行う方法であって、
    (a)前記コンピュータが備えるイメージ構築手段が、3次元客体のオリジナルデータを外接立方体の面に対して直交投影したモデルイメージデータから、それぞれの面に対応するカラーイメージ及びグレイスケールモデルを検出すると共に、ぞれぞれの面に対応する前記カラーイメージと前記グレイスケールイメージをマップ対にした点の集合体である表現中間体に変換し、前記表現中間体を、階層化された深度イメージが各面に割り当てられている外接立方体の形態のレンダリング表現に変換する段階と、
    (b)前記コンピュータが備える可視化手段が、観測者の位置を考慮して前記外接立方体の可視面を決定し、前記可視面の各々についての前記階層化された深度イメージをテクスチャーに変換し、前記可視面をテクスチャーで可視化する段階とを含む
    ことを特徴とする3次元客体の表現とレンダリング方法。
  2. 前記(a)段階は、
    (a1)前記3次元客体を前記外接立方体内に位置させる段階と、
    (a2)前記外接立方体の全ての面に、前記3次元客体を直交投影し、所定の画素解像度の客体イメージを各面ごとに求める段階と、
    (a3)得られた客体イメージの全ての画素に対して、前記3次元客体の表面から前記外接立方体の対応面までの距離である深度値を計算し、計算した深度値に応じた輝度で各画素が表示されてなるグレイスケールイメージを、前記外接立方体の面ごとに求める段階と、
    (a4)前記外接立方体の面ごとのカラーイメージと、前記外接立方体の面ごとに求めたグレイスケールイメージとを、前記外接立方体の面ごとに組み合わせて、6つのマップ対とし、これを貯蔵する段階と、
    (a5)前記6つのマップ対から、前記外接立方体の各面に対する階層化された深度イメージを構築する段階とを含む
    ことを特徴とする請求項1に記載の3次元客体の表現とレンダリング方法。
  3. 前記(a)段階は、
    (a6)階層化された深度イメージを構築し、前記階層化された深度イメージから前記外接立方体の各面について多層深度イメージを形成する段階を含むこと
    を特徴とする請求項1に記載の3次元客体の表現とレンダリング方法。
  4. 前記(a6)段階は、
    前記階層化された深度イメージを前記外接立方体の各面の座標系に変換したのちに、前記各面に対応する深度イメージに付加して表現中間体を形成し、
    前記表現中間体の任意の点における法線と前記外接立方体面の法線との角度が所定の値より小さい場合、当該点を除外する段階を含むこと
    を特徴とする請求項3に記載の3次元客体の表現とレンダリング方法。
  5. 前記各可視面についての前記階層化された深度イメージをテクスチャーに変換する段階は、
    前記可視面に対する観測者の位置によってテクスチャーの大きさを決定する段階と、
    前記観測点の前記面への直交投影点と一致する点を原点とする座標系軸で前記面を四分面に分割する段階と、
    前記各四分面に対して、前記座標系の原点方向への線と、前記面平面からの最も遠い点からより近い点までの深度で、前記階層化された深度イメージの走査方向を決定し、前記イメージの各点に対しての走査中に、前記点が生成されるテクスチャー内に属しているかどうかを確認して、属していないと判断された場合には、前記対応する点を除外して次のイメージ点に移動し、属していれば前記イメージ点の座標および深度を生成されるテクスチャーの点の座標に変換し、前記得られた座標で前記テクスチャー点でスプラットを形成する段階と
    を含むことを特徴とする請求項1乃至請求項4のいずれか一項に記載の3次元客体の表現とレンダリング方法。
  6. 前記表現中間体は、3次元客体の情報を貯蔵するために利用される
    ことを特徴とする請求項1乃至請求項5のいずれか一項に記載の3次元客体の表現とレンダリング方法。
  7. コンピュータを用いて、アニメートされた3次元客体の表現とレンダリングを行う方法であって、
    (a)前記コンピュータが備えるイメージ構築手段が、3次元客体のオリジナルデータを外接立方体の面に対して直交投影したモデルイメージデータから、それぞれの面に対応するカラーイメージ及びグレイスケールモデルを検出すると共に、ぞれぞれの面に対応する前記カラーイメージと前記グレイスケールイメージをマップ対にした点の集合体である表現中間体に変換し、前記表現中間体のフレームに対するデータを、階層化された深度イメージが各面に割り当てられた外接立方体の形態のレンダリング表現に変換する段階と、
    (b)前記コンピュータが備える可視化手段が、各フレームに対して観測者の位置を考慮して前記外接立方体の可視面を決定することによって前記得られた表現のシーケンスをレンダリングし、前記可視面に対して前記階層化された深度イメージをテクスチャーに変換し、前記可視面をテクスチャーに可視化する段階と
    を含むことを特徴とするアニメートされた3次元客体の表現とレンダリング方法。
  8. 前記(a)段階は、
    (a1)前記3次元客体を、前記外接立方体内に位置させる段階と、
    (a2)各アニメーションフレームに対して、前記外接立方体の全ての面に、前記3次元客体を直交投影し、所定の画素解像度の客体イメージを各面ごとに求める段階と、
    (a3)得られた客体イメージの全ての画素に対して、前記3次元客体の表面から前記外接立方体の対応面までの距離である深度値を計算し、計算した深度値に応じた輝度で各画素が表示されてなるグレイスケールイメージを、前記外接立方体の面ごとに求める段階と、
    (a4)前記外接立方体の面ごとのカラーイメージと、前記外接立方体の面ごとに求めたグレイスケールイメージとを、前記外接立方体の面ごとに組み合わせて、6つのマップ対とし、これを貯蔵する段階と、
    (a5)前記6つのマップ対から、前記外接立方体の各面に対する階層化された深度イメージを構築する段階と
    を含むことを特徴とする請求項7に記載のアニメートされた3次元客体の表現とレンダリング方法。
  9. 6つのビデオストリーム形態でえられた前記表現中間体をMPEG4圧縮フォーマットで圧縮して、カラー情報はカラーチャンネルに、そして深度マップはαチャンネルに貯蔵することを特徴とする請求項8に記載のアニメートされた3次元客体の表現とレンダリング方法。
JP2002192577A 2001-06-29 2002-07-01 3次元客体およびアニメートされた3次元客体のイメージベースの表現とレンダリング方法 Expired - Fee Related JP3840150B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2001118221 2001-06-29
RU2001118221/09A RU2216781C2 (ru) 2001-06-29 2001-06-29 Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта

Publications (2)

Publication Number Publication Date
JP2003051026A JP2003051026A (ja) 2003-02-21
JP3840150B2 true JP3840150B2 (ja) 2006-11-01

Family

ID=20251332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002192577A Expired - Fee Related JP3840150B2 (ja) 2001-06-29 2002-07-01 3次元客体およびアニメートされた3次元客体のイメージベースの表現とレンダリング方法

Country Status (9)

Country Link
US (1) US6954202B2 (ja)
EP (1) EP1271410B1 (ja)
JP (1) JP3840150B2 (ja)
KR (1) KR100468851B1 (ja)
CN (1) CN1215444C (ja)
CA (1) CA2391673C (ja)
DE (1) DE60238017D1 (ja)
ES (1) ES2351961T3 (ja)
RU (1) RU2216781C2 (ja)

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10206397B4 (de) * 2002-02-15 2005-10-06 Siemens Ag Verfahren zur Darstellung von Projektions- oder Schnittbildern aus 3D-Volumendaten eines Untersuchungsvolumens
US7362335B2 (en) * 2002-07-19 2008-04-22 Silicon Graphics, Inc. System and method for image-based rendering with object proxies
US8387099B2 (en) * 2002-12-10 2013-02-26 Ol2, Inc. System for acceleration of web page delivery
JP3855053B2 (ja) * 2003-01-30 2006-12-06 国立大学法人 東京大学 画像処理装置、画像処理方法、及び画像処理プログラム
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
KR100519779B1 (ko) * 2004-02-10 2005-10-07 삼성전자주식회사 깊이영상기반 3차원 그래픽 데이터의 고속 시각화 방법 및장치
US8081182B2 (en) 2004-03-03 2011-12-20 Qualcomm Incorporated Depth buffer for rasterization pipeline
CN1930587B (zh) * 2004-03-15 2011-05-25 皇家飞利浦电子股份有限公司 图像可视化
CN1302440C (zh) * 2004-04-13 2007-02-28 复旦大学 基于样图覆盖、分割的三维纹理贴图方法
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
KR100571846B1 (ko) * 2004-12-16 2006-04-17 삼성전자주식회사 3차원 영상의 계층적 구조에 기반한 적응적 랜더링 장치및 방법과 그 방법을 수행하기 위한 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록매체
US7848556B2 (en) * 2005-10-07 2010-12-07 Siemens Medical Solutions Usa, Inc. Method and apparatus for calculating a virtual image plane for magnetic resonance imaging
US7903851B2 (en) * 2005-10-17 2011-03-08 Siemens Medical Solutions Usa, Inc. Method and system for vertebrae and intervertebral disc localization in magnetic resonance images
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
KR100723422B1 (ko) * 2006-03-16 2007-05-30 삼성전자주식회사 포인트 기반 렌더링 장치와 방법 및 컴퓨터 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록매체
US8237708B2 (en) * 2006-08-18 2012-08-07 William Edward Mantzel Data structure representing a plenoptic function via compressible layered orthographic projections from multiple orientations
EP1890262A1 (en) * 2006-08-18 2008-02-20 Valtion Teknillinen Tutkimuskeskus Virtual 3D models for display
JP4945642B2 (ja) * 2006-11-21 2012-06-06 トムソン ライセンシング 3d画像の色補正の方法及びそのシステム
KR100858086B1 (ko) * 2007-01-30 2008-09-10 삼성전자주식회사 렌더링 장치 및 방법
US7948500B2 (en) * 2007-06-07 2011-05-24 Nvidia Corporation Extrapolation of nonresident mipmap data using resident mipmap data
US20100173719A1 (en) * 2007-06-28 2010-07-08 Steltronic S.P.A. System and Method of Graphical Representation of the Bowling Game Score
WO2010025458A1 (en) * 2008-08-31 2010-03-04 Mitsubishi Digital Electronics America, Inc. Transforming 3d video content to match viewer position
CN101763206B (zh) * 2008-10-10 2013-01-30 新奥特(北京)视频技术有限公司 一种三维空间中文件滚屏的实现方法
KR101536926B1 (ko) * 2008-11-27 2015-07-15 삼성전자주식회사 전자기기에서 3차원 모델 생성 및 렌더링 방법 및 장치
CN101751687B (zh) * 2008-12-18 2014-03-05 超威半导体(上海)有限公司 确定纹理映射参数以定义代表像素投影足迹的方法和装置
CN101533529B (zh) * 2009-01-23 2011-11-30 北京建筑工程学院 基于深度图像的三维空间数据处理方法与装置
CN101540062B (zh) * 2009-02-10 2011-08-17 朱一宁 使用可视化几何柱体对计算机三维体数据进行交互实时浏览处理方法
CN101799930B (zh) * 2009-02-11 2012-06-13 富士通株式会社 指定颜色层提取设备和方法
CN101847269B (zh) * 2009-03-27 2011-11-09 上海科泰世纪科技有限公司 多图层动画渲染系统及方法
JP5573316B2 (ja) * 2009-05-13 2014-08-20 セイコーエプソン株式会社 画像処理方法および画像処理装置
JP4609805B2 (ja) * 2009-05-28 2011-01-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
JP5468824B2 (ja) * 2009-06-22 2014-04-09 株式会社豊田自動織機 3次元における形状の一致を判定する方法および装置
US8803950B2 (en) * 2009-08-24 2014-08-12 Samsung Electronics Co., Ltd. Three-dimensional face capturing apparatus and method and computer-readable medium thereof
RU2453922C2 (ru) * 2010-02-12 2012-06-20 Георгий Русланович Вяхирев Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
EP2368720B1 (en) 2010-03-26 2018-10-24 Provenance Asset Group LLC Method to transform a virtual object into a real physical object
US8890941B2 (en) 2010-04-29 2014-11-18 Virginia Venture Industries, Llc Methods and apparatuses for viewing three dimensional images
US8682041B2 (en) * 2011-01-28 2014-03-25 Honeywell International Inc. Rendering-based landmark localization from 3D range images
JP5743142B2 (ja) 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
US9196086B2 (en) 2011-04-26 2015-11-24 Here Global B.V. Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display
US20120280991A1 (en) * 2011-05-03 2012-11-08 Microsoft Corporation Employing mesh files to animate transitions in client applications
KR102001191B1 (ko) * 2011-06-30 2019-10-01 구글 엘엘씨 라인을 따른 텍스트 이미지 렌더링
KR101138969B1 (ko) * 2011-09-05 2012-04-25 주식회사 쓰리디산업영상 고속 구동을 위한 3차원 투과 영상데이터의 액세스 방법 및 이를 위한 사용자 인터페이스 장치
US9100642B2 (en) * 2011-09-15 2015-08-04 Broadcom Corporation Adjustable depth layers for three-dimensional images
KR101470357B1 (ko) * 2013-04-22 2014-12-09 중앙대학교 산학협력단 3차원 대상 객체의 헤드컷 렌더링 장치 및 방법
CN104299253B (zh) * 2013-07-19 2017-05-31 广州欧划动画技术有限公司 一种面向全高清数字电影动画的智能渲染方法和装置
US9460515B2 (en) * 2013-10-25 2016-10-04 Ricoh Co., Ltd. Processing of light fields by transforming to scale and depth space
CN103577576B (zh) * 2013-11-07 2016-08-31 江南大学 一种感知数据的三维可视化析取系统
US10198856B2 (en) * 2013-11-11 2019-02-05 Oxide Interactive, LLC Method and system of anti-aliasing shading decoupled from rasterization
CN105096364B (zh) * 2014-05-07 2021-06-11 腾讯科技(深圳)有限公司 一种动画数据生成方法、装置及电子设备
CN104408196A (zh) * 2014-12-15 2015-03-11 北京国双科技有限公司 基于数据立方体的可视化数据的二维显示方法和装置
RU2586566C1 (ru) * 2015-03-25 2016-06-10 Общество с ограниченной ответственностью "Лаборатория 24" Способ отображения объекта
DE102015004208B4 (de) * 2015-03-31 2016-12-22 Physik Instrumente (Pi) Gmbh & Co. Kg Verfahren zur Steuerung eines Ultraschallmotors und entsprechende Steueranordnung
US11432046B1 (en) 2015-06-12 2022-08-30 Veepio Holdings, Llc Interactive, personalized objects in content creator's media with e-commerce link associated therewith
EP3332218B1 (en) * 2015-08-03 2021-11-03 TomTom Global Content B.V. Methods and systems for generating and using localisation reference data
US9955861B2 (en) 2015-10-16 2018-05-01 Ricoh Company, Ltd. Construction of an individual eye model using a plenoptic camera
CN105787994A (zh) * 2016-01-26 2016-07-20 王创 一种利用3d技术模拟街景娱乐的方法
US10136116B2 (en) 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data
RU2636676C2 (ru) * 2016-05-12 2017-11-27 Общество с ограниченной ответственностью "Торговый дом "Технолайн" ООО "Торговый дом "Технолайн" Способ формирования элементов дополненной реальности и графический носитель для его реализации
US10129523B2 (en) 2016-06-22 2018-11-13 Microsoft Technology Licensing, Llc Depth-aware reprojection
US10237531B2 (en) * 2016-06-22 2019-03-19 Microsoft Technology Licensing, Llc Discontinuity-aware reprojection
EP3493540A4 (en) * 2016-07-29 2020-01-15 Sony Corporation IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
US10325403B2 (en) 2016-08-24 2019-06-18 Google Llc Image based rendering techniques for virtual reality
KR102608466B1 (ko) 2016-11-22 2023-12-01 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
CN107358645B (zh) * 2017-06-08 2020-08-11 上海交通大学 产品三维模型重建方法及其系统
CN107369200B (zh) * 2017-07-04 2021-07-16 福建星网视易信息系统有限公司 一种3d场景特效处理方法及存储设备
EP3429209A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a point cloud representing a 3d object
EP3429208A1 (en) * 2017-07-13 2019-01-16 Thomson Licensing A method and apparatus for encoding/decoding a colored point cloud representing the geometry and colors of a 3d object
KR102039308B1 (ko) 2017-07-14 2019-11-26 블루테크코리아 주식회사 웨이퍼 감지 장치, 이를 포함하는 웨이퍼 캐리어 로드 포트 및 이를 포함하는 반도체 공정 장치
US20190026588A1 (en) * 2017-07-19 2019-01-24 GM Global Technology Operations LLC Classification methods and systems
US10089796B1 (en) * 2017-11-01 2018-10-02 Google Llc High quality layered depth image texture rasterization
CN107958484B (zh) * 2017-12-06 2021-03-30 北京像素软件科技股份有限公司 纹理坐标计算方法及装置
WO2019193699A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
WO2019193698A1 (ja) * 2018-04-04 2019-10-10 株式会社ソニー・インタラクティブエンタテインメント 基準画像生成装置、表示画像生成装置、基準画像生成方法、および表示画像生成方法
CN109615683A (zh) * 2018-08-30 2019-04-12 广州多维魔镜高新科技有限公司 一种基于3d服装模型的3d游戏动画模型制作方法
CN109165364B (zh) * 2018-09-12 2021-01-19 广州视源电子科技股份有限公司 一种页面渲染方法、装置、设备和存储介质
CN109461210B (zh) * 2018-10-15 2023-03-21 杭州群核信息技术有限公司 一种在线家装的全景漫游方法
CN109712221B (zh) * 2018-12-21 2022-08-16 成都四方伟业软件股份有限公司 三维可视化渲染方法及装置
JP6827134B2 (ja) * 2019-03-18 2021-02-10 Scsk株式会社 生成システム、及び生成プログラム
CN110648384B (zh) * 2019-06-19 2023-01-03 北京巴别时代科技股份有限公司 卡通风格化渲染方法
KR102134033B1 (ko) 2019-09-17 2020-07-14 블루테크코리아 주식회사 웨이퍼 감지 장치, 이를 포함하는 웨이퍼 캐리어 로드 포트 및 이를 포함하는 반도체 공정 장치
US11436783B2 (en) 2019-10-16 2022-09-06 Oxide Interactive, Inc. Method and system of decoupled object space shading
CN111182367A (zh) * 2019-12-30 2020-05-19 苏宁云计算有限公司 一种视频的生成方法、装置及计算机系统
CN111292398A (zh) * 2020-01-22 2020-06-16 北京明略软件系统有限公司 三维实体的显示方法、装置及计算机可读存储介质
CN112435322A (zh) * 2020-12-10 2021-03-02 深圳市大富网络技术有限公司 一种3d模型的渲染方法、装置、设备及存储介质
CN115129191B (zh) * 2021-03-26 2023-08-15 北京新氧科技有限公司 三维对象拾取方法、装置、设备及存储介质
CN114297176A (zh) * 2021-12-15 2022-04-08 东南大学 基于人工智能的中国古典园林假山自动生成方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774572A (en) * 1984-12-20 1998-06-30 Orbotech Ltd. Automatic visual inspection system
JP3358169B2 (ja) * 1996-08-30 2002-12-16 インターナショナル・ビジネス・マシーンズ・コーポレーション 鏡面レンダリング方法及び装置
JP2000030080A (ja) * 1998-07-14 2000-01-28 Basu Plus One:Kk Vrシステム
US6222551B1 (en) * 1999-01-13 2001-04-24 International Business Machines Corporation Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement
US6424351B1 (en) * 1999-04-21 2002-07-23 The University Of North Carolina At Chapel Hill Methods and systems for producing three-dimensional images using relief textures
JP4592917B2 (ja) * 2000-10-24 2010-12-08 株式会社バンダイナムコゲームス 画像生成装置及びゲーム装置

Also Published As

Publication number Publication date
ES2351961T3 (es) 2011-02-14
CA2391673C (en) 2006-06-06
CN1215444C (zh) 2005-08-17
US20030001838A1 (en) 2003-01-02
EP1271410A3 (en) 2004-09-01
EP1271410A2 (en) 2003-01-02
CA2391673A1 (en) 2002-12-29
KR20030002995A (ko) 2003-01-09
JP2003051026A (ja) 2003-02-21
EP1271410B1 (en) 2010-10-20
CN1395222A (zh) 2003-02-05
DE60238017D1 (de) 2010-12-02
KR100468851B1 (ko) 2005-01-29
RU2216781C2 (ru) 2003-11-20
US6954202B2 (en) 2005-10-11

Similar Documents

Publication Publication Date Title
JP3840150B2 (ja) 3次元客体およびアニメートされた3次元客体のイメージベースの表現とレンダリング方法
JP3981302B2 (ja) 3次元の静止した又は動くオブジェクトの階層イメージベース表現並びに該表現をオブジェクトのレンダリングに使用する方法及び装置
US20080238919A1 (en) System and method for rendering of texel imagery
US20050140670A1 (en) Photogrammetric reconstruction of free-form objects with curvilinear structures
US20100156901A1 (en) Method and apparatus for reconstructing 3d model
US7194125B2 (en) System and method for interactively rendering objects with surface light fields and view-dependent opacity
EP3379495B1 (en) Seamless fracture in an animation production pipeline
CN105678683A (zh) 一种三维模型的二维存储方法
US7358969B2 (en) Method and system for partitioning the surface of a three dimentional digital object model in order to map a texture
JP3971714B2 (ja) 仮想視点画像生成方法及び仮想視点画像生成装置、ならびに仮想視点画像生成プログラム及び記録媒体
Li et al. A hybrid hardware-accelerated algorithm for high quality rendering of visual hulls
Ignatenko et al. A framework for depth image-based modeling and rendering
Zwicker et al. A survey and classification of real time rendering methods
Parilov et al. Layered relief textures
Ivanov et al. Spatial Patches‐A Primitive for 3D Model Representation
Yaguchi et al. Arbitrary-view image generation from multiple silhouette images in projective grid space
Peng et al. A new approach of point-based rendering
Verma et al. 3D Rendering-Techniques and challenges
JP2004227095A (ja) テクスチャマップ作成方法、テクスチャマップ作成用プログラムおよびテクスチャマップ作成装置
WO2023105114A1 (en) Image-based environment reconstruction
Wu et al. Construction of complex environments from a set of depth images
Wu et al. Point representation augmented to surface reconstruction in image-based VR
Fahn et al. The View-Dependent Real-Time Rendering of Large-Scale Terrain in Continuous Levels of Detail
Besora Vilardaga Real time city visualization
Waschbüsch et al. Visual recording and replay of rigid objects

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051007

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060601

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060804

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090811

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100811

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110811

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110811

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120811

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130811

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees