JP2003108985A - 3次元オブジェクトを3次元モデルとしてデジタル化するシステムおよび方法 - Google Patents

3次元オブジェクトを3次元モデルとしてデジタル化するシステムおよび方法

Info

Publication number
JP2003108985A
JP2003108985A JP2002123085A JP2002123085A JP2003108985A JP 2003108985 A JP2003108985 A JP 2003108985A JP 2002123085 A JP2002123085 A JP 2002123085A JP 2002123085 A JP2002123085 A JP 2002123085A JP 2003108985 A JP2003108985 A JP 2003108985A
Authority
JP
Japan
Prior art keywords
images
light
texture
dimensional
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002123085A
Other languages
English (en)
Inventor
Wojciech Matusik
ウォーチエック・マトゥシック
Hanspeter Pfister
ハンスピーター・フィスター
Paul A Beardsley
ポール・エイ・ベアズリィー
Leonard Mcmillan Jr
レナード・マクミラン・ジュニア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2003108985A publication Critical patent/JP2003108985A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【課題】 多数の2次元画像から3次元オブジェクトを
デジタル化してコンピュータ・グラフィックス・モデル
を生成すること。 【解決手段】 システムは、3次元オブジェクトをター
ンテーブル上に載置して2組の対応する画像を撮ること
で、この3次元オブジェクトを3次元モデルとしてデジ
タル化する。第1の組の画像および第2の組の画像は、
ターンテーブルを様々な位置へと回転させながら、かつ
オブジェクトをオーバーヘッド・ライトおよびバック・
ライトで照明しながら、取得される。ターンテーブルの
各位置について、各組の画像同士が1対1で対応してい
る。オブジェクトの形状データおよびテクスチャ・デー
タは、第1の組の画像および第2の組の画像からそれぞ
れ抽出される。オブジェクトの形状データをオブジェク
トのテクスチャ・データと相関させて、コンピュータ・
システムのメモリに記憶される3次元デジタル・モデル
を構築する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は一般に、デジタル写
真撮影法などの、画像ベースの3Dデジタイザに関し、
より詳細には、多数の2次元画像から3次元オブジェク
トをデジタル化してコンピュータ・グラフィックス・モ
デルを生成することに関する。
【0002】
【従来の技術】コンピュータ・グラフィックス・モデル
の生成に3次元(3D)デジタイザが頻繁に用いられ
る。解像度、再現性、精度、信頼性、速度、使い易さ、
ならびにシステム全体のコストの考慮が、あらゆるデジ
タル化システムの構築にとって主要なものである。デジ
タル化システムの設計にはしばしば、品質と性能の間に
おける一連のトレードオフが伴う。
【0003】従来の3Dデジタイザは、システム性能の
評価に際し、幾何学的品質の測定値に焦点を当ててき
た。このような測定値は客観的ではあるが、高品質のレ
ンダリング(rendition)という全体的な目標に間接的
に関係するにすぎない。ほとんどの3Dデジタイザ・シ
ステムにおいて、レンダリング品質はおおむね、テクス
チャに用いられる少数の写真と組み合わせた距離精度の
間接的な結果である。
【0004】従来技術のデジタイザには、接触式デジタ
イザ、アクティブな構造ライト距離画像化システム(ac
tive structured-light range-imaging systems)およ
びパッシブなステレオ奥行き抽出(passive stereo dep
th-extraction)が挙げられる。概説については、P. J.
Beslの著「アクティブな光学的距離画像化センサ(Act
ive Optical Range Imaging Sensors)」(Advances in
Machine Vision、Springer-Verlag, pp. 1-63, 1989)
を参照。
【0005】レーザ三角測量および飛行時間ポイント・
デジタイザ(time-of-flight pointdigitizer)もま
た、他の一般的なアクティブなデジタル化方法である。
レーザ距離計測システム(laser ranging systems)
は、別々に取得した走査距離画像を整列させるために別
個の位置合わせステップを必要とすることが多い。アク
ティブ・デジタイザは、デジタル化するオブジェクトに
光を照射するため、テクスチャ情報と形状情報とを同時
に取り込むことは難しい。これにより距離画像をテクス
チャとともに位置合わせすることの問題が生じる。
【0006】他のシステムでは、多数の狭帯域照明(た
とえば赤色レーザ、緑色レーザおよび青色レーザ)を用
いて視線に沿った表面色推定値を取得する。しかしなが
ら、これは実際の照明環境におけるオブジェクトの撮像
には有用ではない。ステレオ・ビジョンに基づくパッシ
ブ・デジタイザは、オブジェクトのテクスチャが不十分
でない限り、同一ソース画像を用いて構造およびテクス
チャ両方を取り込むことができるという利点を有する。
【0007】ビュー・ベースのレンダリング・システム
を用いることもできる(K. Nishino、Y. Sato、および
K. Ikeuchiの著「Eigen―Texture法:複合
現実感のための3次元モデルに基づく見えの圧縮と合成
(Eigen-Texture Method: Appearance Compression bas
ed on 3D Model)」(Proc. of Computer Vision andPa
ttern Recognition, 1, pp. 618-624, 1999)ならびに
K. Pulli、M. Cohen、T. Duchamp、H. Hoppe、L. Shapi
ro、およびW. Stuetzleの著「ビュー・ベースのレンダ
リング:走査距離および色データからの実オブジェクト
の可視化(View-based Rendering: Visualizing Real O
bjects from Scanned Range and ColorData)」(Proce
edings of the 8th Eurographics Workshop on Renderi
ng, pp.23-34, 1997)を参照)。これらのシステムで
は、画像および形状が、明確な一致の保証なしに別々に
取得される。
【0008】Laurentiniは「シルエット・ベース画像の
理解のための視覚包概念(The visual hull concept fo
r silhouette-based image understanding)」(IEEE T
ransactions on Pattern Analysis and Machine Intell
igence, 16(2), pp. 150-162, 1994)において、視覚包
(visual hull)を、所与のシルエットの組と一致する
最大ボリュームとして記載している。とはいえ視覚包
は、表面の凹みを表現することはできず、オブジェクト
の構造の無難な(conservative)推定値を提供するもの
である。これで視覚包プロセスは、特定の視点からの実
際の視覚包オブジェクトのサンプル近似をインタラクテ
ィブに生成およびシェードすることができる(W. Matus
ik、C. Buehler、R. Raskar、S. Gortler、およびL. Mc
Millanの著「画像ベースの視覚包(Image-Based Visual
Hulls)」(Computer Graphics、SIGGRAPH 2000 Proce
edings, pp. 369-374, July 2000)を参照)。このIB
VHプロセスは、周囲の照明条件の変化に敏感であり、
かつ背景の統計的モデリングを必要とする。
【0009】
【発明が解決しようとする課題】したがって、従来技術
のデジタイザに付随する問題を克服する画像ベースのデ
ジタル化システムが必要とされている。
【0010】
【課題を解決するための手段】本発明は、一連の撮像画
像から得た高品質のグラフィカル・モデルを取得および
表示するデジタル化システムを提供する。本発明による
システムは、主として距離画像化システムではなく、む
しろテクスチャ・ベースのモデリング・システムである
という点で、大部分の3次元デジタイザとは異なる。
【0011】本システムは本質的に、ビュー依存性輝度
関数をマップする画像ベースの視覚包を基に近似3次元
モデルを取得する。画像ベースの視覚包サンプルおよび
輝度サンプルは共通の画像組から得る。モデルは、可視
化のためにポイント・サンプル表現に基づきリアルタイ
ム・ポイント・サンプル・レンダリング・エンジン(re
al-time point sample rendering engine)でレンダリ
ングすることができる。
【0012】より詳細には、システムは、3次元オブジ
ェクトをターンテーブル上に載置して2組の対応する画
像を撮ることで、この3次元オブジェクトを3次元モデ
ルとしてデジタル化する。第1の組の画像および第2の
組の画像は、ターンテーブルを様々な位置へと回転させ
ながら、かつオブジェクトをオーバーヘッド・ライトお
よびバックライトで照明しながら取得される。
【0013】ターンテーブルの各位置について、各組の
画像同士が1対1で対応している。オブジェクトの形状
データおよびテクスチャ・データは、第1の組の画像お
よび第2の組の画像からそれぞれ抽出される。オブジェ
クトの形状データをオブジェクトのテクスチャ・データ
と相関させて、コンピュータ・システムのメモリに記憶
される3次元デジタル・モデルを構築する。
【0014】
【発明の実施の形態】(システムの構造)図1は、本発
明による3Dデジタル化システム100の概観である。
システム100は、パッシブな撮像方法とアクティブな
撮像方法とを組み合わせる。システム100は、テクス
チャ・ライト(オーバーヘッド・ライト)110と、形
状ライト(バック・ライト)120〜121と、いくつ
かのカメラ130(たとえば3台以上)と、透明または
半透明のターンテーブル140とを含む。形状ライト1
20〜121はほぼカメラ130の視野内にあり、テク
スチャ・ライト110は視野外にある。
【0015】デジタル化するオブジェクト150をター
ンテーブル140上に載置する。カメラ130は、様々
な角度からオブジェクトに向けられている。一定のバッ
ク・ライティングを促進するため、カメラ130は形状
ライト120〜121とほぼ同一垂直面に備え付ける。
バック・ライト120はカメラ130に対向して配置さ
れ、カメラ130から見てほぼ裏側からオブジェクトを
照明する。ターンテーブル140が半透明であるため、
オブジェクトを、バック・ライト121によって下から
も照明することができる。
【0016】(システムの動作)システム100の動作
中、ターンテーブル140を回転させながら、カメラ1
30は2組の画像161〜162を取得する。第1の組
161は、オブジェクトがバック・ライト120〜12
1によって照明されている間に取得され、第2の組16
2は、オーバーヘッド・ライト110を用いる。一般
に、36箇所の異なる視点からの(すなわちターンテー
ブル140が5度回転する毎の)3個の画像を使用して
(giving use)ターンテーブル140の1回転につき1
08個の画像を取得する。2組の画像同士は、位置に関
して正確に1対1で対応している。
【0017】下記の方法は一般に、約20個の画像の処
理後ではその最終的な表示の95%以内に収束し、30
個の画像の処理後にモデル上での収束に達しないことは
ほとんどない。この収束は、本発明の画像の組が球状に
分配されているということによって促進される。テクス
チャ・ライト110は静止したままとすることも、回転
させることもできる。連動して回転させると画像は異な
る照明を受けるが、固定したオーバーヘッド・ライト1
10は画像に一定の照明を与える。
【0018】図2に示すように、デジタル化は、オブジ
ェクト150をターンテーブル140上に載置すること
により、そして必要であればカメラ130の位置および
絞りを調節することにより開始する。カメラの調節が必
要である場合、まず下記の通りキャリブレーション・オ
ブジェクトの画像を取得する。
【0019】次にオブジェクト150をターンテーブル
140上で回転させ、ターンテーブル140の様々な位
置について第1の組の画像161を取得する。この第1
の回転中は、オブジェクトを形状ライト120〜121
で照明する。結果として得られる画像は、下記のアクテ
ィブなライト分割手段(active light segmentationmea
ns)により使用される。分割手段201は、オブジェク
ト150の基本的形状データ203を抽出する。
【0020】第2の回転中に、オブジェクトをテクスチ
ャ・ライト110で照明しながら第2の組の画像162
を取得する。これらの画像を使用して、オブジェクトの
表面テクスチャ・データ204を抽出する(202)。
ターンテーブル140の位置の再現性により、形状デー
タ203およびテクスチャ・データ204を互いに対し
て確実に位置合わせすることができる。画像は、ターン
テーブル140の各位置について2個の画像という具合
に交互に取得することもできる。
【0021】次に2組の取得画像から抽出した形状デー
タ203およびテクスチャ・データ204を相関(21
0)させて、複数の表面ポイント・サンプルとしてのグ
ラッフィクス・モデル220にする。下記に詳述するイ
ンタラクティブなレンダリング手段230は、ビュー依
存性シェーディングおよび輝度を付加して、いずれの所
望の視点(すなわちカメラ位置とは異なるビュー)から
見たオブジェクトの画像240をも生成することができ
る。
【0022】(カメラのキャリブレーション)特定のカ
メラ構成に関して高精度のキャリブレーションを達成す
るために、既知のキャリブレーション・オブジェクトを
使用する。キャリブレーション・オブジェクトの36個
の画像からなるシーケンスを各カメラ130により取得
する。各画像i中の各可視キャリブレーション平面(vi
sible calibration plane)pについて平面ホモグラフ
ィ(planar homography)Ti,pを決定する。ここで
i,pは、標準2Dキャリブレーション・パターンと
パターンの投影図との間のマッピングを示す。
【0023】キャリブレーションの第1の段階では、ピ
ンホール・カメラ近似を用いて各カメラの固有パラメー
タを計算する。まず消失点/線情報を平面ホモグラフィ
,pから得る。キャリブレーションのための消失点
/線の使用は周知である。主点の計算は少数の画像しか
用いない場合には不十分な状態となることがわかってい
るが、本発明のシステムのように多数の画像が与えられ
る場合には、主点の概算の信頼性は高いものとなる。
【0024】キャリブレーションの第2の段階では、固
定軸を中心とした等回転に必要とされる動きに伴う各カ
メラに対する制約を課しながら、外因性パラメータを計
算する。外因性パラメータは、第1のカメラ・シーケン
スに関して3つの自由度(DOF)を有し、第2のシー
ケンスそれぞれに関して6つのDOFを有する。計算
を、扱いやすくするために2組の3DOF系に分解す
る。各系は、線形概算値(linear estimate)を決定
し、これを粗から密の全数探索によって精度を上げ、全
てのカメラ間のエピポーラ幾何に基づく残差を最小限と
することにより解くことができる。
【0025】その結果の定量的評価は、キャリブレーシ
ョン・オブジェクト上の各ポイントpの3D位置p
を、そのポイントの画像ビューすべてから概算するこ
とにより得られる。画像平面上の、pの元の検出位置と
の投射との間の距離を計算する。pが可視である全
ての画像について、オブジェクト上のポイント全部にわ
たって残差を集める。
【0026】典型的な走査について、残差の中央値は全
108個の画像(3×36個の画像)全体で0.52ピ
クセルであり、各々が36個の画像からなる個々のカメ
ラ・シーケンスそれぞれ全体で0.27/0.24/
0.21ピクセルである。この測定値の意義は、エピポ
ーラ誤差が3D復元物における誤差、または多数の画像
からのテクスチャ上の位置合わせ誤差に直接伝播すると
いうことであり、したがって1ピクセル以下(sub-one-
pixel)の誤差が望ましい結果となる。
【0027】本発明のキャリブレーション方法は、キャ
リブレーション・オブジェクトの異なる面上の平面パタ
ーンの相対的位置が正確に既知であることを必要としな
い。これは重要な実際的要点である。なぜなら平面パタ
ーンを作成するのは簡単であるが、このようなオブジェ
クト上のポイントの正確な概算位置を得るには特別な努
力が必要とされるからである。
【0028】(IBVHの向上)Matusikらにより記載
される画像ベースの視覚包プロセスは、本発明がそうす
るように中間ボリューム表現(intermediate volumetri
c)を構築することなく、視覚包に固有のビューをシル
エット画像からリアルタイムで直接レンダリングする。
これは、像空間におけるシルエット円錐の共通部分(si
lhouette cone intersections)を計算することにより
達成される。IBVHプロセスは、これらのシルエット
円錐の断面積が一定であることを利用している。本質的
に、所望の画像の各レイ(光線/視線、ray)は各々の
シルエット上に投射される。そしてレイの共通部分の、
シルエットとの間隔を決定する。次に、これらの間隔を
3Dに戻す(lift back)。3Dにおいて、これらの間
隔は互いに交わる。かかるプロセスの利点は、別々のボ
リューム表現(ボリューム・モデル)により導入される
量子化アーチファクトを伴わないということである。こ
れは実際に、実際のシルエット円錐の共通部分を構築し
て、それら円錐を所望のカメラの視点からレンダリング
する場合と同等の結果を生じる。平均的な計算の複雑さ
を、レンダリングするピクセル当りの一定のコストに低
減する一連の最適化が議論されている。
【0029】(形状ライトによる分割)本発明は上述の
視覚包プロセスを、下記の本発明のアクティブ・デジタ
イザとともに用いるよう変更する。以下、本発明の変更
プロセスをアクティブ・ベースの視覚包(ABVH)プ
ロセスと呼ぶ。
【0030】分割を画像の組161に対して行う。上述
のように、かかる組161はバック・ライト120およ
び下方ライト121を用いて取得したものである。形状
ライト120〜121はカメラ130の視界内に直接配
置されるので、ライトが可視である場所でカメラのセン
サは飽和し、上記の組161についてシルエット画像を
生成する。本発明のカメラ130はCMOSセンサなら
びに機械シャッタを備える。これにより、CCDセンサ
の飽和の際に多く見られるブルーミングおよびスキャン
アウト・スミアリング・アーチファクト(scan-out sme
aring artifact)が解消される。
【0031】シルエット画像161の閾値を設定し(th
reshold)、オブジェクト150に関して2値分割を確
立する(それぞれ図3aおよび図3bを参照)。分割
は、各シルエット画像のピクセルを前景領域と背景領域
に分類する。分割輝度閾値(segmentation intensity t
hreshold)は必要に応じて調整することができる。かか
る組の画像のいくつかは、オブジェクトの表面のスペキ
ュラ・ハイライトのために分割が不十分となる場合もあ
る。この場合、オブジェクト全体および背景の部分をカ
バーする非常に無難な分割が得られるように手動閾値を
設定する。
【0032】本発明のABVHプロセスは、誤って分類
された前景領域を、それらが他の画像と矛盾するもので
ある限り除去する。このアクティブな分割は、Matusik
らにより記載されたIBVBプロセスよりも遥かに優れ
た結果をもたらす。本発明のプロセスは周囲の照明条件
の変化の影響を受けず、かつ背景の統計的モデリングを
一切必要としない。
【0033】(サーフェル・レンダリングの向上)複雑
な形状に関してポイント・サンプルをレンダリング・プ
リミティブとして使用することは、M. LevoyおよびT. W
hittedの著「ポイントのディスプレイ・プリミティブと
しての使用(The Use of Points as Display Primitive
s)」(Technical Report TR 85-022, The University
of North Carolina at Chapel Hill, Department of Co
mputer Science, 1985)の中で初めて記載された。本発
明は、H. Pfister、M. Zwicker、J. van Baar、および
M. Grossの著「サーフェル:レンダリング・プリミティ
ブとしてのサーフェス・エレメント(Surfels: Surface
Elements as Rendering Primitives)」(Computer Gr
aphics、SIGGRAPH 2000 Proceedings, pp. 335-342, 20
00)により記載されたものと同様のポイント・レンダリ
ング方法を用いる。本発明のデジタル化システムは、形
状およびテクスチャに富むオブジェクトをインタラクテ
ィブなフレーム・レートでレンダリングすることができ
る。
【0034】ポイント・サンプルは3D走査用途に関し
ていくつかの利点を有する。モデリングの観点から見る
と、ポイント・クラウド表現は、トポロジ(topology)
または連結性(connectivity)の確立を不要にする。こ
れにより、カメラ130から取得したデータの融合は容
易になる。さらに、ポイント・ベースのオブジェクト表
現は、ポイントの組が十分に緻密な場合にレンダリング
要件を簡素化する。ポイント・ベースのモデルからのレ
ンダリングは、形状の簡略化に用いられるメッシュ・リ
ダクション(mesh reduction)技術に関して好ましい。
なぜなら、形状の簡略化はテクスチャリングの際に形状
の不正確さおよび有意の複雑さを生じるからである。
【0035】本発明は、カメラ130から可視である全
ての輝度サンプルを記憶する拡張したポイント・クラウ
ド表現を用いる。本発明の走査オブジェクトは、表面ポ
イント・サンプル(サーフェル)の緻密な組として表現
される。サーフェルは、奥行き、テクスチャ、色および
標準的な情報を記憶する。予備プロセスにおいて、下記
のように、視覚包サンプルから決定されるオブジェクト
の8分木ベースの表現を構築する。
【0036】レンダリングの間、階層的フォワード・ワ
ーピング(forward-warping)・プロセスが、スプラッ
ティング技術を用いてサーフェルを画像上に投射する
(たとえばL. Westoverの著「ボリューム・レンダリン
グのためのフットプリント評価(Footprint Evaluation
for Volume Rendering)」(Proceedings of Computer
Graphics, SIGGRAPH 90, pages 367-376, August 199
0)を参照)。像空間のポスト・フィルタが、ホールを
検知した場所に色を再構築する。可視性スプラッティン
グ(visibility splatting)中にZバッファを用いる場
合、エッジ・エイリアシングが生じる恐れがあり、ま
た、最終的な画像の再構築に使用される付加的な2Dポ
スト・フィルタリングのために色が過度にぼやける恐れ
がある。しかしながら、これらの問題は実際には、本発
明のモデルのテクスチャの忠実度が高いためあまり顕著
ではない。
【0037】単一の色および表面特性をレンダリングす
るのではなく、むしろ本発明は、輝度サンプルのビュー
依存性レンダリングに対応するようポイント・レンダラ
(point renderer)を変更する。ビュー依存性シェーデ
ィングを加速するプロセスを後述する。
【0038】輝度サンプルが多数あるため、本発明のポ
イント・モデルのサイズは極めて大きくなる。本発明の
モデルの各サンプルは、全てのテクスチャ画像からのテ
クスチャ・データ221(たとえば、そのサンプルにつ
いて36個の画像すべてから得たテクスチャ)を記憶す
る。したがって、ビューを再構築する間、本発明では任
意の再構築におけるカメラ位置に最も近いカメラに関す
る記憶テクスチャを選ぶ(take)。
【0039】(ポイント・サンプル化輝度モデル)した
がって、本発明はまた、サーフェル表現を、本発明のデ
ジタル化システム100により取得した多数の輝度サン
プルに対応するよう拡張する。本発明は、各ポイント・
サンプルに関する発信輝度概算値(outgoing radiance
estimate)をレンダリング・プロセス中に補間する。実
際の表面から外れて位置する視覚包上のポイント(たと
えばP)に関して、表面のレイの組は輝度様というよ
りむしろピクチャ様である。このため、レイを実際の表
面上にあるサンプルと同様に相関するものとして考える
ことはできない。よって本発明では、画像および輝度関
数の両方を示すのに十分適した表現を開発した。
【0040】これは、表面のレイを輝度の再構築に適応
した形態で記憶する表面明視野法とは異なる。この範囲
では、表面明視野表現のほうが、より正確な形状および
より優れた輝度関数の相関のために、本発明の表現より
も良好に圧縮されると思われることだろう。しかし実際
には、本発明の方法がより優れている。さらなる圧縮の
詳細を後述する。
【0041】本発明の方法は、透明度などの他の困難な
表面輝度の事例も扱う。正確な形状に頼る代わりに、本
発明の表現は、大量の輝度情報を使用してオブジェクト
の正確なレンダリングを生成することに焦点を当てる。
本発明では取得した輝度サンプルをすべて各サーフェル
に記憶し、レンダリング中に最も近い可視サンプルを選
択する。本発明の輝度の再構成は、凹み、反射および透
明度などの難しい事例について良好に働く。
【0042】(最も近いサンプルの検索)各ポイント・
サンプル(サーフェル)は、多数の輝度サンプルを可視
性ビット・ベクトル(visibility bit vector)ととも
に記憶する。サンプルは画像の組162から得られる。
可視性ビット・ベクトルはサーフェルが可視である各カ
メラ位置について1の値を記憶する。レンダリング中、
各レンダリング・サーフェル位置から各可視カメラまで
の表示(viewing)レイを決定する。次に、表示レイと
各輝度測定値との間の角度を決定し、角度が最も小さい
カメラからの輝度サンプルを選択する。したがってサン
プルは、ほぼカメラ130から見えるとおりにレンダリ
ングされる。
【0043】3Dにおいては、画像の組161〜162
は同心円上に位置する(すなわち、画像は環を形成す
る)。各環について、特定のサーフェルを最もよく表す
環上のポイントを解析的に決定する。これで常時(in c
onstant time)、最も近いものを単純に参照することが
できる。このプロセスは、画像の環の各々について繰り
返し行われる。次にこれらを所望のレイからの最小の角
度に関して試験する。別の実施形態において、いくつか
の最も近い画像に関して記憶されたテクスチャを平均す
ることができる。
【0044】(輝度サンプルの圧縮)本発明では各サー
フェルについて全ての可視の輝度サンプルを記憶するた
め、本発明の最初のモデルは非常に大きくなる。このサ
イズを低減するために、2つの異なる輝度圧縮プロセス
を提供する。
【0045】(ベクトルの量子化)各サーフェルについ
て、全輝度サンプルの平均値を決定する。次に、各輝度
サンプルからの当該平均への差を決定する。これらの差
を輝度残差(radiance residues)と呼ぶ。サーフェル
における全ての残差が事前に定義された閾値未満となる
場合、そのサーフェルを完全な拡散(perfectly diffus
e)として扱い、その平均RGB値のみを記憶する。残
差のうち1つまたは複数が閾値を上回る場合、この後に
続くベクトルの量子化のために残差ベクトルをマークす
る。
【0046】全ての残差に関する汎用データを構築し、
各サーフェルについて8ビットのエントリのリストを記
憶する。この技術の圧縮比には1:3という上限があ
る。これらの残差ベクトルのヒストグラムは0に向かっ
て大きく傾斜しているため、可変長エントロピー符号化
技術に非常に適している。量子化のためにより高い次元
のベクトルを構築することも可能である。
【0047】生の輝度値とベクトルの量子化輝度値との
間の平均二乗誤差(MSE)は4〜5単位である。視覚
的な差は極端なクローズ・アップでしか認められない。
【0048】(画像組の圧縮)代替の圧縮方法は単に、
分割した画像にいくつかの小さな最適化を施して、元の
画像にJPEG圧縮を適用するに過ぎない。レンダリン
グの間、各可視カメラの中心に向かうレイを決定し、所
望のレイに最も近い視野方向を有する中心を見つける。
次に、テクスチャ・マップとしての元の画像にアクセス
することによって、対応する輝度値を決定する。50%
品質のJPEGを用いると、各画像を2.25MBから
約45kBに圧縮することができる。108個の画像か
らなる完全な画像組に換算すると、これは1:50の圧
縮比に相当する。
【0049】この圧縮は、画像中の、オブジェクトのシ
ルエット外に位置する8×8個のブロックすべてを除去
することによりさらに改良することができる。これは、
JPEG圧縮に用いられるブロック変換符号化技術を利
用したものである。各画像について、このビューが可視
であるサーフェルすべてを逆投射(back-project)する
ことにより、単純なマスクを決定する。次に、逆投射サ
ーフェルを包含する8×8個のブロックがJPEGを用
いて圧縮される。この単純なスキームが全圧縮率1:1
00に対して平均画像サイズを22kBまで圧縮する。
この圧縮方法はわずかなアーチファクトしか示さず、結
果として得られる表現は、表面明視野の表現に匹敵す
る。
【0050】実際、本発明のシステムは、広範な幾何オ
ブジェクトおよび表面タイプからモデルを取得すること
ができる。本発明では多くの扱い難い表面(たとえば凹
みやファイン・スケールの特徴を有する表面)を取得す
ることができる。また、本発明では広範な表面材料(た
とえばファジイ、光沢、および透明材料)をモデル化す
ることができる。
【0051】通常、オブジェクトをデジタル化するには
約20分かかる。この時間を占めるのはカメラの転送速
度であり、各未圧縮画像を転送するのに20秒以上かか
る。画像を分割して視覚包を決定するための実際の処理
時間は2分未満である。本発明のモデルはすべて、1回
の走査から生成される。幾何(ポリゴン)モデルでも問
題はないが、本発明により作成されるテクスチャ・モデ
ルによれば、再現性のある、正確で、かつ信頼性の高い
高解像度のモデルが得られることは明らかである。
【0052】
【発明の効果】本発明は、高品質のレンダリングの生成
について最適化された3次元デジタイザを提供する。本
発明のモデルは、その忠実度の大半を、近似モデルの表
面全体にわたってパラメータ化された画像の組から得
る。モデルから新しいビュー(すなわち取得した画像の
一部であるビュー)をレンダリングするために、本発明
はポイント・クラウド・レンダリング・プロセスを提供
する。
【0053】本発明を好ましい実施形態の例として説明
してきたが、本発明の精神および範囲内において様々な
他の適応形態および変更形態がなされ得ることを理解さ
れたい。したがって、併記の特許請求の範囲の目的は、
かかる変形や変更形態すべてを本発明の真の精神および
範囲内にあるものとして網羅することである。
【図面の簡単な説明】
【図1】 本発明に係るデジタル化システムの概略図で
ある。
【図2】 本発明に係るデジタル化方法の流れ図であ
る。
【図3a】 オブジェクトのシルエット画像である。
【図3b】 図3aの画像を2値分割したものである。
【符号の説明】
100 3次元デジタル化システム、110 テクスチ
ャ・ライト(オーバヘッド・ライト)、120、121
形状ライト(バック・ライト)、130 カメラ、1
40 ターンテーブル、150 オブジェクト、161
第1の組の画像、162 第2の組の画像。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ウォーチエック・マトゥシック アメリカ合衆国、マサチューセッツ州、ア ーリントン、オリエント・アベニュー 43 (72)発明者 ハンスピーター・フィスター アメリカ合衆国、マサチューセッツ州、サ マービル、パーク・ストリート 60 (72)発明者 ポール・エイ・ベアズリィー アメリカ合衆国、マサチューセッツ州、ボ ストン、コモンウェルス・アベニュー 12、ナンバー 806 (72)発明者 レナード・マクミラン・ジュニア アメリカ合衆国、マサチューセッツ州、ニ ュートン、レキシントン・ストリート 226 Fターム(参考) 5B047 AA07 BA04 BC12 5B057 BA26 CA01 CA08 CA12 CA16 CB01 CB08 CB13 CB16 CC01 CE08 CE16 CH08 CH11 CH18 DA07 DA08 DB03 DB06 DB09 DC08 DC09 DC34 5B080 AA20 CA01 FA02 FA08 GA22

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 3次元オブジェクトを3次元モデルとし
    てデジタル化するシステムであって、 前記オブジェクトを載置するターンテーブルと、 複数のカメラと、 前記複数のカメラの視野外に構成された複数のテクスチ
    ャ・ライトと、 前記カメラの視野内に構成された複数の形状ライトと、 前記ターンテーブルを複数の位置へと回転させながら第
    1の組の画像および第2の組の画像を取得する手段であ
    って、前記第1の組の画像は前記形状ライトにより照明
    され、前記第2の組の画像は前記テクスチャ・ライトに
    より照明され、前記ターンテーブルの各位置について各
    組の画像同士が1対1で対応している手段と、 前記第1の組の画像からオブジェクトの形状データを抽
    出する手段と、 前記第2の組の画像からからオブジェクトのテクスチャ
    ・データを抽出する手段と、 前記オブジェクトの形状データを前記オブジェクトのテ
    クスチャ・データと相関させて、コンピュータ・システ
    ムのメモリに記憶される前記3次元デジタル・モデルを
    構築する手段とを備えたシステム。
  2. 【請求項2】 前記テクスチャ・ライトは前記オブジェ
    クトの上方かつ前記カメラの上方にあり、前記形状ライ
    トは前記カメラの真向かいにあり、前記オブジェクトは
    前記形状ライトおよび前記カメラの間にある請求項1に
    記載のシステム。
  3. 【請求項3】 前記ターンテーブルは透明であり、前記
    形状ライトは、前記ターンテーブルの下方にあって前記
    オブジェクトを下から照明するためのライトを含む請求
    項2に記載のシステム。
  4. 【請求項4】 前記カメラは、前記形状ライトと真向か
    いの垂直面にある請求項1に記載のシステム。
  5. 【請求項5】 前記位置の数は10より多い請求項1に
    記載のシステム。
  6. 【請求項6】 前記テクスチャ・ライトは、前記第2の
    組の画像を撮像する間回転される請求項1に記載のシス
    テム。
  7. 【請求項7】 前記デジタル・モデルは、複数のポイン
    ト・サンプルとして表現される請求項1に記載のシステ
    ム。
  8. 【請求項8】 前記デジタル・モデルはボリューム・モ
    デルである請求項7に記載のシステム。
  9. 【請求項9】 前記第1の組の画像からオブジェクトの
    形状データを抽出する前記手段は、分割輝度閾値に基づ
    き2値分割を行い、前記2値分割は前記第1の組の画像
    を前景領域および背景領域に分類する請求項1に記載の
    システム。
  10. 【請求項10】 誤って分類された前記背景領域を除去
    する請求項9に記載のシステム。
  11. 【請求項11】 前記3次元モデルをレンダリングする
    間に各ポイント・サンプルの輝度を概算する手段をさら
    に備えた請求項7に記載のシステム。
  12. 【請求項12】 前記オブジェクトは部分的に透明であ
    る請求項1に記載のシステム。
  13. 【請求項13】 前記モデルは圧縮される請求項1に記
    載のシステム。
  14. 【請求項14】 前記第1の組の画像および前記第2の
    組の画像は、前記背景領域中のピクセルの除去により圧
    縮される請求項13に記載のシステム。
  15. 【請求項15】 前記第2の組の各画像のテクスチャ・
    データは各サンプル・ポイントと相関する請求項7に記
    載のシステム。
  16. 【請求項16】 3次元オブジェクトを3次元モデルと
    してデジタル化する方法であって、 前記オブジェクトを視野内のライトで照明し、かつ前記
    オブジェクトを回転させながら第1の組の画像を取得す
    るステップと、 前記オブジェクトを視野外のライトで照明し、かつ前記
    オブジェクトを回転させながら第2の組の画像を取得す
    るステップであって、前記オブジェクトの各位置につい
    て各組の画像同士が1対1で対応しているステップと、 前記第1の組の画像からオブジェクトの形状データを抽
    出するステップと、 前記第2の組の画像からオブジェクトのテクスチャ・デ
    ータを抽出するステップと、 前記オブジェクトの形状データを前記オブジェクトのテ
    クスチャ・データと相関させて、コンピュータ・システ
    ムのメモリに記憶される前記3次元デジタル・モデルを
    構築するステップとを備えた方法。
JP2002123085A 2001-04-26 2002-04-24 3次元オブジェクトを3次元モデルとしてデジタル化するシステムおよび方法 Pending JP2003108985A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/842,972 US6792140B2 (en) 2001-04-26 2001-04-26 Image-based 3D digitizer
US09/842972 2001-04-26

Publications (1)

Publication Number Publication Date
JP2003108985A true JP2003108985A (ja) 2003-04-11

Family

ID=25288723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002123085A Pending JP2003108985A (ja) 2001-04-26 2002-04-24 3次元オブジェクトを3次元モデルとしてデジタル化するシステムおよび方法

Country Status (2)

Country Link
US (1) US6792140B2 (ja)
JP (1) JP2003108985A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269932A (ja) * 2002-03-13 2003-09-25 Olympus Optical Co Ltd 3次元画像撮影装置及び3次元画像撮影方法
JP2005115897A (ja) * 2003-10-07 2005-04-28 Open Vr Co Ltd 3次元イメージ生成装置及び3次元イメージ生成方法
WO2019123547A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JP2023503426A (ja) * 2019-11-19 2023-01-30 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ 衛生陶器の光学検査のための装置

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2370738B (en) * 2000-10-27 2005-02-16 Canon Kk Image processing apparatus
US7253832B2 (en) * 2001-08-13 2007-08-07 Olympus Corporation Shape extraction system and 3-D (three dimension) information acquisition system using the same
JP2003065736A (ja) * 2001-08-24 2003-03-05 Sanyo Electric Co Ltd 3次元モデリング装置
US20030132913A1 (en) * 2002-01-11 2003-07-17 Anton Issinski Touchless computer input device to control display cursor mark position by using stereovision input from two video cameras
WO2003064116A2 (en) * 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US6975756B1 (en) * 2002-03-12 2005-12-13 Hewlett-Packard Development Company, L.P. Image-based photo hulls
JP4085671B2 (ja) * 2002-03-29 2008-05-14 コニカミノルタホールディングス株式会社 データ処理方法、データ処理プログラムおよび記録媒体
US7280685B2 (en) * 2002-11-14 2007-10-09 Mitsubishi Electric Research Laboratories, Inc. Object segmentation from images acquired by handheld cameras
JP4083554B2 (ja) * 2002-11-29 2008-04-30 株式会社森精機製作所 3次元モデルデータ生成装置
WO2004077838A1 (de) * 2003-02-27 2004-09-10 T-Mobile Deutschland Gmbh Verfahren zur komprimierten übertragung von bilddaten für eine 3-dimensionale darstellung von szenen und objekten
US7162075B2 (en) * 2003-03-10 2007-01-09 Cranial Technologies, Inc. Three-dimensional image capture system
GB0310504D0 (en) * 2003-05-07 2003-06-11 Canon Europa Nv Photographing apparatus,device and method for obtaining images to be used for creating three-dimensional model
GB0310502D0 (en) * 2003-05-07 2003-06-11 Canon Europa Nv Photographing apparatus,device and method for obtaining images to be used for creating three-dimensional model
GB0319677D0 (en) * 2003-08-21 2003-09-24 Canon Res Ct Europ Ltd Photographic apparatus for use in creating three-dimensional models
JP2006004158A (ja) * 2004-06-17 2006-01-05 Olympus Corp 画像処理プログラム、画像処理方法、画像処理装置及び記録媒体
GB2415499A (en) * 2004-06-23 2005-12-28 Canon Res Ct Europ Ltd Apparatus and method for object shape detection
BRPI0514755B1 (pt) * 2004-08-30 2017-10-17 Commonwealth Scientific And Industrial Research Organisation Method for automated 3d image formation
EP1810220A4 (en) * 2004-11-03 2008-04-30 Tyzx Inc INTEGRATED IMAGE PROCESSOR
US7391899B2 (en) * 2005-03-31 2008-06-24 Harris Corporation System and method for three dimensional change detection and measurement of a scene using change analysis
US8824548B2 (en) * 2006-03-21 2014-09-02 Mitsubishi Electric Research Laboratories, Inc. Object detecting with 1D range sensors
ITPI20060067A1 (it) * 2006-06-06 2007-12-07 Examina Spa Sistema per il controllo della bisellatura di un oggetto piano
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
US7834894B2 (en) * 2007-04-03 2010-11-16 Lifetouch Inc. Method and apparatus for background replacement in still photographs
WO2009150597A2 (en) * 2008-06-12 2009-12-17 Spandan Choudury A non-virtual-3d- video/photo generator rendering relative physical proportions of image in display medium (and hence also of the display medium itself) the same as the relative proportions at the original real life location
US20100098323A1 (en) * 2008-07-18 2010-04-22 Agrawal Amit K Method and Apparatus for Determining 3D Shapes of Objects
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
FR2951563A1 (fr) * 2009-10-16 2011-04-22 Logiparts Sa Procede et installation d'analyse de parametres geometriques d'un objet
US20110122224A1 (en) * 2009-11-20 2011-05-26 Wang-He Lou Adaptive compression of background image (acbi) based on segmentation of three dimentional objects
KR101271460B1 (ko) * 2009-12-02 2013-06-05 한국전자통신연구원 영상 복원 장치 및 그 방법
JP5473096B2 (ja) 2009-12-07 2014-04-16 ペキン ユニバーシティ イメージベースドビジュアルハルにおける凹状表面のモデリング
DE102011013708B4 (de) * 2011-03-11 2012-12-13 Automate Images Gmbh Verfahren zur freigestellten Abbildung eines Objekts
KR20130047822A (ko) * 2011-11-01 2013-05-09 삼성전자주식회사 영상 처리 장치 및 방법
US8947495B2 (en) * 2011-12-06 2015-02-03 Alcatel Lucent Telepresence apparatus for immersion of a human image in a physical environment
US9111349B2 (en) * 2011-12-16 2015-08-18 Microsoft Technology Licensing, Llc Object identification using 3-D curve matching
US20160003612A1 (en) * 2014-07-07 2016-01-07 VirtualU Rapid and accurate three dimensional scanner
CN109196303B (zh) 2016-04-01 2020-10-23 乐高公司 玩具扫描仪
WO2019064266A1 (en) * 2017-09-28 2019-04-04 Checkout Technologies Srl CREATING DATA SETS FOR DEEP NEURAL NETWORK
US10504251B1 (en) * 2017-12-13 2019-12-10 A9.Com, Inc. Determining a visual hull of an object
EP3791592A4 (en) * 2018-05-07 2021-12-08 Nokia Technologies Oy METHODS AND TECHNICAL EQUIPMENT FOR CODING AND DECODING A VOLUMETRIC VIDEO
EP3671645A1 (de) * 2018-12-20 2020-06-24 Carl Zeiss Vision International GmbH Verfahren und vorrichtung zum erzeugen einer 3d-rekonstruktion eines objekts

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229737A (ja) * 1993-02-05 1994-08-19 Dainippon Printing Co Ltd 周期性パターンの表面欠陥検査方法
JPH06258048A (ja) * 1993-03-05 1994-09-16 Toshiba Corp 物体入力装置
JP2000111322A (ja) * 1998-10-01 2000-04-18 Sony Corp 3次元データ処理装置および方法
JP2000292138A (ja) * 1999-04-06 2000-10-20 Nok Corp 真球度測定装置及び真球度測定方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870220A (en) * 1996-07-12 1999-02-09 Real-Time Geometry Corporation Portable 3-D scanning system and method for rapid shape digitizing and adaptive mesh generation
US6556783B1 (en) * 1997-01-16 2003-04-29 Janet L. Gelphman Method and apparatus for three dimensional modeling of an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229737A (ja) * 1993-02-05 1994-08-19 Dainippon Printing Co Ltd 周期性パターンの表面欠陥検査方法
JPH06258048A (ja) * 1993-03-05 1994-09-16 Toshiba Corp 物体入力装置
JP2000111322A (ja) * 1998-10-01 2000-04-18 Sony Corp 3次元データ処理装置および方法
JP2000292138A (ja) * 1999-04-06 2000-10-20 Nok Corp 真球度測定装置及び真球度測定方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269932A (ja) * 2002-03-13 2003-09-25 Olympus Optical Co Ltd 3次元画像撮影装置及び3次元画像撮影方法
US7295698B2 (en) 2002-03-13 2007-11-13 Olympus Corporation Three-dimensional image photographing apparatus and method capable of acquiring more natural pasted three-dimensional image including texture image
JP2005115897A (ja) * 2003-10-07 2005-04-28 Open Vr Co Ltd 3次元イメージ生成装置及び3次元イメージ生成方法
WO2019123547A1 (ja) * 2017-12-19 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
JPWO2019123547A1 (ja) * 2017-12-19 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、基準画像データ生成装置、画像生成方法、および基準画像データ生成方法
US11430412B2 (en) 2017-12-19 2022-08-30 Sony Interactive Entertainment Inc. Freely selected point of view image generating apparatus, reference image data generating apparatus, freely selected point of view image generating method, and reference image data generating method
JP2023503426A (ja) * 2019-11-19 2023-01-30 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ 衛生陶器の光学検査のための装置
JP7450032B2 (ja) 2019-11-19 2024-03-14 サクミ コオペラティヴァ メッカニチ イモラ ソシエタ コオペラティヴァ 衛生陶器の光学検査のための装置

Also Published As

Publication number Publication date
US20020159628A1 (en) 2002-10-31
US6792140B2 (en) 2004-09-14

Similar Documents

Publication Publication Date Title
US6792140B2 (en) Image-based 3D digitizer
US6803910B2 (en) Rendering compressed surface reflectance fields of 3D objects
US6791542B2 (en) Modeling 3D objects with opacity hulls
US6903738B2 (en) Image-based 3D modeling rendering system
US6455835B1 (en) System, method, and program product for acquiring accurate object silhouettes for shape recovery
Kutulakos et al. A theory of shape by space carving
US6750873B1 (en) High quality texture reconstruction from multiple scans
Bernardini et al. High-quality texture reconstruction from multiple scans
Matusik et al. Image-based 3D photography using opacity hulls
Chuang et al. Environment matting extensions: Towards higher accuracy and real-time capture
US7046840B2 (en) 3-D reconstruction engine
US7098435B2 (en) Method and apparatus for scanning three-dimensional objects
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
McAllister et al. Real-time rendering of real world environments
US20040212725A1 (en) Stylized rendering using a multi-flash camera
US20030071194A1 (en) Method and apparatus for scanning three-dimensional objects
JP2004289829A (ja) 様式化された画像を生成するための方法
JP2004288185A (ja) 自然に照明されたシーンの画像の画質を高めるための方法
US7280685B2 (en) Object segmentation from images acquired by handheld cameras
JP4335589B2 (ja) 3dオブジェクトをモデル化する方法
Balado et al. Multi feature-rich synthetic colour to improve human visual perception of point clouds
Wang et al. Capturing and rendering geometry details for BTF-mapped surfaces
García Fernandez et al. An approach to 3D digital modeling of surfaces with poor texture by range imaging techniques.‘Shape from stereo’vs.‘shape from silhouette’in digitizing Jorge Oteiza’s sculptures
Yu Modeling and editing real scenes with image-based techniques
Andrade et al. Enhancing color texture quality of 3D models for digital preservation of indigenous ceramic artworks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722