JP2002183761A - 画像生成の方法および装置 - Google Patents

画像生成の方法および装置

Info

Publication number
JP2002183761A
JP2002183761A JP2001331574A JP2001331574A JP2002183761A JP 2002183761 A JP2002183761 A JP 2002183761A JP 2001331574 A JP2001331574 A JP 2001331574A JP 2001331574 A JP2001331574 A JP 2001331574A JP 2002183761 A JP2002183761 A JP 2002183761A
Authority
JP
Japan
Prior art keywords
image
data
image data
frequency component
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001331574A
Other languages
English (en)
Other versions
JP3782709B2 (ja
Inventor
Adam M Baumberg
マイケル ボームバーグ アダム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0026343A external-priority patent/GB0026343D0/en
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2002183761A publication Critical patent/JP2002183761A/ja
Application granted granted Critical
Publication of JP3782709B2 publication Critical patent/JP3782709B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 画像内に現れる物体の生成された3次元コン
ピュータ・モデルをテクスチャ・レンダリングするため
のテクスチャ・マップ・データを生成するために入力画
像が処理される、画像処理装置(2)を開示する。 【解決手段】 使用される画像の部分を選択するため
に、モデルの表面の部分が画像のそれぞれで可視である
範囲を表す信頼データを生成する。この信頼データを使
用して画像を組み合わせ、異なる空間周波数を表す画像
データが、信頼データを使用して異なる形でブレンディ
ングされる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本願は、画像を生成する方法
および装置に関する。具体的には、本願は、他の視点か
らの同一の物体の複数の画像から、選択された視点から
の物体の画像を生成する方法および装置に関する。
【0002】
【従来の技術】2次元画像を複数の周波数バンドに分割
し、異なる周波数バンドの画像を別々に処理することが
既知である。同一の物体の複数の異なるビューから3次
元物体の画像を生成する時には、3次元物体の画像デー
タを類似する形で処理できることが望ましい。
【0003】2次元画像の既知の処理を拡張する方法の
1つが、使用可能な2次元画像からのデータを物体の表
面に投影することと、低バンド・テクスチャ付きの表面
を得るために、3次元物体の表面にわたって生成された
テクスチャをぼかすことと、対応する高バンド・テクス
チャ付きの表面を得るために、元のテクスチャ付きの表
面を減算することと、異なるバンドについて異なる空間
情報を使用してテクスチャ付きの表面をブレンディング
することとによって画像を処理することである。
【0004】
【発明が解決しようとする課題】しかし、効率的で一貫
性のある形でモデルの表面のテクスチャのブラー動作を
実行する方法は既知でない。したがって、選択された視
点からの3D物体の画像の空間周波数画像データを生成
する代替方法が必要である。
【0005】
【課題を解決するための手段】本発明の1態様によれ
ば、物体の複数の画像から前記物体の指定されたビュー
に関する空間周波数データを生成する方法であって、物
体の使用可能な画像を、複数のバンドの空間周波数情報
に分割するステップと、別々のバンドの空間周波数情報
を指定されたビューに投影するステップと、前記投影を
使用して前記指定されたビューに関する空間周波数デー
タを生成するステップとを含む方法が提供される。
【0006】物体の使用可能な画像から直接に空間周波
数データを生成することによって、物体の表面を決定す
るブラー動作を必要としない、選択された画像の高周波
数データおよび低周波数データを生成する一貫性があり
効率的な方法を保証する手段が提供される。
【0007】本発明のもう1つの態様によれば、物体の
複数の画像から前記物体の指定されたビューに関する空
間周波数データを生成する装置であって、物体の使用可
能な画像を、複数のバンドの空間周波数情報に分割する
手段と、別々のバンドの空間周波数情報を指定されたビ
ューに投影する手段と、前記投影を使用して前記指定さ
れたビューに関する空間周波数データを生成する手段と
を備える装置が提供される。
【0008】本発明のさらなる態様および実施形態は、
以下の説明および図面から明白になる。
【0009】
【発明の実施の形態】これから第1の実施形態を説明す
るが、第1の実施形態では、同一の視点に対応する生成
され投影された複数の画像を組み合わせて、画像に現れ
る物体の3Dコンピュータ・モデルのテクスチャ・レン
ダリング用の合成テクスチャ・マップを生成する。
【0010】[第1の実施形態]図1を参照すると、本
発明の実施形態は、パーソナルコンピュータ等の処理装
置2を含み、処理装置2は、1つまたは複数のプロセッ
サと、メモリと、グラフィックス・カードなどを、通常
のパーソナル・コンピュータ・モニタなどの表示装置4
と、キーボード、マウスなどのユーザ入力装置6と、プ
リンタ8と共に通常の形で含む。
【0011】処理装置2は、たとえば、ディスク12な
どのデータ記憶媒体に保管されたデータとして、及び/
又は、たとえばリモート・データベースから、インター
ネットなどの通信ネットワーク(図示せず)を介する伝
送によって、または大気を介する伝送によって処理装置
2に入力される信号14として、及び/又は、キーボー
ドなどのユーザ入力装置6を介してユーザによって入力
される、プログラミング命令入力に従って動作するよう
にプログラムされる。
【0012】下で詳細に説明するように、プログラミン
グ命令には、処理装置2に、異なる視点から記録された
対象物体の複数の画像を定義する入力データを処理する
ように構成されるようにならせる命令が含まれる。入力
データは、入力画像が記録された位置および向きを識別
するデータを生成するために処理される。これらの計算
された位置および向きと画像データを使用して、対象物
体の3次元コンピュータ・モデルを定義するデータを生
成する。
【0013】プログラミング命令によってプログラムさ
れた時に、処理装置2は、効果的に、処理動作を実行す
るための複数の機能ユニットにより構成されている。そ
のような機能ユニットおよびそれらの相互接続の例が、
図1に示されている。しかし、図1に示されたユニット
および相互接続は、概念的であり、理解を助けるために
のみ例示のために示されたものであり、必ずしも処理装
置2のプロセッサ、メモリなどが構成される正確なユニ
ットおよび接続を表してはいない。
【0014】図1に示された機能ユニットを参照する
と、中央コントローラ20は、ユーザ入力装置6からの
入力を処理し、他の機能ユニットに対する制御および処
理も提供する。メモリ24が、中央コントローラ20お
よび他の機能ユニットによる使用のために設けられる。
【0015】データ・ストア26には、たとえばディス
ク28などの記憶装置に保管されたデータとして、処理
装置2に送信される信号30として、またはユーザ入力
装置6を使用することによって、処理装置2に入力され
る入力データが保管される。入力データによって、異な
る位置および向きで記録された1つまたは複数の物体の
複数のカラー画像が定義される。さらに、本実施形態で
は、入力データに、画像を記録したカメラに固有のパラ
メータすなわち、アスペクト比、焦点距離、主点(光学
軸が結像面と交差する点)、一次半径方向ひずみ係数、
およびスキュー角(画素グリッド上の軸の間の角度。軸
が正確に直交しない場合があるので)を定義するデータ
も含まれる。
【0016】入力画像を定義する入力データは、たとえ
ば、画像を記録したディジタル・カメラから画素データ
をダウンロードすることによるか、スキャナ(図示せ
ず)を使用して写真をスキャンすることによって生成す
ることができる。固有のカメラ・パラメータを定義する
入力データは、ユーザがユーザ入力装置6を使用するこ
とによって入力することができる。
【0017】位置決定モジュール32は、入力データ・
ストア26によって受け取られた入力画像を処理して、
画像によって表される物体の画像データがそこから得ら
れたカメラ視点の相対位置および向きを決定する。本実
施形態では、これが、入力画像に存在する特徴の識別お
よびマッチングと、これらの一致を使用するカメラ・ビ
ューの相対位置の計算によって、達成される。
【0018】表面モデラ34は、入力画像を定義するデ
ータと、画像が記録された位置および向きを定義するデ
ータとを処理して、画像内の物体の実際の表面を表す3
Dコンピュータ・ワイヤ・メッシュ・モデルを定義する
データを生成する。本実施形態では、この3Dモデルに
よって、モデリングされる対象物体の表面を表す複数の
三角形が定義される。
【0019】表面テクスチャラ36は、表面モデラ34
によって作られる表面モデルへのレンダリングのため
に、入力画像データからテクスチャ・データを生成す
る。具体的に言うと、本実施形態では、表面テクスチャ
ラ36が、入力画像データを処理して、対象物体を囲む
箱から見られた対象物体の6つのビューを含む6つのテ
クスチャ・マップを生成する。これらの生成されたテク
スチャ・マップは、その後、表面モデルのテクスチャ・
レンダリングに使用され、その結果、任意の視点からの
モデリングされた対象物体の画像を生成できるようにな
る。入力画像データからこれらのテクスチャ・マップを
生成する表面テクスチャラ36の処理は、後で詳細に説
明する。
【0020】表示プロセッサ40は、中央コントローラ
20の制御の下で、表示装置4を介してユーザに指示を
表示する。さらに、中央コントローラ20の制御の下
で、表示プロセッサ40は、表面モデラ34によって生
成された表面モデルを処理し、表面モデル上に表面テク
スチャラ36によって作られたテクスチャ・データをレ
ンダリングすることによって、ユーザが選択した視点か
らの物体の3Dコンピュータ・モデルの画像も表示す
る。
【0021】プリンタ・コントローラ42は、中央コン
トローラ20の制御の下で、選択され、表示装置4に表
示された物体の3Dコンピュータ・モデルの画像のハー
ド・コピーを、プリンタ8によって印刷させる。
【0022】出力データ・ストア44は、表面モデラ3
4および表面テクスチャラ36によって生成された表面
モデルおよびテクスチャ・データを保管する。中央コン
トローラ20は、たとえばディスク46などの記憶装置
上のデータとして、または信号48としての、出力デー
タ・ストア44からのデータの出力を制御する。
【0023】表面モデラ34によって作られた表面モデ
ル上でのレンダリングのためのテクスチャ・データを生
成する、表面テクスチャラ36の構造および処理を、こ
れから詳細に説明する。
【0024】<カノニカル・テクスチャ・マップ>異な
る視点から記録された対象物体の複数の画像が使用可能
である時には、これによって、対象物体の表面的な外見
に関する大量のデータがもたらされる。画像が異なる視
点から記録される場合に、これらの画像が、対象物体の
異なる部分のデータ量の変化をもたらす。というのは、
これらの部分が、画像内で異なる量だけ可視になるから
である。物体の外見のモデルを作成するためには、これ
らの画像を処理して、テクスチャ・データを生成し、そ
の結果、対象物体の一貫性のあるテクスチャ・モデルを
作成できるようにする必要がある。
【0025】本実施形態では、これが、表面テクスチャ
ラ36によって達成され、表面テクスチャラ36は、表
面モデラ34によって作られた表面モデルをレンダリン
グするためのテクスチャ・データを生成するために、異
なる視点から記録された対象物体の入力画像データを処
理する。本実施形態では、このテクスチャ・データに、
6つのテクスチャ・マップが含まれ、6つのテクスチャ
・マップには、対象物体を中心とする立方体の6面から
の対象物体のビューが含まれる。
【0026】図2は、例示的な対象物体56を囲む6つ
のテクスチャ・マップ50〜55の位置および向きの例
示的な図である。本実施形態では、6つのテクスチャ・
マップに、上50、下51、前52、後53、左54、
および右55からの物体のビューである、物体の6つの
カノニカル・ビューのテクスチャ・マップが含まれる。
【0027】6つのカノニカル・ビュー50〜55に
は、3対の平行な画像面50および51、52および5
3、54および55が含まれ、これらは、モデルの座標
系の原点を中心とし、3対の画像面のそれぞれが、めい
めいの座標系の3つの座標軸の1つに沿って整列され
る。カノニカル・ビューが物体の中心から等間隔にな
り、各画像面から見られた物体の範囲が、範囲内の画素
の閾値数を超えないように、表面モデラ34によって作
成される対象物体のモデル56のサイズに対して相対的
な物体からの距離が選択されるように、カノニカル・ビ
ュー50〜55の視点の相対位置が選択される。本実施
形態では、閾値が、512画素に設定される。その後、
モデルのテクスチャ・マップのそれぞれが、定義された
画像面への対象物体56の弱い透視投影によって定義さ
れる。
【0028】6つのカノニカル・ビュー50〜55のそ
れぞれの画像データを決定した後に、任意の視点からの
対象物体のモデル56の画像データを、通常のテクスチ
ャ・レンダリング技法を使用して生成することができ、
ここで、モデル56の表面の各部分のテクスチャ・レン
ダリング・データが、カノニカル・ビュー50〜55の
選択された部分を使用して生成される。
【0029】この形で対象物体のモデルのテクスチャ・
データを生成することによって、必要なテクスチャ・マ
ップの数が、6つのカノニカル・ビュー50〜55に制
限される。さらに、カノニカル・ビューのそれぞれが、
実世界の物体の投影のビューに対応するので、カノニカ
ル・ビュー50〜55は、対象物体の現実的なビューを
表さなければならず、したがって、実世界の画像の圧縮
に最適化されたJPEGなどの標準画像圧縮アルゴリズ
ムによる圧縮に適する。
【0030】対象物体のモデルの生成された画像では、
6つのカノニカル・テクスチャ・マップのどれからでも
テクスチャ・レンダリング・データが入手される可能性
があるので、テクスチャ・マップのすべてが互いに一貫
性を有する形で、すべてのテクスチャ・マップを生成す
ることが必要である。したがって、対象物体の画像の異
なる部分が、異なるビューからのテクスチャ・マップを
使用してレンダリングされる、この形では、顕著な境界
が生じない。どの3D物体でも、6つのカノニカル・ビ
ュー50〜55のすべてからの対象物体の表面のすべて
が、単一の入力画像で可視ではないので、表面テクスチ
ャ36で、6つのカノニカル・ビュー50〜55のテク
スチャ・マップを生成するのに使用可能な複数の画像か
らの画像データを組み合わせることが必要である。
【0031】使用可能な入力画像から6つの一貫性のあ
るテクスチャ・マップの組を生成できるようにする、表
面テクスチャラ36による処理の詳細を説明する前に、
概念的な機能処理ユニットに関する表面テクスチャラ3
6の構造を、これから説明する。
【0032】<表面テクスチャラの構造>図3は、本発
明の本実施形態に従った表面テクスチャラ36の概略ブ
ロック図である。本実施形態では、表面テクスチャラ3
6に、重み決定モジュール58と、テクスチャ・マップ
決定モジュール59が含まれる。
【0033】6つのカノニカル・テクスチャ・マップ5
0〜55を生成するのに使用される使用可能な画像デー
タの部分を選択するために、表面テクスチャラ36は、
データが入手された視点を識別する位置決定モジュール
32によって生成された位置データと、表面モデラによ
って出力された3Dモデル・データを使用する。この位
置データおよび3Dモデル・データは、重み決定モジュ
ール58によって処理され、重み決定モジュール58
は、まず、モデル化される対象物体の表面の諸部分が使
用可能な画像のそれぞれでどの範囲まで可視であるかを
決定する。その後、重み決定モジュール58は、この決
定を使用して、対象物体のモデルの表面の各部分のテク
スチャ・データを生成するために使用可能な入力画像を
使用するための相対的な優先度を識別する重み関数デー
タを生成する。
【0034】この重み関数データは、テクスチャ・マッ
プ決定モジュール59に渡され、テクスチャ・マップ決
定モジュール59は、位置決定モジュール32によって
生成された位置データ、表面モデラ34によって生成さ
れたモデル・データ、および入力データ・ストア26に
保管された使用可能な画像データと共に重み関数データ
を処理して、カノニカル・ビュー50〜55の6つの一
貫性のあるテクスチャ・マップの組を生成する。
【0035】<重み関数データの生成>対象物体のモデ
ルの異なる部分のテクスチャ・データを生成するための
異なる入力画像の使用の相対的な優先度を示す重み関数
データを生成する重み決定モジュール58の処理を、こ
れから図4〜9、図10A、および図10Bを参照して
詳細に説明する。
【0036】図4は、重み決定モジュール58の処理の
流れ図である。
【0037】まず、重み決定モジュール58は、表面モ
デラ34によって生成された3Dモデルの三角形のそれ
ぞれが入力データ・ストア26内の画像のそれぞれで可
視である範囲を示すデータを決定する(S4−1)。
【0038】特定の入力画像のどれについても、表面モ
デラ34によって生成された3次元モデルの三角形によ
って表される対象物体のある部分が可視でなくなること
は、不可避である。しかし、同一の三角形が、他の画像
で可視になる可能性がある。したがって、3Dモデルの
表面の各部分の現実的なテクスチャ・データは、画像デ
ータの異なる項目のうちで、対象物体の表面の対応する
部分が可視である部分を使用することによってのみ生成
することができる。したがって、各画像内でどの三角形
が可視であるかを決定することによって、テクスチャ・
マップを生成するための情報の潜在的なソースを識別す
ることができる。
【0039】さらに、各三角形が使用可能な画像内でど
の程度まで可視であるかを決定することも有用である。
このようにすることで、テクスチャ・マップの諸部分を
生成する画像データの好ましいソースとして、三角形
が、可視ではあるが、鋭角でまたは遠い距離から見られ
る画像ではなく、三角形が、たとえばクローズ・アップ
画像で、明瞭に可視である画像を選択することが可能に
なる。
【0040】図5は、表面モデラ34によって生成され
た3Dモデル・データおよび位置決定モジュール32に
よって決定された入力画像の位置データを使用して、入
力画像内の三角形の可視性を決定するための重み決定モ
ジュール58の処理の詳細を示す流れ図である。
【0041】まず(S5−1)、重み決定モジュール5
8が、位置決定モジュール32によって位置データが生
成された最初のビューを選択する。
【0042】その後、重み決定モジュール58が、表面
モデラ34によって生成された3Dモデルの最初の三角
形を選択する(S5−2)。
【0043】重み決定モジュール58が、その後(S5
−3)、処理中の位置データによって定義される視野か
ら見られる、処理中の三角形の可視性値を決定する。
【0044】本実施形態では、これが、処理中の画像の
位置データによって定義される視野から見られる、表面
モデラ34によって生成される3Dモデルをレンダリン
グために、通常のOpenGL呼出しを使用することに
よって達成される。生成された画像データは、可視性値
の計算に使用される。
【0045】具体的に言うと、まず、選択された位置デ
ータによって定義される視点から見られた3Dモデルの
三角形のすべてを、Zバッファリングを使用可能にして
単一の色を使用してレンダリングする。このZバッファ
・データは、深さマップと同等である。その後、処理中
の三角形を、Zバッファリングを使用不能にして異なる
色(第2の色)を使用して再レンダリングする。その
後、選択された三角形を、Zバッファに既に存在する深
さ値を使用するように、Zバッファリングを再度使用に
して、第3の色を使用して再レンダリングする。再レン
ダリングの時に、glPolygonOffset O
penGL関数を使用して、位置データによって定義さ
れるカメラ視点に向かって三角形をわずかにシフトし
て、エイリアス効果を防ぐ。
【0046】現在選択されている位置データによって定
義される視点から見られた、処理中の三角形の可視性値
は、第2および第3の色でレンダリングされた画像の画
素の数を計算することによって決定される。
【0047】具体的に言うと、生成された画像データに
第2の色に対応する画素がある場合に、これらは、現在
選択されている三角形のうちで、他の三角形によってさ
えぎられる部分であり、したがって、選択された三角形
は、位置データによって定義される視点からは部分的に
隠される。定義された視点から知覚される三角形の可視
性値が以下の式に基づいて計算され、その三角形につい
てセットされる。ここで、
【0048】
【数1】 ただし、閾値は、本実施形態では0.75にセットされ
る値である。
【0049】したがって、このようにすることで、三角
形の全体が画像内で可視である場合に、1の可視性値
が、三角形および位置データに関連付けられる。三角形
が、処理中の位置データによって定義される位置から見
られた時に他の三角形によってわずかにさえぎられるだ
けの場合すなわち、第2もしくは第3のいずれかの色で
レンダリングされた画素の総数に対する第3の色でレン
ダリングされた画素の分数が、閾値より大きいが1より
小さい場合には、1未満の値の可視性値が、画像位置の
三角形に関連付けられる。総数に対する第3の色でレン
ダリングされた画素の分数が、閾値未満の場合には、0
の可視性値が、位置データによって定義される位置から
見られた三角形に割り当てられる。
【0050】前に説明した、レンダリングによる三角形
とZバッファに保管された値を使用する三角形とに色を
付ける重み決定モジュール58の処理によって、2つの
小さい隣接する三角形が選択された視点で同一画素に写
像される場合であっても、三角形を処理できるようにな
る。具体的に言うと、三角形の深さが、画像の同一部分
に対応する三角形について類似する場合に、glPol
ygonOffset呼出しが、選択された視点から同
一の距離の他の三角形の前に第2の色をレンダリングす
る効果を有する。したがって、選択された三角形の可視
性を決定する時に、三角形は、定義された視点により近
い他の三角形によってさえぎられ、単に画像の同一部分
への同一距離の三角形のレンダリングによってさえぎら
れるのでない場合に限って、より低い可視性値を与えら
れる。
【0051】選択されたビューの三角形の可視性値を決
定した後に、重み決定モジュール58は、この可視性値
を使用して、選択された視点での三角形の可視性スコア
を計算し、保管する(S5−4)。
【0052】上で述べた形で可視性値を計算することに
よって、モデル内の三角形が選択された視点からさえぎ
らるまたはさえぎられない程度を示す値が決定される。
しかし、他の要因も、テクスチャ・データを生成するた
めの特定部分画像データの使用が好ましくなる可能性が
ある範囲に影響する。たとえば、クローズ・アップ画像
は、物体のテクスチャに関するより多くの情報を含む傾
向があり、したがって、テクスチャ・データの生成のた
めの好ましいソースになる可能性がある。特定の画像が
テクスチャ・データの生成のための使用に好ましいかど
うかを決定できるもう1つの要因が、画像の部分がどの
程度の斜角で見られるかである。したがって、本実施形
態では、ビューでの三角形の可視性スコアを、次式を使
用して重み決定モジュール58によって決定する。
【0053】
【数2】 ここで、θは、選択された三角形の重心の法線に対す
る、処理中の位置データによって識別される画像面を定
義するカメラの光心からの光線の入射の角度であり、距
離は、選択された三角形の重心とカメラの光心の間の距
離である。
【0054】したがって、この形で、本実施形態では、
オクルージョンの量、ビューの斜角、および画像面とモ
デリングされる三角形の間の距離のすべてが、可視性ス
コアに影響する。他の実施形態としては、これらの要因
の一部だけを使用するか、特定の要因により大きい重み
をおくかのいずれかが可能である。
【0055】特定の視点から知覚される特定の三角形の
可視性スコアを計算し、保管した後に、重み決定モジュ
ール58は、データが保管されたばかりの三角形が、表
面モデラ34によって生成されたモデル・データによっ
て識別される最後の三角形であるかどうかを決定する
(S5−5)。そうではない場合には、重み決定モジュ
ール58は、表面モデラ34によって生成されたデータ
・モデルの次の三角形を選択(S5−6)し、その後、
その、次の三角形について、可視性値を決定し(S5−
3)、可視性スコアを計算し、保管する(S5−4)。
【0056】重み決定モジュール58が、可視性スコア
が保管された三角形が表面モデラ34によって生成され
た3Dモデル・データの最後の三角形であると決定する
時には、重み決定モジュール58は、入力データ・スト
ア26に保管された入力画像の位置を定義する現在選択
されている位置が、位置決定モジュール32によって生
成された位置データの組の最後であるかどうかを決定す
る(S5−7)。そうでない場合には、重み決定モジュ
ール58は、位置データの次の組を選択し(S5−
8)、その新しい位置から知覚される三角形のそれぞれ
の可視性スコアを生成し、保管する(S5−2〜S5−
7)。
【0057】したがって、このようにして、重み決定モ
ジュール58は、入力データ・ストア26の入力画像デ
ータの視点に対応する視点のそれぞれから知覚される、
すべての三角形の可視性スコアを生成し、保管する。
【0058】図4に戻って、位置決定モジュール32に
よって生成された位置データに対応するカメラ・ビュー
のそれぞれから知覚される三角形のそれぞれについて可
視性スコアを保管した後に、重み決定モジュール58
は、隣接する三角形にまたがるスコアの滑らかな変動を
保証するために、各ビューで知覚された三角形の可視性
スコアの変更(S4−2)に進む。
【0059】本発明の本実施形態では、可視性スコア
が、テクスチャ・レンダリング・データを生成するため
に入力データ・ストア26に保管される異なる入力画像
の部分の使用に関する相対的な優先度を示す重み関数の
生成に使用される。異なる入力画像からの画像データの
選択が、テクスチャ・データの生成に異なる入力画像が
使用される場合の顕著な境界の作成をもたらさないよう
にするために、連続的で適度に滑らかな重み関数を生成
する重み関数データを生成し、その結果、異なるソース
からの画像データが互いにブレンディングされるように
する必要がある。本実施形態では、3Dモデル・データ
を形成する三角形が、かなり異なるサイズを有する可能
性があるので、そのような重みづけ関数の生成の第1ス
テージは、三角形サイズのこの変動を考慮するために、
モデルの諸区域にまたがって重みづけ値の平均をとるこ
とである。
【0060】図6は、特定の視点から知覚される三角形
に関連する可視性スコアを変更する、重み決定モジュー
ル58の詳細な処理の流れ図である。重み決定モジュー
ル58は、入力データ・ストア26に保管されている画
像データのビューのそれぞれに対応する三角形に関連す
る可視性スコア・データの組のそれぞれについて図6に
示された処理を繰り返し、その結果、位置決定モジュー
ル32によって決定された位置データによって識別され
る各視点から知覚される隣接する三角形に関連する可視
性スコア・データが、モデルの表面にわたって比較的滑
らかに変動するようにする。
【0061】まず(S6−1)、重み決定モジュール5
8が、表面モデラ34から出力された3Dモデル・デー
タによって識別される最初の三角形を選択する。
【0062】重み決定モジュール58は、その後(S6
−2)、処理中の視点から知覚された三角形の可視性の
保管された可視性スコアに、0がセットされているかど
うかを決定する。そうである場合には、可視性スコアの
変更は行われない(S6−3)。これによって、処理中
の視点から完全にさえぎられるか実質的にさえぎられる
と決定された三角形に関連する可視性スコアが、0の可
視性スコアに関連付けられたままになり、したがって、
その後に、テクスチャ・マップ・データの生成に使用さ
れないことが保証される。
【0063】重み決定モジュール58が、処理中の三角
形の可視性スコアが0と等しくないと決定する(S6−
2)場合には、重み決定モジュール58は、標準的な方
法を使用して、3D頂点から三角形の表面積を決定する
(S6−4)。重み決定モジュールは、その後(S6−
5)、総表面積が閾値を超えるかどうかを決定する。本
実施形態では、閾値が、6つのカノニカル・ビュー50
〜55によって定義される境界ボックスの長さの5%の
自乗と等しくなるようにセットされる。
【0064】重み決定モジュール58が、総表面積がこ
の閾値を超えないと決定する場合に、重み決定モジュー
ルは、検討中の三角形と2つの頂点を共有する3Dモデ
ル・データを有する、検討中の三角形に隣接する三角形
を選択する(S6−6)。重み決定モジュール58は、
選択された三角形および選択された三角形に隣接する三
角形の総表面を計算して(S6−4、S6−5)、処理
中の三角形に対する視点に対応する画像面へのこれらの
区域の投影の画素数が閾値を超えるかどうかをもう一度
決定する。この処理は、選択された三角形に対応する総
表面積が閾値を超えるまで繰り返される。
【0065】閾値を超えると決定される時に、重み決定
モジュール58は、中央の三角形に初期の改訂された可
視性スコアとしてセットし(S6−7)、ここで、初期
の改訂されたスコアは、表面によって重みづけされた現
在選択されている三角形のすべてに関係する可視性スコ
アの平均に等しい。
【0066】通常は最大の未変更の重みの10%にセッ
トされる閾値が、この改訂された初期可視性スコアから
減算される。三角形に関連する負の値は、すべて0にセ
ットされる。この閾値によって、低い重みに関連する三
角形が、0の可視性スコアに関連付けられるようにな
る。カメラ位置の計算の誤差、それ故の可視性スコアの
計算の誤差が、表面が実際には可視でない三角形に低い
重みを関連づける可能性がある。このようにして可視性
スコアを減らすことによって、そのような誤差が、生成
されるテクスチャ・マップ・データに後続の誤差を導入
しないことが保証される。その後、三角形に関する最終
的な改訂された可視性スコアを保管する。
【0067】図7および図8は、三角形のサイズとは無
関係に滑らかなスコアの変動を保証するために可視性ス
コアを改訂するためのモデルの区域の処理の例示的な図
である。
【0068】図7は、9つの三角形を含むモデルの区域
の例示的な図であり、これらの三角形のそれぞれは、め
いめいの三角形の中に示された数に対応する可視性スコ
アに関連する。
【0069】図7の中央の数1.0を有する中央のクロ
ス・ハッチングされた三角形に対応する三角形が最初に
処理される時に、三角形の面積が決定される。この面積
が、閾値未満と決定される場合に、図7では陰付きの三
角形である隣接する三角形が、選択され、クロス・ハッ
チングされた三角形および陰付きの三角形に対応する面
積が、決定される。
【0070】この値が、閾値より大きい場合には、三角
形に対する、面積によって重みづけされた平均が決定さ
れ、このスコアから閾値を引き、負の値に0をセットし
た後に、最終的な値が、中央の三角形の改訂された可視
性スコアとして保管される。
【0071】図8は、三角形の可視性スコアのすべてが
処理され、必要な場合に変更された後の、図7に示され
たものと同一の区域に対応するモデルの区域の例示的な
図である。図7および図8の三角形に関連する値を比較
することによってわかるように、図7で三角形が0に関
連する場合には必ず、その三角形が、図8で0に関連す
るままになっている。しかし、残りの三角形にまたがる
変動は、図7に示された変動よりなだらかである。とい
うのは、これらの新しいスコアが、図7の可視性スコア
の面積によって重みづけされた平均に対応するからであ
る。
【0072】図6に戻って、三角形について改訂された
可視性スコアを決定した後に、重み決定モジュール58
は、ある視点から見られた、モデル内の三角形に関する
可視性スコアのすべてを処理したかどうかを決定する
(S6−8)。そうでない場合には、重み決定モジュー
ル58は、処理のために次の三角形を選択する(S6−
9)。
【0073】したがって、このようにして、三角形に関
連する可視性スコアのすべてが処理され、その結果、可
視性スコアが、モデルの表面にわたって徐々に変化し、
モデルのうち、可視性スコアが生成された視点から実質
的に可視ではない全ての部分には0を与える。
【0074】図4に戻って、モデルの全体にわたる可視
性スコアの滑らかな変動を保証するために必要であっ
た、すべてのビューのすべての三角形の可視性スコアを
修正した後に、重み決定モジュール58は、すべてのビ
ューのすべての三角形の重み関数データを計算し(S4
−3)、その結果、定義された視点のそれぞれから見ら
れたモデルの表面の可視性を示す滑らかな重み関数を生
成できるようにする。
【0075】単一のビューに関するモデルの重み関数デ
ータを生成する重み決定モジュール58の処理を、図
9、図10A、および図10Bを参照して詳細に説明す
る。この処理は、他のビューについて繰り返され、その
結果、すべてのビューの重み関数データが生成される。
【0076】図9は、可視性スコアが決定され、修正さ
れた、位置決定モジュール32によって出力された位置
データの1組によって定義されるビューの表面モデラ3
4から受け取られた3Dモデル・データによって定義さ
れるモデルの表面の重み関数データを生成する重み決定
モジュール58の処理の流れ図である。
【0077】まず、重み決定モジュール58が、モデル
の最初の三角形を選択する(S9−1)。重み決定モジ
ュール58が、その後(S9−2)、選択された三角形
の頂点のそれぞれについて、その頂点を共有する、モデ
ル内の三角形に関連する最小の可視性スコアをセットす
る。この最小可視性スコアが、これらの頂点に対応する
モデルの点の重み関数データとして保管される。
【0078】重み決定モジュール58は、その後(S9
−3)、選択された三角形の辺のそれぞれについて、現
在選択されている三角形と、その共通の辺を共有する隣
接する三角形のうちでより小さい可視性スコアをセット
する。これらの値が、識別された辺のそれぞれの中点に
関連する重みを定義する重み関数データとして保管され
る。
【0079】重み決定モジュール58は、その後(S9
−4)、選択された三角形の重心に関連する重み関数デ
ータとして、現在選択されている三角形に関連する可視
性スコアを、重み関数データとして保管する。表面モデ
ラ34によって生成されたモデルの三角形のそれぞれの
頂点、辺、および重心について重み関数データを割り当
てることによって、後で説明するように、物体のモデル
の表面の全体の値を、モデルの表面の残りの点を補間す
ることによって決定することができる。
【0080】図10Aは、それぞれが可視性スコアに関
連する三角形の選択の例示的な例である。
【0081】図10Bは、0.5の可視性スコアに関連
する、図10Aの三角形の頂点、辺、および重心に関連
する重み関数の例である。
【0082】図10Bからわかるように、重み関数が共
通の辺または頂点を有する三角形に関連するスコアの最
小値になるように、三角形の頂点および辺の重み関数デ
ータを選択することによって、0の可視性スコアを有す
る三角形に隣接する三角形の辺または頂点に関連する重
み関数に、すべて0がセットされることが保証される。
【0083】各三角形の重心、辺、および頂点に重み関
数データを関連付けることによって、三角形の辺にその
後に関連付けられる重み値を、三角形の頂点が同一の値
に関連する場合であっても変更できることが保証され
る。したがって、たとえば図10Bでは、三角形の底辺
の中央部分に、0.5の値が関連し、三角形の底辺の2
つの頂点の両方に、0が関連する。単純な重み関数が使
用され、三角形の辺に沿った位置に関連する重みが、頂
点に割り当てられた重みだけによって決定される場合に
は、この変更を行うことができない。
【0084】図9に戻って、現在検討中の三角形の頂
点、辺、および重心について重み関数データを決定し、
保管した後に、重み決定モジュール58は、現在検討中
の三角形が、表面モデラ34によって生成されたモデル
の最後の三角形であるかどうかを決定する(S9−
5)。
【0085】そうでない場合には、次の三角形を選択し
(S9−6)、新たに選択された三角形について、重み
関数データを決定し、保管する(S9−2〜S9−
4)。
【0086】したがって、このようにすることで、モデ
ル化される物体の表面にまたがって滑らかに変化し、モ
デルのうちで重み関数に関連する視点から可視でないす
べての部分について0になる重み関数を生成するための
重み関数データが、生成される。
【0087】図4に戻って、位置決定モジュール32に
よって生成された位置データに対応するカメラ・ビュー
のそれぞれについて重み関数データを決定した後に、こ
の重み関数データが、重み決定モジュール58によって
テクスチャ・マップ決定モジュール59に出力され(S
4−4)、その結果、テクスチャ・マップ決定モジュー
ル59が、生成されたモデルのテクスチャ・マップを生
成するのに使用される画像データの部分を選択するの
に、計算された重み関数データを使用できるようにな
る。
【0088】<テクスチャ・マップの生成>通常のテク
スチャ・レンダリング技法を使用すると、カノニカル・
ビュー50〜55のそれぞれから知覚される投影された
画像に対応する画像データを生成することが可能にな
り、対象物体のモデルの表面が、画像データについて位
置決定モジュール32によって出力された位置データに
対応するカメラ視点から記録されたものとして識別され
る入力画像データを使用してテクスチャ・レンダリング
される。
【0089】出力重み関数データからの、カノニカル・
ビュー50〜55のそれぞれから見られたモデルの表面
の計算された重み関数に従ってテクスチャ・レンダリン
グされたモデルの表面の投影に対応する、投影された画
像を生成するために従来の技法を使用することも可能で
ある。
【0090】上で説明したように、重み決定モジュール
58によって生成され出力された重み関数データは、定
義された視点からのモデルの表面の諸部分の相対的な可
視性を表すように計算される。したがって、重み関数の
投影された画像は、カノニカル・ビューのそれぞれにつ
いてテクスチャ・マップのテクスチャ・データを生成す
るための、対応する視点からの画像データの投影の対応
する部分の使用の相対優先度を示す。したがって、これ
らの投影された重み関数画像(以下ではカノニカル信頼
画像と称する)を使用して、カノニカル・ビュー50〜
55の出力テクスチャ・マップを生成するためにブレン
ディングされる、投影された画像データの部分を選択す
ることができる。
【0091】図11は、入力データ・ストア26に保管
された画像データ、位置決定モジュール32によって出
力された位置データ、表面モデラ34によって生成され
た3Dモデル・データ、および重み決定モジュール58
によって出力された重み関数データから、カノニカル・
ビュー50〜55のそれぞれのカノニカル・テクスチャ
・マップを生成する、テクスチャ・マップ決定モジュー
ル59の概念的機能モジュールの概略図である。
【0092】本出願人は、画像内でハイライトおよび影
などの高周波数の詳細を維持しながらグローバルな照明
効果を平均化するために異なる形で画像をブレンディン
グすることによって、対象物体のモデルの現実的なテク
スチャの生成を達成できることを認識した。
【0093】したがって、本発明の本実施形態によれ
ば、テクスチャ生成モジュール59に、入力データ・ス
トア26に保管された画像データから低周波数画像情報
を抽出する低周波数画像生成モジュール60と、高周波
数カノニカル画像投影および低周波数カノニカル画像投
影を生成する画像投影モジュール62と、カノニカル信
頼画像を生成する信頼画像生成モジュール64と、ブレ
ンディングされた高周波数カノニカル画像および低周波
数カノニカル画像を生成するために高周波数カノニカル
投影および低周波数カノニカル投影とカノニカル信頼画
像を処理する加重平均フィルタ66およびブレンディン
グ・モジュール68と、高周波数画像と低周波数画像を
組み合わせ、カノニカル・ビュー50〜55のそれぞれ
のテクスチャ・マップとして組み合わされた画像を出力
する出力の再組合せモジュール70が含まれる。
【0094】6つのカノニカル・ビューのそれぞれに投
影される、入力データ・ストア26に保管された入力画
像のそれぞれの高周波数カノニカル投影および低周波数
カノニカル投影を生成するために、まず、入力データ・
ストア26内の画像データの各項目を、低周波数画像生
成モジュール60に渡す。
【0095】このモジュール60は、各画像のブラーお
よびサブサンプリングを行うことにより、従来の方法で
ビューのそれぞれの画像データを処理することによっ
て、低周波数画像の組を生成する。本実施形態では、ブ
ラー動作が、ガウス・ブラー動作を実行することによっ
て達成され、ガウス・ブラー動作では、ブラー半径が、
6つのカノニカル・ビュー50〜55によって定義され
る物体境界ボックスの中央に配置され、境界ボックスの
対角線の長さの5%の辺を有する立方体の投影のサイズ
になるように選択される。このようなブラー半径の選択
によって、半径が画像解像度とは独立しており、画像が
対象物体のクローズ・アップである(大きい半径)か対
象が画像内で小さく見える(小さい半径)かに応じて変
化することが保証される。
【0096】これらの低周波数画像は、入力データ・ス
トア26に保管された元の画像データのコピー、位置決
定モジュール32によって決定された画像のそれぞれの
位置データ、および表面モデラ34によって生成された
モデルの3Dモデル・データと共に、画像投影モジュー
ル62に渡される。
【0097】入力データ・ストア26からの入力画像の
それぞれについて、画像投影モジュールは、画像に関連
する位置データおよび表面モデラ34によって出力され
た3Dモデル・データを使用して、標準的なテクスチャ
・レンダリング技法を使用することによって、6つのカ
ノニカル・ビュー50〜55から知覚される入力画像の
計算された投影を決定する。
【0098】同じようにして、画像投影モジュール62
は、低周波数画像生成モジュール60によって処理され
た画像データに対応する低周波数画像のそれぞれについ
て、6つのカノニカル・ビュー50〜55の6つの低周
波数カノニカル投影を生成する。
【0099】各画像の6つの高周波数カノニカル画像投
影は、画像投影モジュール62によって差分動作を実行
することにより決定される。すなわち画像投影モジュー
ル62は、指定されたカノニカル・ビューから見られた
画像の低周波数カノニカル画像投影をそのビューの生画
像データの対応する画像投影から引く処理を行う。
【0100】その後、6つのカノニカル・ビューのそれ
ぞれの各画像の低周波数カノニカル投影および高周波数
カノニカル投影が、後で説明する処理のために、加重平
均フィルタ66およびブレンディング・モジュール68
に渡される。
【0101】このようにして、入力データ・ストア26
からの画像データを処理することによって、この画像の
処理によって、互いに一貫性がある各画像の高周波数カ
ノニカル投影および低周波数カノニカル投影が生成され
ることを保証することができる。対照的に、ブラー動作
が、入力データ・ストア26に保管された画像データか
ら作成されたカノニカル画像投影に対して実行される場
合には、これらの生成された投影の画素データが、通常
は元の画像データの異なる領域に依存するので、ブラー
動作が、6つのすべてのカノニカル画像にまたがって一
貫性を有しなくなり、したがって、生成されるテクスチ
ャ・マップに誤差が導入される。
【0102】信頼画像生成モジュール64は、表面モデ
ラ34からの3Dモデル・データおよび重み決定モジュ
ール58からの重み関数データを受け取るように配置さ
れる。信頼画像生成モジュール64は、3Dモデル・デ
ータおよび重み関数データを処理して、入力データ・ス
トア26内の各入力画像の視点に対応する視点に関連す
る重み関数のそれぞれについて、6つのカノニカル・ビ
ュー50〜55のカノニカル信頼画像の組を生成する。
【0103】具体的に言うと、重み関数が保管された三
角形のそれぞれが、まず、三角形の各辺の中点を他の2
つの辺の中点に連結し、各辺の中点のそれぞれを三角形
の重心に連結することによって処理される。これらの定
義された小さい三角形のそれぞれが、6つのカノニカル
・ビューに投影され、各小さい三角形の投影の各部分に
対応する点の値が、これらの小さい三角形の頂点に関連
する重み関数データから、標準OpenGL「スムーズ
・シェーディング」補間を使用して補間される。
【0104】したがって、このようにすることで、6つ
のカノニカル・ビューのそれぞれについて、重み関数の
それぞれについてカノニカル信頼画像が生成される。こ
のようにして生成されたカノニカル信頼画像の画素値
は、それぞれ、テクスチャ・マップ・データを生成する
ために重み関数が生成された視点を表す画像データのカ
ノニカル投影の対応する部分の使用の相対的案優先度を
表す。これらのカノニカル信頼画像は、加重平均フィル
タ66およびブレンディング・モジュール68に渡さ
れ、その結果、6つのカノニカル・ビューのテクスチャ
・データを、テクスチャ・マップ・データの部分を生成
するための好ましいソースを識別するデータを使用して
生成することができるようになる。
【0105】したがって、低周波数画像生成モジュール
60、画像投影モジュール62、および信頼画像生成モ
ジュール64による画像データおよび重み関数データの
処理の後に、加重平均フィルタ66およびブレンディン
グ・モジュール68が、入力データ・ストア26に保管
された画像データの各項目について、指定された画像か
ら導出された投影された画像の諸部分がテクスチャ・デ
ータの生成に好ましい程度を識別する6つのカノニカル
信頼画像の組と、画像データの項目に対応する高周波数
画像または低周波数画像のいずれかの6つの投影の組を
受け取る。加重平均フィルタ66およびブレンディング
・モジュール68は、これから詳細に説明するように、
カノニカル・ビューのそれぞれについて、信頼画像およ
び関連する低周波数カノニカル投影および高周波数カノ
ニカル投影の処理を交互に行う。
【0106】<低周波数カノニカル投影の処理>図12
は、入力データ・ストア26に保管された入力画像の組
のそれぞれの、指定されたカノニカル・ビューの低周波
数カノニカル投影および関連するカノニカル信頼画像の
処理の流れ図である。
【0107】まず(S12−1)、加重平均フィルタ6
6が、最初の低周波数カノニカル投影およびそれに関連
する位信頼画像を選択する。これは、加重平均フィルタ
66によって生成される初期低周波数カノニカル画像の
基礎にされる。加重平均フィルタ66は、同一のカノニ
カル・ビューの次の低周波数投影を、その投影に関連す
る信頼画像と共に選択する(S12−2)。
【0108】加重平均フィルタ66は、その後(S12
−3)、新しい低周波数カノニカル画像として、画像内
の画素ごとに、次式を使用して信頼スコアによって重み
を付けられた、現在の低周波数カノニカル画像と選択さ
れた低周波数カノニカル投影の加重平均を含むカノニカ
ル画像を決定する。
【0109】
【数3】 ここで、Cは、カノニカル画像について処理中の画素に
関連する現在の信頼スコアであり、Ciは、選択された
投影に関連する信頼画像の画素に関連する信頼スコアで
ある。
【0110】その後、カノニカル画像内の画素の信頼ス
コアを、処理される最新の投影の信頼スコアを現在の信
頼スコアに加算することによって更新する。すなわち、
新しい信頼スコアCnewは、次式によって計算される。
【0111】Cnew=Cold+Ciここで、Coldは、現
在の画素に関連する信頼スコアの前の信頼スコアであ
り、Ciは、処理中の投影内の現在の画素の信頼スコア
である。
【0112】加重平均フィルタ66は、その後(S12
−4)、最新の選択された低周波数カノニカル投影が、
現在計算中のカノニカル・ビューの最後の低周波数カノ
ニカル投影であるかどうかを決定する。そうでない場合
には、加重平均フィルタ66は、決定された組み合わさ
れた画像を使用して、次の信頼画像および関連する低周
波数画像投影を使用して新しい組み合わされた画像を生
成する処理に進む(S12−2〜S12−4)。
【0113】加重平均フィルタ66が、指定されたカノ
ニカル・ビュー50〜55の最後の低周波数カノニカル
投影を処理したと決定する時(S12−4)には、加重
平均フィルタ66は、ブレンディングされたカノニカル
低周波数画像として、加重平均フィルタ66によって処
理された最後の投影された画像の加重平均を使用して生
成された画像を出力する(S12−5)。
【0114】したがって、このようにして、加重平均フ
ィルタ66が、カノニカル・ビュー50〜55のそれぞ
れについて、カノニカル信頼画像内のモデルの表面テク
スチャを最もよく表すものとして識別される画像の部分
を示す信頼スコアによって重みを付けられた低周波数カ
ノニカル投影のそれぞれを組み合わせることによって、
低周波数画像の生成を可能にする。低周波数画像は、グ
ローバル照明効果によって影響される表面の平均ローカ
ル色を表す。加重平均フィルタ66によるこの処理によ
って、モデルの諸部分が最も簡単に見られる画像により
大きい重みが置かれ、これらのグローバル照明効果が最
適の使用可能な画像にまたがって平均される場合に、カ
ノニカル低周波数画像の生成が可能になり、カノニカル
低周波数画像に、現実的な外見と自然な色合いが見える
ようにする。
【0115】<高周波数カノニカル投影の処理>図13
は、カノニカル・ビュー50〜55のうちの1つのカノ
ニカル高周波数画像を生成するための、カノニカル信頼
画像および関連する高周波数カノニカル投影の処理の流
れ図である。この処理は、カノニカル・ビュー50〜5
5のそれぞれについて繰り返される。
【0116】高周波数カノニカル画像を生成するための
ブレンディング・モジュール68の処理は、カノニカル
投影およびカノニカル画像の画素の加重平均を決定する
のではなく、この実施形態ではブレンディング・モジュ
ール68がカノニカル画像データ画像データとして、最
も大きい信頼スコアに関連する画素データを選択するこ
とを除いて、加重平均フィルタ66の処理のそれと同一
である。
【0117】具体的に言うと、初期の高周波数投影およ
び関連する信頼画像が初期高周波数カノニカル画像およ
び関連する信頼画像になるように選択し(S13−
1)、処理のために次の投影および信頼画像を選択し
(S13−2)た後に、ブレンディング・モジュール6
8は、現在の高周波数カノニカル画像内の画素を更新す
る(S13−3)。
【0118】これは、ブレンディング・モジュール68
が、画像内の画素ごとに、処理中の高周波数カノニカル
投影内の対応する画素の画素データまたは現在の高周波
数カノニカル画像の画素データのいずれかを選択するこ
とによって達成される。選択は、画素ごとに、処理中の
高周波数投影に関連する信頼画像内の対応する画素が、
現在のカノニカル画像内の画素に関連する信頼スコアよ
り高い信頼スコアを有するかどうかを決定することによ
って行われる。最高のスコアに関連する画素データが、
カノニカル画像の画素データとして使用される。更新さ
れたカノニカル画像内の画素に関連する信頼スコアに
は、カノニカル画像に関連する信頼画像または現在処理
中の投影のいずれかによって識別される画素の信頼スコ
アの大きい方がセットされる。
【0119】ブレンディング・モジュール68は、カノ
ニカル・ビューの高周波数画像投影のすべてが処理され
たかどうかを決定する(S13−4)。そうでない場合
には、次の投影および信頼画像を使用して、生成される
高周波数カノニカル画像を更新する(S13−2〜S1
3−4)。すべてのカノニカル投影を処理した時に、最
終的なカノニカル画像を出力する(S13−5)。
【0120】したがって、このようにすることで、高周
波数カノニカル画像の各画素が、その画素の信頼スコア
のうちの最も大きい信頼スコアに関連する、使用可能な
高周波数画像投影からの画素データに対応する場合に、
使用可能な高周波数画像投影のすべてを使用して、高周
波数カノニカル画像が生成される。信頼スコアは、画像
データを生成するための画素の選択の相対的なよさを示
すので、高周波数カノニカル画像は、高周波数カノニカ
ル画像の各部分の最良の使用可能な画素データのパッチ
ワークに対応する。
【0121】したがって、このようにすることで、6つ
のカノニカル・ビュー50〜55の6つの低周波数カノ
ニカル画像と、6つの高周波数カノニカル画像が、それ
ぞれ加重平均フィルタ66およびブレンディング・モジ
ュール68によって生成される。カノニカル低周波数画
像では、グローバル照明効果が、投影に関連するカノニ
カル信頼画像によって識別される画像の部分の使用の相
対的な優先度に比例して、使用可能な低周波数カノニカ
ル投影の間で平均される。高周波数カノニカル画像で
は、高周波数カノニカル投影が、上で説明した形で選択
されて、異なる高周波数カノニカル投影が組み合わされ
る時に、カノニカル画像内の高周波数の詳細およびコン
トラストが維持されることが保証される。
【0122】6つのカノニカル低周波数画像および6つ
のカノニカル高周波数画像が、その後、カノニカル・ビ
ュー50〜55のそれぞれについて、再組合せ出力モジ
ュール70によって受け取られ、再組合せおよび出力モ
ジュール70が、各ビューの高周波数画像および低周波
数画像を加算することによって、単一のカノニカル・テ
クスチャ・マップを生成する。組み合わされたカノニカ
ル・テクスチャ・マップは、表面モジュール34によっ
て生成された3Dモデル・データと共に、出力データ・
ストア44での保管のために、再組合せおよび出力モジ
ュール70によって出力される。
【0123】出力カノニカル・テクスチャ・マップは、
3次元モデル・データによって識別される三角形のそれ
ぞれをテクスチャ・マップの1つと関連付けることによ
って、表面モデラ34によって生成されたモデルの画像
表現をテクスチャ・レンダリングするのに使用すること
ができる。本実施形態では、各三角形をテクスチャ・レ
ンダリングするためのテクスチャ・データの選択が、三
角形が最大の可視性スコアを有するマップを、使用され
るマップとして選択することによって決定され、ここ
で、可視性スコアは、図5に関して前に説明したのと同
一の形で、カノニカル・ビュー50〜55のそれぞれに
ついて計算される。表面モデラ34によって生成された
モデルをテクスチャ・レンダリングするためのテクスチ
ャ座標は、選択されたカノニカル・ビュー50〜55へ
の三角形の投影によって暗黙のうちに定義される。
【0124】その後、対象物体のモデルの画像を、表示
装置4での表示のために、出力データ・ストア44に保
管された出力カノニカル・テクスチャ・マップおよび3
Dモデル・データを使用して、すべての視点について得
ることができ、生成された画像のハード・コピーは、プ
リンタを使用して作ることができる。出力データ・スト
ア44に保管されたモデル・データおよびテクスチャ・
マップは、記憶装置46および48にデータとして出力
することもできる。
【0125】[第2の実施形態]本発明の第1の実施形
態では、異なる視点から記録された対象物体の複数の画
像を定義する入力データを処理して、対象物体のモデル
を囲む立方体のビューである6つのカノニカル・テクス
チャ・マップを含むテクスチャ・データを生成する画像
処理装置について説明した。このようにしてテクスチャ
・マップを生成することによって、必要なビューの総数
が6個に制限されることが保証されるが、モデル内のす
べての三角形がカノニカル・ビューのうち、少なくとも
一つで可視になることは保証されない。その結果、モデ
ルのある部分が、モデルの表面の異なる部分に対応する
表面情報を使用してテクスチャ・レンダリングされる可
能性がある。本発明の本実施形態では、3Dモデルのす
べての三角形が、対象物体の対応する部分を表す画像デ
ータが使用可能である場合に、対象物体の表面の対応す
る部分のテクスチャ・データを使用してレンダリングさ
れることを保証するテクスチャ・データを生成する画像
処理装置について説明する。
【0126】本発明の本実施形態に従った画像処理装置
は、表面テクスチャラ36が、修正された表面テクスチ
ャラ80によって置換されることを除いて、前述の第1
の実施形態の画像処理装置と同一である。
【0127】図14は、修正された表面テクスチャラ・
モジュール80の概念的機能モジュールの概略ブロック
図である。修正された表面テクスチャラ80には、カノ
ニカル・ビュー決定モジュール82、前の実施形態の表
面テクスチャラ36の重み決定モジュール58と同一の
重み決定モジュール58、および修正されたテクスチャ
・マップ決定モジュール86が含まれる。
【0128】本実施形態では、カノニカル・ビュー決定
モジュール82が、表面モデラ34によって出力された
3Dモデル・データから、3Dモデルの表面の部分が6
つの初期カノニカル・ビューから可視でないかどうかを
決定するように配置される。そうであると決定される場
合には、カノニカル・ビュー決定モジュール82は、こ
れらの三角形のテクスチャ・データを保管するためのカ
ノニカル・ビューのさらなる組の定義に進む。これらの
ビュー定義は、テクスチャ・マップ決定モジュール86
に渡される。修正されたテクスチャ・マップ決定モジュ
ール86は、初期カノニカル・ビューおよびこれらの追
加のカノニカル・ビューのカノニカル・テクスチャ・マ
ップ・データを生成し、これらが、表面モデラ34によ
って生成されたモデルの表面のテクスチャ・レンダリン
グに使用される。
【0129】本発明の本実施形態によるカノニカル・ビ
ュー決定モジュール82の処理を、カノニカル・ビュー
決定モジュール82の処理の流れ図である図15を参照
して、これから説明する。
【0130】まず(S15−1)、カノニカル・ビュー
決定モジュール82が、表面モデラ34によって生成さ
れたモデルの最初の三角形を選択する。カノニカル・ビ
ュー決定モジュール82は、その後(S15−2)、前
の実施形態に関して前に説明したように可視性値が重み
決定モジュール58によって生成されるのに類似する形
で、6つのカノニカル・ビューのそれぞれから知覚され
る三角形の可視性値および可視性スコアを生成する。
【0131】カノニカル・ビュー決定モジュール82
は、その後(S15−3)、処理中の三角形に関連する
可視性値が、閾値より大きく、その三角形がビューの少
なくとも1つで少なくとも実質的に可視であることが示
されるかどうかを決定する。本実施形態では、この閾値
に0がセットされ、その結果、ビューの1つで少なくと
も75%可視であるすべての三角形が、実質的に可視と
して識別される。
【0132】カノニカル・ビュー決定モジュール82
が、処理中の三角形が可視である、すなわち、少なくと
も1つのビューで0より大きい可視性値を有すると決定
する場合には、カノニカル・ビュー決定モジュールは、
使用可能なカノニカル・ビューから、前に説明した形で
生成される最大の可視性スコアが三角形に関連付けられ
るビューを選択する。選択された三角形が最も可視であ
るカノニカル・ビューを識別するデータを、保管する。
したがって、このようにして、後に使用される三角形を
レンダリングするためのテクスチャ・データのカノニカ
ル・ビューを識別するデータが、生成される。
【0133】カノニカル・ビュー決定モジュール82
は、その後(S15−5)、現在選択されている三角形
が、表面モデラ34によって生成された3Dモデルの最
後の三角形に対応するかどうかを決定する。そうでない
場合には、カノニカル・ビュー決定モジュール82は、
次の三角形の選択に進み、その、次の三角形の可視性値
および可視性スコアを決定する(S15−6〜S15−
5)。
【0134】カノニカル・ビュー決定モジュール82
が、三角形のすべてが処理されたと決定する(S15−
5)時には、カノニカル・ビュー決定モジュール82
は、最良のビューを識別するデータが、すべての三角形
について保管されたかどうかを決定する(S15−
7)。
【0135】そうでない場合には、カノニカル・ビュー
決定モジュール82は、最良ビュー・データが保管され
ていない三角形のリストを生成し、保管し(S15−
8)、カノニカル・ビュー決定モジュール82は、その
後、最良ビュー・データが既に保管された三角形なし
で、6つのカノニカル・ビューでのこれらの残りの三角
形の可視性の確立に進む(S15−1〜S15−7)。
この処理は、すべての三角形について最良ビュー・デー
タが保管されるまで繰り返される。
【0136】カノニカル・ビュー決定モジュール82
が、すべての三角形について最良ビュー・データを保管
したと決定する(S15−7)時には、カノニカル・ビ
ュー決定モジュール82は、三角形のそれぞれについ
て、その三角形が最も可視であるカノニカル・ビュー
を、三角形不可視カノニカル・ビューの生成されたリス
トと共に含むビュー定義データを出力する(S15−
9)。これらのリストおよび、三角形を最もよく表現す
ると識別されたビューが、出力され、修正されたテクス
チャ・マップ決定モジュール86に渡される。
【0137】修正されたテクスチャ・マップ決定モジュ
ール86は、3Dモデル・データ、重み関数データ、画
像データ、および位置データを処理する時に、第1の実
施形態に関して説明したものと同一の形で、6つの元の
カノニカル・ビューを生成する。
【0138】しかし、テクスチャ・マップ決定モジュー
ル86は、さらに、カノニカル・ビュー決定モジュール
82によって出力されたリストによって、元の6つのカ
ノニカル・ビューで可視でないと識別される三角形につ
いて、他の三角形なしで6つのカノニカル・ビューでカ
ノニカル・ビュー決定モジュール82によって生成され
た三角形のリストによって識別される三角形の投影に対
応するさらなるテクスチャ・マップを生成する。これら
の追加のカノニカル・ビューは、修正されたテクスチャ
・マップ決定モジュール86の画像投影モジュール62
によって生成された画像データの高周波数カノニカル投
影および低周波数カノニカル投影と、カノニカル・ビュ
ー決定モジュール82によって出力された三角形のリス
トによって識別される三角形だけのカノニカル投影であ
る追加のカノニカル信頼画像から生成される。これらの
追加の信頼画像は、第1の実施形態に関して前に説明し
たものと同一の形で、重み決定モジュール58によって
生成された重み関数データを使用してリスト内で識別さ
れた三角形について計算される。
【0139】したがって、このようにして、追加のテク
スチャ・マップが、モデルの表面のうちで元の6つのカ
ノニカル・ビューに現れない部分について生成される。
これらの部分的な追加のテクスチャ・マップは、主カノ
ニカル・ビューに類似する形で生成されるので、これら
も、画像の部分の投影を表し、標準的な画像圧縮技法を
使用する圧縮に適する。
【0140】元のカノニカル・ビューを、これらの追加
のカノニカル・ビューと共に使用して、各三角形のレン
ダリングに使用されるテクスチャ・マップが、カノニカ
ル・ビュー決定モジュール82によって出力されるリス
トおよび最良のビューを識別するデータを使用して選択
される場合に、モデルのテクスチャ・レンダリングに使
用することができる。
【0141】[第3の実施形態]本発明の第3の実施形
態を、これから説明する。第1の実施形態では、関連す
る信頼画像内の対応する画素の最高の信頼スコアに関連
する画素に対応する画素データを選択するブレンディン
グ・モジュール68について説明した。そのような選択
システムに関する問題は、異なる画像ソースからの画素
データの選択を表す境界が、生成されるテクスチャ・マ
ップ・データ内に現れる可能性があることである。加重
平均フィルタ66によって実行されるものなどの平均化
動作を実行するというこの問題に対する明白な解決策
は、テクスチャ・マップ・データ内のコントラストが失
われるので、望ましくない。本実施形態では、ブレンデ
ィング・モジュール68が、画像コントラストを維持し
ながら、テクスチャ・マップ・データ内で顕著な境界が
生じないようにする形で高周波数カノニカル投影を処理
するように配置される。
【0142】図16は、本発明の本実施形態による、ブ
レンディング・モジュール68によるカノニカル信頼画
像および関連する高周波数カノニカル画像投影の処理の
流れ図である。
【0143】まず(S16−1)、ブレンディング・モ
ジュール68が、カノニカル高周波数画像を生成するカ
ノニカル・ビューの高周波数カノニカル投影の最初の1
つを選択し、選択された最初の高周波数投影に対応する
画像を、初期カノニカル高周波数画像としてセットす
る。
【0144】ブレンディング・モジュール68は、その
後(S16−2)、そのカノニカル・ビューの次の高周
波数カノニカル投影と、それに関連するカノニカル信頼
画像を処理のために選択する。
【0145】その後(S16−3)、カノニカル高周波
数画像の最初の画素を選択し、ブレンディング・モジュ
ール68は、その後(S16−4)、高周波数カノニカ
ル画像内の選択された画素について、現在の高周波数カ
ノニカル画像内の画素と、処理中の高周波数カノニカル
投影内の対応する画素内との間の差分値を決定する。
【0146】本実施形態では、高周波数カノニカル投影
およびカノニカル高周波数画像に、カラー・データが含
まれる場合には、この差分値は、選択された高周波数カ
ノニカル投影および生成中のカノニカル高周波数画像の
対応する画素の赤チャネル、緑チャネル、および青チャ
ネルのそれぞれの対応する値の間の差分の合計を決定す
ることによって計算することができる。
【0147】一方、処理中の画像にグレイ・スケール・
データが含まれる場合には、この差分値を、カノニカル
高周波数画像の画素と、処理中の高周波数カノニカル投
影の対応する画素との間の差分を計算することによって
決定することができる。
【0148】より一般的に、カラー・データが処理され
る本発明のさらなる実施形態で、処理中の高周波数カノ
ニカル投影と生成中のカノニカル高周波数画像の対応す
る画素の赤チャネル、緑チャネル、および青チャネルの
値の適当な関数を使用して、画素の差分値を生成できる
ことを了解されたい。
【0149】処理中の画素の差分値を決定した後に、ブ
レンディング・モジュール68は、画素に関連する信頼
スコアおよび決定された画素の差分値から、選択された
画素のブレンド関数を決定する(S16−5)。
【0150】本実施形態では、このブレンド関数が、ま
ず、決定された画素の差分値に依存する勾配Gを選択す
ることによって決定される。具体的に言うと、本実施形
態では、値Gが、次式によって計算される。
【0151】
【数4】 ここで、Dは、決定された画素の差分値であり、D
0は、重みづけ係数が画像間で検出された差分に起因し
て変更される範囲を固定するブレンド定数である。本実
施形態では、差分値Dが、それぞれが0から255まで
変化する3つのカラー・チャネルについてカラー画像デ
ータから計算される場合、D0の値には60がセットさ
れる。
【0152】現在のカノニカル高周波数画像内の処理中
の画素と、処理中の高周波数カノニカル投影内の対応す
る画素との間の加重平均を計算するための初期重みづけ
分数は、次式を計算することによってセットされる。
【0153】
【数5】 ここで、Ci/(C+Ci)は、選択された高周波数カ
ノニカル投影に関連する信頼画像内の処理中の画素に関
連する相対信頼スコアであり、カノニカル画像によって
画素に関連付けられた信頼スコアに対する処理中の現在
の画像内の画素に関連する信頼スコアCiの比率であ
り、Gは、画素の決定された差分値Dを使用して決定さ
れる勾配である。
【0154】最終的な重みづけ分数は、次式によって重
みづけ値Wをセットすることによって決定される。
【0155】W0<0の場合、W=0 W0>1の場合、W=1 0≦W0≦1の場合、W=W0 図17は、このようにして計算される最終的な重みづけ
値Wが、処理中の画素の相対信頼スコアCi/(C+C
i)および画素の決定された差分値Dに応じて変化する
形を示す、生成されるブレンド関数のグラフである。
【0156】図示のグラフでは、実線72が、Dが高い
値に等しい場合、たとえば、Dが0と765の間の範囲
であるこの実施形態では、700を超える値の場合の、
重みづけ値のWを計算するためのグラフを示す。したが
って、このグラフでは、特定のソースの相対信頼スコア
が低い場合に、0の重みづけ値が選択され、高い画素信
頼スコアの場合に、1の重みづけ値が選択されることが
示されている。中間の画素信頼スコアの場合、中間の重
みづけ係数が決定され、この重みづけ係数は、信頼スコ
アが増えるにつれて増える。
【0157】図17の破線74は、ある画素に関する第
1画像および第2画像の画像データの間の差分の計算さ
れた値Dが、ブレンド定数D0以下である場合のブレン
ド関数を示す図である。この場合、ブレンド関数は、重
みづけ値に画素の画素相対信頼スコアに等しい値をセッ
トする関数からなる。
【0158】Dの中間の値の場合、ブレンド関数は、実
線72と破線74の間で変化する。閾値がそれを下回る
か上回る場合に0または1の重みづけ値が出力され、D
の減少につれて減少し、増加する。したがって、Dが減
少するにつれて、相対信頼スコアのうちで、0または1
以外の重みづけ値が出力される部分の比率が、増える。
【0159】図16に戻って、最終的な重みづけ値Wを
決定した後に、ブレンディング・モジュール68は、検
討中の画素のブレンディングされた画素データの計算お
よび保管(S16−6)に進む。本実施形態では、画像
データにカラー画像データが含まれる場合、計算される
ブレンディングされた画素データが、次式によって3つ
のカラー・チャネルのそれぞれについて決定される。
【0160】新しい画素値=W×[選択された画像の画
素値]+(1−W)×[カノニカル画像の画素値] その後、ブレンディングされた画素に関連する信頼値
も、カノニカル画像内の画素に関連する現在の信頼スコ
アと処理中の投影内の画素の信頼スコアのうちの大きい
方を画素の新しい信頼スコアとして選択し、保管するこ
とによって、更新される。
【0161】このようにして、高周波数カノニカル画像
の画素の画素データを計算することの効果は、画素デー
タが、差分データと、選択された高周波数カノニカル投
影の処理される画素に関連する信頼データとの両方に依
存するようになることである。具体的に言うと、画素の
差分データが小さい(すなわち、ブレンド定数D0
下)の場合に、関連するカノニカル画像の画素の相対信
頼スコアに比例する加重平均に対応する計算された画素
データが、使用される。差分データが大きい(すなわ
ち、ブレンド定数D0を超える)場合には、1対の閾値
が、差分データの実際の値に基づいて設定される。その
後、画素データが、関連するカノニカル画像の画素の相
対信頼スコアに応じて、2つの異なる形で生成される。
相対信頼スコアが、これらの閾値の両方より大きいか両
方より小さい場合に、カノニカル画像の元の画素データ
または選択された高周波数カノニカル投影の画素データ
のいずれかだけが、合成画像データとして使用される。
相対信頼スコアが、閾値の間にある場合には、元の画素
データと選択された投影からの画素データの加重平均が
使用される。
【0162】生成された画素データを保管した後に、ブ
レンディング・モジュール68は、現在検討中の画素
が、カノニカル画像の最後の画素であるかどうかを決定
する(S16−7)。そうでない場合には、非線形平均
フィルタが、次の画素を選択し(S16−8)、次の画
素に関する、差分値の決定(S16−4)、ブレンド関
数の決定(S16−5)、および画素データの計算およ
び保管(S16−6)を繰り返す。
【0163】画素に関して生成された画素データおよび
改訂された信頼スコアを保管した後に、ブレンディング
・モジュール68が、ブレンディングされた画素データ
が、高周波数カノニカル画像のすべての画素について保
管されたと決定する(S16−7)場合に、ブレンディ
ング・モジュール68は、選択された高周波数カノニカ
ル投影および関連する信頼画像が、処理される最後の高
周波数カノニカル投影および信頼画像であるかどうかを
決定する(S16−9)。そうでない場合には、次の高
周波数カノニカル投影を選択し(S16−2)、この新
たに選択された投影およびそれに関連する信頼画像を使
用して、カノニカル高周波数画像を更新する(S16−
3〜S16−6)。
【0164】ブレンディング・モジュール68が、カノ
ニカル高周波数画像の更新に使用された最新の高周波数
カノニカル投影が、最後の高周波数カノニカル投影であ
ると決定する時に、ブレンディング・モジュール68
は、カノニカル・ビュー50〜55の高周波数画像とし
て、最終的な高周波数投影によって更新された高周波数
カノニカル画像を出力する(S16−10)。
【0165】本出願人は、詳細を表すデータを含む高周
波数画像データからの画素の加重平均を決定することに
よる合成画像データ生成の望ましくない効果が、画像の
うちで、ソース・データの異なる項目が大きく異なる区
域で生じることを認識した。したがって、たとえば、ハ
イライトが、あるソース画像のある点で発生するが、別
のソース画像の同一の点で発生しない場合に、画像にま
たがる平均が、ハイライトのコントラストの消失をもた
らす。2つの画像のハイライトが、2つのソース画像内
の異なる点で発生する場合には、平均によって、合成画
像の別の部分での「ゴースト」ハイライトの生成ももた
らされる可能性がある。同様に、ソース・データの異な
る項目が、大きく異なる場合に、他の望ましくない影響
が、影の点で発生し、この場合、平均動作が、画像が均
一に照らされて見え、したがって平坦に見えるようにす
るという傾向を有する。
【0166】ソース画像の間の差の区域が異なり、異な
るソース画像内の対応する点が類似する外見を有する場
合には、平均動作によって、明白な画像品質の劣化は生
じない。したがって、合成画像のそのような区域にわた
って平均を実行することによって、ソース画像から得ら
れる合成画像の区域の間の境界を目立たなくするよう
に、画像データの異なるソースに付加された相対重みを
変更できる手段が提供される。
【0167】したがって、本発明の本実施形態によれ
ば、重みづけ係数が、画素の信頼データと差分データの
両方に基づいて選択され、その結果、加重平均フィルタ
66で発生する信頼データだけに比例する重みづけ係数
に対して相対的に、ブレンディング・モジュール68内
で、ソース画像の間の差分が大きいと決定される場合
に、好ましいソース・データに与えられる重みづけが増
やされ、より好ましくないデータに与えられる対応する
重みづけが減らされる。
【0168】したがって、信頼データと差分データの両
方が大きい場合に、より大きい重みを特定のソースに与
えるか、好ましいソース・データだけを使用して、合成
画像データを生成する。これらの区域は、高周波数画像
の詳細およびハイライトまたは影の区域に対応するの
で、結果の生成されるデータの詳細およびコントラスト
が維持される。
【0169】画像データの異なるソースの間の差が小さ
い区域では、信頼データに比例する重みづけ値が、全く
変更されないかごくわずかに変更され、その結果、異な
る画像から生成された画像データの部分の間の境界が、
これらの区域にまたがって最小化される。したがって、
このようにすることで、元の高周波数ソース・データの
コントラストおよび詳細のレベルを維持しながら、合成
画像のうちでソース・データの異なる項目から生成され
る部分の間の明白な境界が最小化された、合成画像デー
タを得ることができる。
【0170】上記の実施形態では、対象物体の画像の組
を、その対象物体の表現を生成するための3Dモデル・
データおよびテクスチャ・レンダ・データを生成するの
に使用されるものとして説明した。しかし、ある物体の
画像を使用して得られるテクスチャ・レンダ・データ
は、たとえば、第2の物体の表現を生成するのに使用す
ることができる。ある物体について得られたモデルと、
第2の物体から導出されたテクスチャの混合を使用し
て、異なる物体からのテクスチャの適用によってモデル
の外見を変更する方法を確立することができる。
【0171】具体的に言うと、任意の数のビューからの
第1の物体の信頼画像を、前に説明したのものに類似す
る形で生成することができる。異なる物体のソース画像
を、そのソース画像が生成されたかのように信頼画像を
使用して処理することができる。この形でのソース画像
の処理によって、ソース画像のテクスチャが第1の物体
の表面にわたって滑らかにブレンディングされたテクス
チャ・データが生成される。
【0172】したがって、たとえば、複数の信頼画像
を、モデルのビューについて生成することができる。複
数の視点からモデルの1側面に向かって見られたモデル
の信頼画像を、たとえば木目などの第1テクスチャの画
像と関連付けることができる。モデルの残りの信頼画像
を、たとえば大理石などの第2テクスチャに関連付ける
ことができる。生成された信頼画像を用いてこれら2つ
のソース画像を処理することによって、モデルの1側面
が木目のテクスチャを有して現れ、他の側面が大理石の
テクスチャを有して現れ、これら2つのテクスチャがモ
デルの表面にわたって滑らかにブレンディングされたテ
クスチャ・データが生成される。
【0173】一方では、限られた数のテクスチャ画像だ
けを使用するのではなく、信頼画像が生成された視点か
ら見られた異なる物体の画像を使用することができる。
したがって、たとえば、第1物体のモデルの画像を、複
数の視点について、前に説明したように生成することが
できる。第2物体の信頼画像を、これらの対応する視点
について生成することができ、第2物体のテクスチャ・
データを、第2物体の信頼画像を使用して第1物体の画
像を処理することによって得ることができる。
【0174】図面に関して説明した本発明の実施形態に
は、コンピュータ装置およびコンピュータ装置内で実行
される処理が含まれるが、本発明は、本発明を実行する
ように適合された、コンピュータ・プログラム、具体的
には担体上または担体内のコンピュータ・プログラムに
も拡張される。プログラムは、ソースまたはオブジェク
ト・コードの形式、もしくは、本発明に従った処理を実
行する用途に適した他の形式のいずれでもよい。担体
は、プログラムを担持することができるあらゆる実体ま
たは装置である。
【0175】たとえば、担体には、ROM、たとえばC
D−ROMまたは半導体ROMなどの記憶媒体、もしく
は、たとえばフロッピ・ディスクまたはハード・ディス
クなどの磁気記録媒体を含めることができる。さらに、
担体は、電気ケーブルまたは光ケーブルを介するか無線
または他の手段によって伝えることができる電気信号ま
たは光学信号などの伝送可能な担体とすることができ
る。
【0176】プログラムが、ケーブルもしくは他の装置
または手段によって直接に伝えることができる信号で実
施される時に、担体は、ケーブルもしくは他の装置また
は手段によって構成される。
【0177】一方、担体を、プログラムが組み込まれる
集積回路とすることができ、その集積回路は、関連する
処理を実行するためまたはその実行に使用するために適
合される。
【図面の簡単な説明】
【図1】本発明の第1の実施形態の概略ブロック図であ
る。
【図2】例示的対象物体を囲む6つのテクスチャ・マッ
プの位置および向きの例示的な図である。
【図3】図1の表面テクスチャラの概略ブロック図であ
る。
【図4】図3の重み決定モジュールの処理の流れ図であ
る。
【図5】入力画像内の物体の表面の諸部分の可視性を決
定するための処理の流れ図である。
【図6】スコアの比較的滑らかな変動を保証するための
可視性スコアの処理の流れ図である。
【図7】スコアの滑らかな変動を保証するモデルの区域
の処理の例示的な図である。
【図8】スコアの滑らかな変動を保証するモデルの区域
の処理の例示的な図である。
【図9】重み関数データの生成の流れ図である。
【図10A】関連する可視性スコアに関する三角形の選
択の例示的な例である。
【図10B】生成された重み関数データの例示的な例で
ある。
【図11】テクスチャ・マップ決定モジュールの概略ブ
ロック図である。
【図12】低周波数カノニカル投影の処理の流れ図であ
る。
【図13】高周波数カノニカル投影の処理の流れ図であ
る。
【図14】本発明の第2の実施形態による表面テクスチ
ャラの概略ブロック図である。
【図15】図14の表面テクスチャラのカノニカル・ビ
ュー決定モジュールの処理の流れ図である。
【図16】本発明の第3の実施形態による高周波数カノ
ニカル投影の処理の流れ図である。
【図17】生成されたブレンド関数を示すグラフであ
る。
フロントページの続き Fターム(参考) 5B050 BA06 BA09 EA26 EA28 FA02 FA03 5B080 BA02 BA05 GA22 5L096 AA09 CA04 EA26 FA26

Claims (38)

    【特許請求の範囲】
  1. 【請求項1】 事前に定義されたビューからの対象の少
    なくとも一部の画像の複数の異なる空間周波数の画像情
    報を表す周波数成分画像データを生成する方法であっ
    て、 複数の視点からの対象を表す画像データを含む複数の画
    像を受け取るステップと、 受け取った前記複数の画像のそれぞれについて、前記受
    け取られた画像内の複数の異なる空間周波数の画像情報
    を表す周波数成分画像データを決定し、前記事前に定義
    されたビューに投影された前記周波数成分画像データの
    投影を決定するステップと、 前記複数の異なる空間周波数のそれぞれについて、前記
    事前に定義されたビューからの前記対象の少なくとも一
    部の画像の空間周波数情報を表す周波数成分画像データ
    を生成するために、周波数成分画像データの前記投影を
    使用するステップとを含む方法。
  2. 【請求項2】 より低い空間周波数を表す周波数成分画
    像データの決定が、前記受け取られた画像データを使用
    するブラーおよびサブサンプリング動作を実行すること
    によって決定されることを特徴とする請求項1に記載の
    方法。
  3. 【請求項3】 より高い周波数を表す周波数成分画像デ
    ータの決定が、前記より低い周波数成分画像データおよ
    び前記受け取られた画像データを使用して差分動作を実
    行することによって決定されることを特徴とする請求項
    2に記載の方法。
  4. 【請求項4】 前記周波数成分画像データの前記投影
    が、 前記複数の受け取られた画像から、前記画像によって表
    される対象の視点の相対位置を決定するステップと、 前記複数の画像および前記決定された位置から、前記対
    象の表面を表すモデル・データを決定するステップと、 前記位置データおよび前記対象の表面の前記モデル・デ
    ータを使用して前記投影を決定するステップとを実行す
    ることによって決定されることを特徴とする請求項1乃
    至3のいずれか1項に記載の方法。
  5. 【請求項5】 前記受け取られた画像の前記複数の視点
    の相対位置を示す位置データの前記決定が、視点の相対
    位置および向きを決定するために前記画像内の特徴をマ
    ッチングすることを特徴とする請求項4に記載の方法。
  6. 【請求項6】 モデル・データの前記生成が、前記複数
    の受け取られた画像のそれぞれについて、 画像のうちで対象に対応する部分を決定するステップ
    と、 前記画像の前記部分の周囲の決定および前記画像の視点
    を示す位置データを使用してモデル・データを生成する
    ステップとを含むことを特徴とする請求項4又は5に記
    載の方法。
  7. 【請求項7】 周波数成分画像データの前記生成が、周
    波数成分画像データが生成される空間周波数のそれぞれ
    について、 前記画像の対応する部分に関する前記空間周波数の空間
    周波数情報を表す周波数成分画像データを決定するため
    に、周波数成分画像データの前記投影の各部分を使用す
    るステップを含むことを特徴とする請求項1乃至6のい
    ずれか1項に記載の方法。
  8. 【請求項8】 画像の異なる空間周波数の周波数成分画
    像データの前記生成が、異なる空間周波数について異な
    る形で周波数成分画像データの投影の前記対応する部分
    から生成されることを特徴とする請求項7に記載の方
    法。
  9. 【請求項9】 周波数成分画像データの前記生成が、さ
    らに、 前記複数の画像のそれぞれについて、前記視点からの前
    記対象の表面の部分の相対可視性を示す可視性データを
    決定するステップと、 周波数成分画像データの前記投影の部分を前記可視性デ
    ータに関連付けるステップと、 前記事前に定義されたビューからの前記対象の画像の周
    波数画像情報を表す周波数成分画像データを決定するた
    めに、前記投影の部分に関連する前記可視性データを使
    用するステップとを含むことを特徴とする請求項7又は
    8に記載の方法。
  10. 【請求項10】 前記異なる空間周波数の少なくとも1
    つの周波数成分画像データの前記生成が、前記空間周波
    数の前記画像の各部分について、画像データの前記部分
    に関連する前記可視性データによって重みを付けられ
    た、前記画像の前記部分の周波数成分画像データの投影
    の対応する部分の加重平均を計算することによって生成
    されることを特徴とする請求項9に記載の方法。
  11. 【請求項11】 前記異なる空間周波数の少なくとも1
    つの周波数成分画像データの前記生成が、前記空間周波
    数の前記画像データの各画素について、最高の可視性を
    示す可視性データに関連する周波数成分画像データの投
    影の前記対応する部分を選択することによって生成され
    ることを特徴とする請求項9に記載の方法。
  12. 【請求項12】 事前に定義された視点からの対象の画
    像を表す画像データを生成する方法であって、 請求項1乃至11のいずれか1項に記載の方法に従っ
    て、前記事前に定義されたビューからの対象の画像の複
    数の異なる空間周波数の画像情報を表す周波数成分画像
    データを生成するステップと、 前記周波数成分画像データを使用して、前記対象の前記
    画像を表す画像データを生成するステップとを含むこと
    を特徴とする方法。
  13. 【請求項13】 画像データの前記生成が、前記画像の
    各部分について、前記異なる空間周波数の周波数成分画
    像データの合計を決定することを含むことを特徴とする
    請求項12に記載の方法。
  14. 【請求項14】 前記生成された画像データを出力する
    ステップをさらに含むことを特徴とする請求項12又は
    請求項13に記載の方法。
  15. 【請求項15】 対象のモデルをテクスチャ・レンダリ
    ングするためのテクスチャ・マップ・データを生成する
    方法であって、 請求項12又は13に記載の方法に従って、複数の事前
    に定義されたビューからの対象の複数の画像を生成する
    ステップを含むことを特徴とする方法。
  16. 【請求項16】 前記複数の事前に定義されたビュー
    が、前記対象を囲む立方体の表面からのビューを示す視
    点からの対象のビューを含むことを特徴とする請求項1
    5に記載の方法。
  17. 【請求項17】 選択された視点からの対象の画像の画
    像データを生成する方法であって、 請求項15又は16に従ってテクスチャ・マップ・デー
    タを生成するステップと、 前記選択された視点から知覚される前記モデル・データ
    によって定義される3次元モデルの投影を決定するステ
    ップと、 前記テクスチャ・マップ・データを使用して前記モデル
    の前記投影をテクスチャ・レンダリングするステップと
    を含むことを特徴とする方法。
  18. 【請求項18】 選択された視点からの対象の前記生成
    された画像データを出力するステップをさらに含むこと
    を特徴とする請求項17に記載の方法。
  19. 【請求項19】 事前に定義されたビューからの対象の
    少なくとも一部の画像の複数の異なる空間周波数の画像
    情報を表す周波数成分画像データを生成する装置であっ
    て、 複数の視点からの対象を表す画像データを含む複数の画
    像を受け取る手段と、 前記複数の受け取られた画像のそれぞれについて、前記
    受取手段によって受け取られた前記画像内の複数の異な
    る空間周波数の画像情報を表す周波数成分画像データを
    決定し、前記事前に定義されたビューに投影された前記
    周波数成分画像データの投影を決定する手段と、 前記複数の異なる空間周波数のそれぞれについて、前記
    事前に定義されたビューからの前記対象の少なくとも一
    部の画像の空間周波数情報を表す周波数成分画像データ
    を生成するために、周波数成分画像データの前記投影を
    使用する手段とを備えることを特徴とする装置。
  20. 【請求項20】 前記決定する手段が、より低い空間周
    波数を表す周波数成分画像データを、前記受取手段によ
    って受け取られた前記画像データを使用するブラーおよ
    びサブサンプリング動作を実行することによって決定す
    るように配置されることを特徴とする請求項19に記載
    の装置。
  21. 【請求項21】 前記決定する手段が、より高い周波数
    を表す周波数成分画像データの決定を、前記より低い周
    波数成分画像データおよび前記受取手段によって受け取
    られた前記画像データを使用して差分動作を実行するこ
    とによって決定するように配置されることを特徴とする
    請求項20に記載の装置。
  22. 【請求項22】 前記周波数成分データを決定する手段
    が、 前記複数の受け取られた画像から、前記画像によって表
    される対象の視点の相対位置を決定する手段と、 前記複数の画像および前記決定された位置から、前記対
    象の表面を表すモデル・データを決定するモデリング手
    段と、 前記位置データおよび前記対象の表面の前記モデル・デ
    ータを使用して前記投影を決定する手段とを備えること
    を特徴とする請求項19乃至21のいずれか1項に記載
    の装置。
  23. 【請求項23】 相対位置を決定する前記手段が、前記
    受け取られた画像の前記複数の視点の相対位置を示す位
    置データを、視点の相対位置および向きを決定するため
    に前記画像内の特徴をマッチングすることによって決定
    するように配置されることを特徴とする請求項22に記
    載の装置。
  24. 【請求項24】 前記モデリング手段が、 画像のうちで対象に対応する部分を決定することと、 前記画像の前記部分の周囲の決定および前記画像の視点
    を示す位置データを使用してモデル・データを生成する
    こととによってモデル・データを生成するように配置さ
    れることを特徴とする請求項22又は23に記載の装
    置。
  25. 【請求項25】 前記使用する手段が、異なる空間周波
    数の周波数成分画像データを、前記画像の対応する部分
    に関する前記空間周波数の空間周波数情報を表す周波数
    成分画像データを決定するために、ある周波数の周波数
    成分画像データの前記投影の各部分を使用することによ
    って生成するように配置されることを特徴とする請求項
    19乃至24のいずれか1項に記載の装置。
  26. 【請求項26】 前記使用する手段が、画像の異なる空
    間周波数の周波数成分画像データを、異なる空間周波数
    について異なる形で周波数成分画像データの投影の前記
    対応する部分から生成するように配置されることを特徴
    とする請求項25に記載の装置。
  27. 【請求項27】 前記使用する手段が、さらに、 前記視点からの前記対象の表面の部分の相対可視性を示
    す可視性データを決定する手段と、 周波数成分画像データの前記投影の部分を前記可視性デ
    ータに関連付ける手段と、 前記事前に定義されたビューからの前記対象の画像の周
    波数画像情報を表す周波数成分画像データを決定するた
    めに、前記投影の部分に関連する前記可視性データを使
    用する処理手段とを備えることを特徴とする請求項25
    又は請求項26に記載の装置。
  28. 【請求項28】 前記処理手段が、前記空間周波数の前
    記画像の各部分について、画像データの前記部分に関連
    する前記可視性データによって重みを付けられた、前記
    画像の前記部分の周波数成分画像データの投影の対応す
    る部分の加重平均を計算することによって、周波数成分
    画像データを生成するように配置されることを特徴とす
    る請求項27に記載の装置。
  29. 【請求項29】 前記処理手段が、前記空間周波数の前
    記画像データの各画素について、最高の可視性を示す可
    視性データに関連する周波数成分画像データの投影の前
    記対応する部分を選択することによって、周波数成分画
    像データを生成するように配置されることを特徴とする
    請求項27に記載の装置。
  30. 【請求項30】 事前に定義された視点からの対象の画
    像を表す画像データを生成する装置であって、 請求項19乃至29のいずれか1項に記載の装置を含
    む、前記事前に定義されたビューからの対象の画像の複
    数の異なる空間周波数の画像情報を表す周波数成分画像
    データを生成する手段と、 前記周波数成分画像データを使用して、前記対象の前記
    画像を表す画像データを生成する手段とを備えることを
    特徴とする装置。
  31. 【請求項31】 画像データを生成する前記手段が、前
    記画像の各部分について、前記異なる空間周波数の周波
    数成分画像データの合計を決定するように配置されるこ
    とを特徴とする請求項30に記載の装置。
  32. 【請求項32】 前記生成された画像データを出力する
    出力手段をさらに備えることを特徴とする請求項30又
    は請求項31に記載の装置。
  33. 【請求項33】 選択された視点からの対象の画像デー
    タを生成する装置であって、 請求項30、請求項31、又は32のいずれか1項に記
    載の装置を含み、前記対象のモデルをテクスチャ・レン
    ダリングするためのテクスチャ・マップ・データを生成
    するマップ生成手段と、 前記選択された視点から知覚される3次元コンピュータ
    ・モデルの投影を決定する手段と、 前記マップ生成手段によって生成されたテクスチャ・マ
    ップ・データを使用して前記投影をテクスチャ・レンダ
    リングする手段とを備えることを特徴とする装置。
  34. 【請求項34】 テクスチャ・レンダリング・データを
    生成する装置であって、 複数の信頼画像を生成するように動作可能な信頼画像ジ
    ェネレータであって、前記信頼画像が定義された視点か
    らの物体の表面の部分の相対可視性を表す、信頼画像ジ
    ェネレータと、 前記信頼画像のそれぞれをソース画像に関連付けるよう
    に動作可能な関連付けユニットであって、ソース画像の
    少なくとも1つが、前記信頼画像によって表される定義
    された視点からの前記物体の画像以外の画像を含む、関
    連付けユニットと、 前記関連付けられた信頼画像の対応する部分に基づいて
    前記ソース画像の部分を選択することによってテクスチ
    ャ・レンダリング・データを生成するように動作可能な
    テクスチャ・ジェネレータとを備えることを特徴とする
    装置。
  35. 【請求項35】 テクスチャ・レンダリング・データを
    生成する方法であって、 複数の信頼画像を生成するステップであって、前記信頼
    画像は定義された視点からの物体の表面の部分の相対可
    視性を表すステップと、 前記信頼画像のそれぞれをソース画像に関連付けるステ
    ップであって、ソース画像の少なくとも1つが、前記信
    頼画像によって表される定義された視点からの前記物体
    の画像以外の画像を含むステップと、 前記関連付けられた信頼画像の対応する部分に基づいて
    前記ソース画像の部分を選択することによってテクスチ
    ャ・レンダリング・データを生成するステップとを含む
    ことを特徴とする方法。
  36. 【請求項36】 請求項19乃至34のいずれか1項に
    記載の装置をプログラム可能コンピュータ内で生成する
    コンピュータ実施可能処理ステップを保管する記録媒
    体。
  37. 【請求項37】 請求項1乃至18又は35のいずれか
    1項に記載の方法をプログラム可能コンピュータに実行
    させるコンピュータ実施可能処理ステップを保管する記
    録媒体。
  38. 【請求項38】 コンピュータ・ディスクを含むことを
    特徴とする請求項36又は37に記載の記録媒体。
JP2001331574A 2000-10-27 2001-10-29 画像生成の方法および装置 Expired - Fee Related JP3782709B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB0026343A GB0026343D0 (en) 2000-10-27 2000-10-27 Image generation method and apparatus
GB0026343.4 2000-10-27
GB0112204A GB0112204D0 (en) 2000-10-27 2001-05-18 Image generation method and apparatus
GB0112204.3 2001-05-18

Publications (2)

Publication Number Publication Date
JP2002183761A true JP2002183761A (ja) 2002-06-28
JP3782709B2 JP3782709B2 (ja) 2006-06-07

Family

ID=26245204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001331574A Expired - Fee Related JP3782709B2 (ja) 2000-10-27 2001-10-29 画像生成の方法および装置

Country Status (4)

Country Link
US (2) US7120289B2 (ja)
EP (1) EP1204073B1 (ja)
JP (1) JP3782709B2 (ja)
DE (1) DE60126387D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524851A (ja) * 2017-06-23 2020-08-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. テクスチャマップ及びメッシュに基づく3d画像情報の処理

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004042546A1 (en) * 2002-11-04 2004-05-21 V-Target Technologies Ltd. Apparatus and methods for imaging and attenuation correction
US8909325B2 (en) 2000-08-21 2014-12-09 Biosensors International Group, Ltd. Radioactive emission detector equipped with a position tracking system and utilization thereof with medical systems and in medical procedures
US8489176B1 (en) 2000-08-21 2013-07-16 Spectrum Dynamics Llc Radioactive emission detector equipped with a position tracking system and utilization thereof with medical systems and in medical procedures
US8565860B2 (en) 2000-08-21 2013-10-22 Biosensors International Group, Ltd. Radioactive emission detector equipped with a position tracking system
US8036731B2 (en) 2001-01-22 2011-10-11 Spectrum Dynamics Llc Ingestible pill for diagnosing a gastrointestinal tract
EP1204073B1 (en) * 2000-10-27 2007-01-31 Canon Kabushiki Kaisha Image generation method and apparatus
IL157007A0 (en) 2001-01-22 2004-02-08 Target Technologies Ltd V Ingestible device
GB0126526D0 (en) * 2001-11-05 2002-01-02 Canon Europa Nv Three-dimensional computer modelling
GB2383245B (en) 2001-11-05 2005-05-18 Canon Europa Nv Image processing apparatus
EP1347418A3 (en) 2002-02-28 2005-11-23 Canon Europa N.V. Texture map editing
GB0208909D0 (en) 2002-04-18 2002-05-29 Canon Europa Nv Three-dimensional computer modelling
US20040116807A1 (en) * 2002-10-17 2004-06-17 Roni Amrami Blood vessels wall imaging catheter
GB0224449D0 (en) 2002-10-21 2002-11-27 Canon Europa Nv Apparatus and method for generating texture maps for use in 3D computer graphics
GB2394873B (en) 2002-10-29 2005-12-28 Canon Europa Nv Apparatus and method for generating texture maps for use in 3D computer graphics
US7069108B2 (en) 2002-12-10 2006-06-27 Jostens, Inc. Automated engraving of a customized jewelry item
GB2398469B (en) * 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
JP2004252603A (ja) * 2003-02-18 2004-09-09 Canon Inc 三次元データ処理方法
GB2400288B (en) 2003-04-02 2005-12-28 Canon Europa Nv Generating texture maps for use in 3D computer graphics
GB2405775B (en) * 2003-09-05 2008-04-02 Canon Europa Nv 3D computer surface model generation
GB2406252B (en) 2003-09-18 2008-04-02 Canon Europa Nv Generation of texture maps for use in 3d computer graphics
JP2005100040A (ja) * 2003-09-24 2005-04-14 Fuji Photo Film Co Ltd テクスチャの生成システムおよびその生成方法
US7561990B2 (en) * 2003-09-29 2009-07-14 Autodesk, Inc. Interactive triangulated irregular network (TIN) surfaces design
US7523396B2 (en) * 2003-09-29 2009-04-21 Autodesk, Inc. Surface construction audit trail and manipulation
US20050091016A1 (en) * 2003-09-29 2005-04-28 Autodesk, Inc. Surface smoothing techniques
GB2407953A (en) * 2003-11-07 2005-05-11 Canon Europa Nv Texture data editing for three-dimensional computer graphics
US9040016B2 (en) 2004-01-13 2015-05-26 Biosensors International Group, Ltd. Diagnostic kit and methods for radioimaging myocardial perfusion
US7968851B2 (en) 2004-01-13 2011-06-28 Spectrum Dynamics Llc Dynamic spect camera
US8586932B2 (en) 2004-11-09 2013-11-19 Spectrum Dynamics Llc System and method for radioactive emission measurement
US8571881B2 (en) 2004-11-09 2013-10-29 Spectrum Dynamics, Llc Radiopharmaceutical dispensing, administration, and imaging
WO2006075333A2 (en) 2005-01-13 2006-07-20 Spectrum Dynamics Llc Multi-dimensional image reconstruction and analysis for expert-system diagnosis
US9470801B2 (en) 2004-01-13 2016-10-18 Spectrum Dynamics Llc Gating with anatomically varying durations
CN1981210A (zh) * 2004-01-13 2007-06-13 光谱动力学有限责任公司 多维图像重构
US8085266B2 (en) * 2004-04-19 2011-12-27 Jostens, Inc. System and method for smoothing three dimensional images
EP1766550A2 (en) * 2004-06-01 2007-03-28 Spectrum Dynamics LLC Methods of view selection for radioactive emission measurements
EP1778957A4 (en) 2004-06-01 2015-12-23 Biosensors Int Group Ltd OPTIMIZING THE MEASUREMENT OF RADIOACTIVE EMISSIONS IN SPECIFIC BODY STRUCTURES
GB2415344B (en) 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
US9943274B2 (en) 2004-11-09 2018-04-17 Spectrum Dynamics Medical Limited Radioimaging using low dose isotope
US8000773B2 (en) 2004-11-09 2011-08-16 Spectrum Dynamics Llc Radioimaging
US9316743B2 (en) 2004-11-09 2016-04-19 Biosensors International Group, Ltd. System and method for radioactive emission measurement
EP1827505A4 (en) 2004-11-09 2017-07-12 Biosensors International Group, Ltd. Radioimaging
US8615405B2 (en) 2004-11-09 2013-12-24 Biosensors International Group, Ltd. Imaging system customization using data from radiopharmaceutical-associated data carrier
WO2008059489A2 (en) 2006-11-13 2008-05-22 Spectrum Dynamics Llc Radioimaging applications of and novel formulations of teboroxime
US7711162B2 (en) * 2005-01-27 2010-05-04 Siemens Medical Solutions Usa, Inc. Accelerated texture-based fusion renderer
EP1908011B1 (en) 2005-07-19 2013-09-04 Spectrum Dynamics LLC Reconstruction stabilizer and active vision
US8837793B2 (en) 2005-07-19 2014-09-16 Biosensors International Group, Ltd. Reconstruction stabilizer and active vision
US8644910B2 (en) 2005-07-19 2014-02-04 Biosensors International Group, Ltd. Imaging protocols
US7680314B2 (en) * 2005-10-17 2010-03-16 Siemens Medical Solutions Usa, Inc. Devices, systems, and methods for improving image consistency
EP1952180B1 (en) * 2005-11-09 2017-01-04 Biosensors International Group, Ltd. Dynamic spect camera
WO2007074466A2 (en) 2005-12-28 2007-07-05 Starhome Gmbh Late forwarding to local voicemail system of calls to roaming users
US7751592B1 (en) 2006-01-13 2010-07-06 Google Inc. Scoring items
US7873196B2 (en) * 2006-03-22 2011-01-18 Cornell Research Foundation, Inc. Medical imaging visibility index system and method for cancer lesions
US8894974B2 (en) 2006-05-11 2014-11-25 Spectrum Dynamics Llc Radiopharmaceuticals for diagnosis and therapy
WO2008075362A2 (en) 2006-12-20 2008-06-26 Spectrum Dynamics Llc A method, a system, and an apparatus for using and processing multidimensional data
WO2008089441A1 (en) 2007-01-18 2008-07-24 Jostens, Inc. System and method for generating instructions for customization
WO2008112796A1 (en) 2007-03-12 2008-09-18 Jostens, Inc. Method for embellishment placement
US8471853B2 (en) * 2007-10-26 2013-06-25 Via Technologies, Inc. Reconstructable geometry shadow mapping method
US8521253B2 (en) 2007-10-29 2013-08-27 Spectrum Dynamics Llc Prostate imaging
US8364561B2 (en) * 2009-05-26 2013-01-29 Embodee Corp. Garment digitization system and method
US8700477B2 (en) * 2009-05-26 2014-04-15 Embodee Corp. Garment fit portrayal system and method
US8338788B2 (en) 2009-07-29 2012-12-25 Spectrum Dynamics Llc Method and system of optimized volumetric imaging
US8977377B2 (en) 2010-02-25 2015-03-10 Jostens, Inc. Method for digital manufacturing of jewelry items
KR101232729B1 (ko) * 2011-01-28 2013-02-13 한국과학기술연구원 자세 교정 방법 및 시스템
US9196086B2 (en) * 2011-04-26 2015-11-24 Here Global B.V. Method, system, and computer-readable data storage device for creating and displaying three-dimensional features on an electronic map display
US9208265B2 (en) 2011-12-02 2015-12-08 Jostens, Inc. System and method for jewelry design
US9582615B2 (en) 2013-01-16 2017-02-28 Jostens, Inc. Modeling using thin plate spline technology
USD789228S1 (en) 2013-11-25 2017-06-13 Jostens, Inc. Bezel for a ring
CN104836977B (zh) * 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及系统
WO2016014020A1 (en) 2014-07-21 2016-01-28 Hewlett-Packard Development Company, L.P. Radial histogram matching
US20170124726A1 (en) * 2015-11-02 2017-05-04 Canon Kabushiki Kaisha System and method for determining wall thickness
JP2019040229A (ja) * 2017-08-22 2019-03-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2019045723A1 (en) * 2017-08-31 2019-03-07 Sony Mobile Communications Inc. METHODS, DEVICES, AND COMPUTER PROGRAM PRODUCTS FOR 3D MESH TEXTURING
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
WO2019142179A1 (en) * 2018-01-21 2019-07-25 Anzu Virtual Reality Ltd An object viewability determination system and method
US10515477B2 (en) * 2018-02-06 2019-12-24 A9.Com, Inc. Photorealistic three dimensional texturing using canonical views and a two-stage approach
US10762702B1 (en) * 2018-06-22 2020-09-01 A9.Com, Inc. Rendering three-dimensional models on mobile devices
EP3850587A1 (en) * 2018-09-13 2021-07-21 Sony Corporation Methods, devices, and computer program products for improved 3d mesh texturing
US11665372B2 (en) * 2019-01-07 2023-05-30 Samsung Electronics Co., Ltd. Fast projection method in video-based point cloud compression codecs
CN109961418A (zh) * 2019-03-19 2019-07-02 中国林业科学研究院资源信息研究所 一种基于多时相光学遥感数据的无云影像合成算法
US11915377B1 (en) 2021-02-18 2024-02-27 Splunk Inc. Collaboration spaces in networked remote collaboration sessions
US11893675B1 (en) 2021-02-18 2024-02-06 Splunk Inc. Processing updated sensor data for remote collaboration
WO2022178239A1 (en) * 2021-02-18 2022-08-25 Splunk Inc. Mesh retexturing in an extended reality environment
US11948338B1 (en) * 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2003A (en) * 1841-03-12 Improvement in horizontal windivhlls
JPH02121481A (ja) 1988-10-28 1990-05-09 Nippon Telegr & Teleph Corp <Ntt> 画像蓄積方式
US5414803A (en) * 1991-01-11 1995-05-09 Hewlett-Packard Company Method utilizing frequency domain representations for generating two-dimensional views of three-dimensional objects
JPH06259571A (ja) 1993-03-04 1994-09-16 Matsushita Electric Ind Co Ltd 画像合成装置
JP2883514B2 (ja) 1993-06-10 1999-04-19 株式会社ナムコ 画像合成装置およびこれを用いたゲーム装置
JPH07230555A (ja) 1993-12-22 1995-08-29 Matsushita Electric Ind Co Ltd ミップマップ画像生成装置および生成方法
JP3704734B2 (ja) 1994-01-26 2005-10-12 株式会社日立製作所 テクスチャマッピング方法及び装置
JPH08147494A (ja) 1994-11-17 1996-06-07 Matsushita Electric Ind Co Ltd 頭髪画像生成装置
US5649078A (en) * 1995-03-22 1997-07-15 International Business Machines Corporation Efficient two-pass rasterization scheme utilizing visibility information
US5872572A (en) 1995-12-08 1999-02-16 International Business Machines Corporation Method and apparatus for generating non-uniform resolution image data
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
JP3625624B2 (ja) 1996-08-30 2005-03-02 三洋電機株式会社 テクスチャ情報付与方法、テクスチャ情報付与プログラムを記録した媒体およびテクスチャ情報付与装置
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US6160557A (en) * 1996-10-17 2000-12-12 International Business Machines Corporation Method and apparatus providing efficient rasterization with data dependent adaptations
US6204859B1 (en) 1997-10-15 2001-03-20 Digital Equipment Corporation Method and apparatus for compositing colors of images with memory constraints for storing pixel data
JPH11328441A (ja) 1998-05-11 1999-11-30 Hitachi Ltd グラフィックス表示制御方法およびコンピュータグラフイックス
US6157743A (en) * 1998-07-31 2000-12-05 Hewlett Packard Company Method for retrieving compressed texture data from a memory system
US6178392B1 (en) 1998-09-22 2001-01-23 Intel Corporation Method for combining the computer models of two surfaces in 3-D space
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6271847B1 (en) * 1998-09-25 2001-08-07 Microsoft Corporation Inverse texture mapping using weighted pyramid blending and view-dependent weight maps
JP2000137815A (ja) 1998-11-02 2000-05-16 Gen Tec:Kk 新視点画像生成方法
JP2000268189A (ja) 1999-03-18 2000-09-29 Airemu Software Engineering Kk 画像表示方法、画像表示装置およびそれを備えた遊技機並びにプログラムを記憶した記憶媒体
JP4308367B2 (ja) 1999-06-02 2009-08-05 株式会社バンダイナムコゲームス 3次元画像生成装置および環境マップの生成方法
GB9921777D0 (en) 1999-09-16 1999-11-17 Koninkl Philips Electronics Nv Method and apparatus for handling translucency in 3d graphics
JP2001126084A (ja) 1999-10-28 2001-05-11 Sega Corp テクスチャ表示装置、テクスチャ表示方法及び記録媒体
US7728848B2 (en) * 2000-03-28 2010-06-01 DG FastChannel, Inc. Tools for 3D mesh and texture manipulation
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
GB2362793B (en) 2000-05-24 2004-06-02 Canon Kk Image processing apparatus
EP1204073B1 (en) 2000-10-27 2007-01-31 Canon Kabushiki Kaisha Image generation method and apparatus
GB2369541B (en) 2000-10-27 2004-02-11 Canon Kk Method and aparatus for generating visibility data
GB2377870B (en) 2001-05-18 2005-06-29 Canon Kk Method and apparatus for generating confidence data
GB2381429B (en) 2001-09-28 2005-07-27 Canon Europa Nv 3D computer model processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020524851A (ja) * 2017-06-23 2020-08-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. テクスチャマップ及びメッシュに基づく3d画像情報の処理
JP7181233B2 (ja) 2017-06-23 2022-11-30 コーニンクレッカ フィリップス エヌ ヴェ テクスチャマップ及びメッシュに基づく3d画像情報の処理

Also Published As

Publication number Publication date
US20070025624A1 (en) 2007-02-01
EP1204073A3 (en) 2005-01-19
US7120289B2 (en) 2006-10-10
EP1204073A2 (en) 2002-05-08
DE60126387D1 (de) 2007-03-22
JP3782709B2 (ja) 2006-06-07
EP1204073B1 (en) 2007-01-31
US7545384B2 (en) 2009-06-09
US20020085748A1 (en) 2002-07-04

Similar Documents

Publication Publication Date Title
JP3782709B2 (ja) 画像生成の方法および装置
JP2003044870A (ja) 信頼度データ生成方法及び装置
US7557812B2 (en) Multilevel texture processing method for mapping multiple images onto 3D models
EP1303839B1 (en) System and method for median fusion of depth maps
EP2951785B1 (en) Method and system for efficient modeling of specular reflection
US7528831B2 (en) Generation of texture maps for use in 3D computer graphics
JP3626144B2 (ja) 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
JP2022517090A (ja) リアルタイムの3d可視化を備えた点群カラー化システム
CN110140151A (zh) 用于生成光强度图像的装置和方法
CN110248242B (zh) 一种图像处理和直播方法、装置、设备和存储介质
JP3467725B2 (ja) 画像の影除去方法、画像処理装置及び記録媒体
JP4468631B2 (ja) 3次元顔モデルのためのテクスチャー生成方法及び装置
CN113706431B (zh) 模型优化方法及相关装置、电子设备和存储介质
JP4125251B2 (ja) 情報処理方法および装置
GB2369541A (en) Method and apparatus for generating visibility data
GB2369260A (en) Generation of composite images by weighted summation of pixel values of the separate images
US6864889B2 (en) System for previewing a photorealistic rendering of a synthetic scene in real-time
US8086060B1 (en) Systems and methods for three-dimensional enhancement of two-dimensional images
US6781583B2 (en) System for generating a synthetic scene
KR100602739B1 (ko) 재귀적 제어선 정합을 이용한 반자동 필드 기반 영상 변형방법
JP5106992B2 (ja) 霧効果を考慮して3次元グラフィックスデータをレンダリングする方法及び装置
JP2016119041A (ja) 画像処理システム、画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2003216968A (ja) 三次元画像生成方法、三次元画像生成プログラムおよび三次元画像生成装置
JP2001005996A (ja) レイトレーシングにおける図形データ処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060310

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100317

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100317

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110317

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120317

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130317

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140317

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees