JP2004054572A - Method and device for editing three-dimensional model - Google Patents

Method and device for editing three-dimensional model Download PDF

Info

Publication number
JP2004054572A
JP2004054572A JP2002210855A JP2002210855A JP2004054572A JP 2004054572 A JP2004054572 A JP 2004054572A JP 2002210855 A JP2002210855 A JP 2002210855A JP 2002210855 A JP2002210855 A JP 2002210855A JP 2004054572 A JP2004054572 A JP 2004054572A
Authority
JP
Japan
Prior art keywords
dimensional model
image
specific area
dimensional
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002210855A
Other languages
Japanese (ja)
Inventor
Koichi Fujiwara
藤原 浩一
Koji Fujiwara
藤原 浩次
Shinichi Hotta
堀田 伸一
Hideo Fujii
藤井 英郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2002210855A priority Critical patent/JP2004054572A/en
Publication of JP2004054572A publication Critical patent/JP2004054572A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To reduce the data quantity of a three-dimensional model to make it compact, and to hold the characteristic part of the three-dimensional model. <P>SOLUTION: This three-dimensional model editing device in which texture images are mapped is provided with: a means for designating a specific area TR on the texture image existing corresponding to an area on a three-dimensional model ML; a means for converting the resolutions of texture images concerning the specific area TR and an outside-specific area TS other than the specific area existing corresponding to the area on the three-dimensional model in order to make those resolutions different from each other; an image integrating means for integrating all texture images FGS whose resolutions are converted as one or more new texture images FTS; and a means for updating a corresponding table TB2 of the integrated texture image FTS with the three-dimensional model. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、3次元モデルの編集方法および装置に関する。
【0002】
【従来の技術】
近年において、非接触型の3次元形状入力装置が、CGや工業デザインの分野でしばしば用いられる。3次元形状入力装置は、レーザやパターン光を対象物(物体)に照射し、対象物の表面で反射した光をセンサで捉えることにより、対象物の3次元形状を密にサンプリングし、3次元形状データを生成することができる。また、3次元形状の計測とともに対象物の全周の画像を撮影し、その画像を3次元形状データにテクスチャとして貼りつけることにより、対象物についてのリアルな3次元モデルが得られる。
【0003】
さて、このようにして得られた3次元モデルは、通常、そのデータ量が多い。したがって、3次元モデルをワークステーションまたはパーソナルコンピュータの内部で取り扱う場合にはそれほど問題はないが、3次元モデルをwebなどのネットワーク上にのせた場合には、転送に多大な時間を要するため取り扱いが難しい。しかも、ネットワーク用の端末として用いられるPDAや携帯電話機では、メモリ容量も処理能力も小さいため、3次元モデルをそのまま扱うことは現実的ではない。
【0004】
従来においては、3次元モデルを目的に応じた適当な比率で縮小し、これによってデータ量を削減し、処理の容易化を計っている。
【0005】
【発明が解決しようとする課題】
上に述べたように、従来においては3次元モデルを一定の比率で縮小するので、3次元モデルに貼りつけられた画像もそれに応じて小さくなる。そのため、例えば対象物が人物または人の頭部である場合には、目や眉毛などの画像が潰れてしまって表情などの顔の特徴が分からなくなってしまう。
【0006】
本発明は、上述の問題に鑑みてなされたもので、3次元モデルのデータ量を低減してコンパクト化し且つ3次元モデルの特徴的な部分を保持することのできる3次元モデルの編集装置および装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明に係る方法では、テクスチャ画像がマッピングされた3次元モデルの編集方法であって、前記3次元モデル上の特定領域を指定するステップと、前記3次元モデル上の特定領域とそれ以外の領域とで前記テクスチャ画像の解像度が互いに異なるように、前記3次元モデルへのマッピングをやり直すステップとを有する。
【0008】
本発明に係る装置では、前記3次元モデル上の特定領域を指定する手段と、前記3次元モデル上の特定領域とそれ以外の領域とで前記テクスチャ画像の解像度が互いに異なるように、前記3次元モデルへのマッピングをやり直す手段とを有する。
【0009】
また、本発明に係る装置では、前記3次元モデル上の領域に対応して存在する前記テクスチャ画像上の特定領域を指定する手段と、前記テクスチャ画像に対し、前記特定領域と、前記特定領域以外の領域であって前記3次元モデル上の領域に対応して存在する特定外領域とについて、解像度が互いに異なるように解像度を変換する手段と、解像度が変換された全てのテクスチャ画像について、それらを1つまたは複数の新たなテクスチャ画像として統合する画像統合手段と、統合されたテクスチャ画像と前記3次元モデルとの対応を更新する手段とを有してなる。
【0010】
【発明の実施の形態】
図1は本発明の実施形態に係る3次元モデルの編集装置1のブロック図である。
【0011】
図1において、編集装置1は、装置本体10、磁気ディスク装置11、媒体ドライブ装置12、ディスプレイ装置13、キーボード14、およびマウス15などからなる。
【0012】
装置本体10は、CPU、RAM、ROM、ビデオRAM、入出力ポート、各種コントローラ、各種インタフェースなどからなる。RAMおよびROMなどに記憶されたプログラムをCPUが実行することにより、以下に説明する種々の機能が実現される。
【0013】
磁気ディスク装置11には、OS(Operating System) 、3次元モデル(3次元形状モデル)MLを生成しまたはテクスチャマッピングを行うためのモデリングプログラムPR、その他のプログラム、入力されまたは生成された3次元データ(3次元形状データ)DT、画像(2次元画像データ)FT、生成された3次元モデルML、その他のデータなどが格納されている。なお、3次元モデルMLには、通常の3次元モデルおよびそれを縮小した3次元モデルを含むが、特に縮小した3次元モデルを指す場合には「3次元モデルMLS」または「縮小3次元モデルMLS」と記載することがある。画像FTについても同様であり、特に3次元モデルMLSのための縮小された画像を指す場合には「画像FTS」または「縮小画像FTS」と記載することがある。これらのプログラムおよびデータは、適時、装置本体10のRAMにローディングされる。
【0014】
なお、モデリングプログラムPRには、初期化処理、特定領域指定処理、解像度変換処理、画像統合処理、対応更新処理、およびその他の処理のためのプログラムが含まれる。
【0015】
媒体ドライブ装置12は、CD−ROM(CD)、フロッピィディスクFD、光磁気ディスク、コンパクトフラッシュ(登録商標)などの半導体メモリHM、その他の記録媒体にアクセスし、データまたはプログラムの読み書きを行う。記録媒体の種類に応じて適切なドライブ装置が用いられる。上に述べたモデリングプログラムPRは、これら記録媒体からインストールすることも可能である。3次元データDTおよび画像FTなども記録媒体を介して入力することが可能である。
【0016】
ディスプレイ装置13の表示面HGには、上に述べた種々のデータ、3次元データDT、画像FT、モデリングプログラムPRによる処理過程の画像、生成された3次元モデルML、例えば図2に示す3次元モデルML1、その他の画像またはデータが表示される。
【0017】
キーボード14およびマウス15は、ディスプレイ装置13に表示された画像FTおよび3次元データDTに対して、ユーザが種々の指定を行うために用いられる他、装置本体10に種々のデータを入力しまたは指令を与えるために用いられる。
【0018】
装置本体10には、対象物をその周囲の種々の位置から撮影して画像FTを得るためのデジタルカメラを接続することが可能である。また、対象物を撮影してその3次元データDTを入力するための3次元計測装置を接続することも可能である。このような3次元計測装置は、例えば光切断法によって対象物の3次元データDTを非接触で計測する。また、3次元計測装置から、3次元データDTではなく、3次元データDTを生成するための元となるデータを出力し、装置本体10によって3次元データDTを演算によって求めるようにしてもよい。
【0019】
なお、デジタルカメラで得られた画像FT上の各画素の座標と、3次元計測によって得られた3次元データDTに基づくポリゴンメッシュPM上の各頂点の位置情報との対応がとれるようになっている。そのために、デジタルカメラおよび3次元計測装置には、その位置および姿勢を検出して位置姿勢情報を出力する位置姿勢センサが設けられる。また、3次元計測装置それ自体によって、3次元データDTと画像FTとを取得することも可能である。その場合には、3次元計測装置の内部パラメータによって、3次元データDTと画像FTとの位置関係が規定され、または射影行列が生成される。
【0020】
図2は編集装置1で生成される3次元モデルML1の例を示す図、図3は3次元モデルML1を構成するデータの例を示す図、図4は3次元モデルML1のテーブルTB1の内容の例を示す図である。
【0021】
図2に示す3次元モデルML1は、対象物Qがキャラクター人形についてのものである。3次元モデルML1は、対象物Qを3次元計測装置で計測し、これにより得た3次元データDTに、同じく3次元計測装置で撮影した対象物Qの画像FTをマッピングしたものである。
【0022】
図3に示すように、3次元モデルML1は、3次元モデルML1の構成を示すテーブルTB1、および3次元モデルML1にマッピングされている全ての画像FT1〜4からなる。テーブルTB1は、3次元モデルML1のポリゴンの構成を示す頂点およびその座標値、各ポリゴンに貼りつけられる画像FTのID(テクスチャID)、その画像FTにおいて該当する部分の座標値などを示す。
【0023】
3次元モデルML1は、その表面が、顔、手、胴、背、足…などのように複数の領域に区画されている。
図4において、例えば顔の領域では、その領域の1つのポリゴンは3つの頂点(P1,P2,P3 )から構成され、そのポリゴンは、テクスチャIDで指定される画像FT1がテクスチャ画像として用いられ、その画像FT1内の3つの座標点(x11, 11 )(x12, 12 )(x13, 13 )で囲まれる部分が実際に貼りつけられる。このようにして顔の領域の全てのポリゴンの構成およびそこに貼りつけられる画像が定義されている。同様に、他の領域、つまり手、胴などについてもそれぞれのポリゴンの構成および画像が定義されている。
【0024】
このような3次元モデルML1はデータ量が多いので、データ量を低減するために、3次元モデルML1を縮小する。次に、3次元モデルML1の縮小のための編集処理について説明する。
【0025】
図5は3次元モデルML1の編集方法を説明するための図、図6は3次元モデルML上で特定領域TRを指定する方法を説明する図、図7は画像FT上で特定領域TRを指定する方法を説明する図、図8は特定領域TR以外の領域の画像FG2の生成方法を説明する図、図9は縮小3次元モデルMLSのテーブルTB2の内容の例を示す図、図10は編集処理を示すフローチャートである。
【0026】
図5を用いて説明すると、まず、第1段階では、縮小された新たな画像FTSの生成の準備のために、3次元モデルMLに対して特定領域TRを指定する。この場合に、特定領域TRとして、表面の画像が高周波成分からなる領域、つまり細かく変化する画像からなる領域、または文字領域などが指定される。しかしこれらに限られる訳ではない。
【0027】
本実施形態においては、特定領域TRとして、3次元モデルMLの顔領域を指定する。特定領域TRの指定は、手動または自動で行われる。手動で特定領域TRを指定する場合に、3次元モデルML上で指定してもよく、2次元の画像FT上で指定してもよい。
【0028】
すなわち、図6に示す例では、3次元モデルML上において、顔領域が特定領域TRとして指定される。ここでは、特定領域TRとして指定したい範囲に含まれるポリゴンを選択する。つまり、例えば、特定領域TR内のポリゴンを1つづつピックアップする。ピックアップされたポリゴンの集合が、指定された特定領域TRとなる。
【0029】
図7に示す例では、画像FT上において、顔領域が特定領域TRに対応する領域TRFとして指定される。ここでの領域TRFは矩形となっている。その領域TRFの画像を3次元モデルML上に投影し、投影された領域TRF内に含まれる3次元モデルML上のポリゴンをピックアップする。このようにしてピックアップされたポリゴンの集合が特定領域TRとなる。
【0030】
その他、3次元モデルML上または画像FT上での特定領域TRの指定のために、従来公知の種々の技術を用いることができる。
そして、特定領域TRとして選択されたポリゴンについて、それらのポリゴンに貼りつけられまたは割り当てられている画像FTを、ある投影面、例えば平面または円筒面などに投影する。これによって新たな画像FG1を生成する。生成された画像FG1が特定領域TRのためのテクスチャ画像(画像FGS1)の元となる。
【0031】
次に、特定領域TR以外の領域である特定外領域TSを指定する。ここでは、特定領域TRとして選択されなかったポリゴンをピックアップする。特定領域TR以外のポリゴンの集合が、指定された特定外領域TSとなる。
【0032】
そして、図8に示すように、特定外領域TSとして選択されたポリゴンについて、それらのポリゴンを元の画像FT上に投影する。投影された元の画像FT上において、同一の画像MYの上で互いに隣り合って連続しているポリゴンPGを抽出する。抽出されたポリゴンPGを含む矩形の範囲を、画像FG2として切り出す。
【0033】
このようにして、特定領域TRについての画像FG1、特定外領域TSについての画像FG2,3…を得る。これらの処理に際してテーブルTB1が参照される。
【0034】
次に、第2段階では、これらの画像FG1,2,3…に対して解像度変換を行い、縮小された新たな画像FGS1,2,3…を生成する。
その解像度変換の際に、特定領域TRの画像FG1と特定外領域TSの画像FG2,3…とでは、解像度変換の割合が異なる。
【0035】
つまり、特定領域TRの画像FG1については、余り解像度を低下させることなく変換を行う。場合によっては解像度変換の割合を1とする、つまり同じ解像度とする。このようにして余り解像度を落とすことなく変換された画像FGS1は、縮小画像FTSの所定の領域に配置される。ここでいう縮小画像FTSは、縮小画像FTSの生成のためのメモリ領域である。
【0036】
また、特定外領域TSの画像FG2,3…については、画像FG1の場合よりも大きい割合で解像度を低下させるような変換を行う。このようにして解像度が低下するように変換された画像FGS2,3…は、縮小画像FTSの所定の領域に並べて配置される。
【0037】
なお、特定領域TRの画像FGS1と、特定外領域TSの画像FGS2,3…とで、解像度変換の割合の比率は、例えば、1対2、1対3、1対4などとする。これによって、画像FGS1の解像度は、他の画像FGS2,3…の解像度に比べて、2倍、3倍、または4倍となる。
【0038】
3次元モデルMLの全てのポリゴンPGについてこのような処理を行い、変換された全ての画像FGS1,2,3…を配置することによって、縮小画像FTSを生成する。
【0039】
このような縮小画像FTSの生成の過程において、縮小画像FTS上の位置座標と3次元モデルMLのポリゴンPGとの対応付けが行われる。そのような新たな対応付けによって、テーブルTB2が更新される。つまり、テーブルTB2には、3次元モデルMLの全てのポリゴンPGに対して、各ポリゴンPGに貼りつけられる縮小画像FTS上の部分の座標位置が設定されている。
【0040】
図9に示すテーブルTB2で分かるように、3次元モデルMLの全てのポリゴンPGに対して、縮小画像FTSのみがテクスチャ画像として用いられる。そして、各ポリゴンPGに対して、縮小画像FTS内の3つの座標点で囲まれる部分が貼りつけられる。このようにして、3次元モデルMLと縮小画像FTSとが対応付けられ、縮小3次元モデルMLSが生成される。なお、図9に示す座標値と図4に示す座標値とは異なったものである。
【0041】
図10において、編集処理では、特定領域TRを指定し(#11)、特定領域TRについて投影を行い、新たな画像FGを生成する(#12)。特定外領域TSについても投影を行い、新たな画像FGを生成する(#13)。特定領域TRの画像FG1と特定外領域TSの画像FG2,3…とで解像度変換の割合が異なるようにして解像度変換を行う(#14)。解像度変換したそれぞれの画像FGSを、縮小画像FTSの領域の所定の位置に配置し、これによって縮小画像FTSを生成する(#15)。生成した縮小画像FTSは、3次元モデルMLまたは縮小3次元モデルMLSとの対応付けがなされている。
【0042】
これらの処理は、モデリングプログラムPRによる初期化処理、特定領域指定処理、解像度変換処理、画像統合処理、または対応更新処理などによって実現される。
【0043】
このように、3次元モデルML上の特定領域TRとそれ以外の領域である特定外領域TSとで、テクスチャ画像の解像度が互いに異なるように、3次元モデルMLへのマッピングをやり直すのである。
【0044】
これにより、縮小3次元モデルMLSは、テーブルTB2と縮小画像FTSとによって構成されることとなり、そのデータ量は大幅に減少する。特に、縮小画像FTSは1枚の画像となり、データ量が低減されてコンパクト化される。しかも、特定領域TRである顔の領域については、元の画像と比べて解像度が余り落ちていない画像FGS1がテクスチャ画像として用いられるので、顔の表情などがよく表現され、その結果、3次元モデルの特徴的な部分が保持される。
【0045】
なお、上の実施形態では、3次元モデルMLのポリゴンPGの構成自体は変更しなかったが、3次元モデルMLも所定の比率で縮小し、ポリゴンPGの構成を変更してもよい。その場合には、3次元データDTのデータ量も低減することとなる。また、生成された縮小3次元モデルMLSを、任意の大きさに変換してもよい。
【0046】
上の実施形態においては、特定領域TRとして顔領域を1つだけ指定したが、2つ以上の特定領域TRを指定してもよい。その場合に、特定領域TRに応じて解像度変換の割合を異ならせてもよい。また、特定外領域TSについても、それぞれに対して解像度変換の割合を異ならせてもよい。
【0047】
また、上の実施形態において、変換された画像FGS1,2,3…を配置する場合に、画像FGSと3次元モデルMLのポリゴンPGとの対応をとっておけば、縮小画像FTS上のどの位置に配置してもよい。また、上の実施形態では、変換された画像FGSを1つの縮小画像FTSに配置し、1枚の画像として纏めたが、2つ以上の縮小画像FTSに分けて配置し、2枚以上の縮小画像FTSを生成してもよい。
【0048】
上の実施形態において、対象物Qの種類、編集装置1の全体または各部の構成、形状、個数、処理の内容および順序などは、本発明の趣旨に沿って適宜変更することができる。
【0049】
【発明の効果】
本発明によると、3次元モデルのデータ量を低減してコンパクト化し且つ3次元モデルの特徴的な部分を保持することができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る3次元モデルの編集装置のブロック図である。
【図2】編集装置で生成される3次元モデルの例を示す図である。
【図3】3次元モデルを構成するデータの例を示す図である。
【図4】3次元モデルのテーブルの内容の例を示す図である。
【図5】3次元モデルの編集方法を説明するための図である。
【図6】3次元モデル上で特定領域を指定する方法を説明する図である。
【図7】画像上で特定領域を指定する方法を説明する図である。
【図8】特定領域以外の領域の画像の生成方法を説明する図である。
【図9】縮小3次元モデルのテーブルの内容の例を示す図である。
【図10】編集処理を示すフローチャートである。
【符号の説明】
1 編集装置
10 装置本体(指定手段、マッピングをやり直す手段、解像度変換手段、画像統合手段、更新手段)
ML,MLS 3次元モデル
FT 画像(テクスチャ画像)
FTS 縮小画像(新たなテクスチャ画像)
TR 特定領域
TS 特定外領域(それ以外の領域)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method and an apparatus for editing a three-dimensional model.
[0002]
[Prior art]
In recent years, non-contact three-dimensional shape input devices are often used in the fields of CG and industrial design. The three-dimensional shape input device irradiates a target object (object) with a laser or pattern light, captures light reflected on the surface of the target object with a sensor, thereby densely sampling the three-dimensional shape of the target object, and performs three-dimensional sampling. Shape data can be generated. In addition, a real three-dimensional model of the object can be obtained by taking an image of the entire circumference of the object together with the measurement of the three-dimensional shape and pasting the image as texture to the three-dimensional shape data.
[0003]
Now, the three-dimensional model obtained in this way usually has a large data amount. Therefore, when the three-dimensional model is handled inside a workstation or a personal computer, there is not much problem. However, when the three-dimensional model is placed on a network such as a web, it takes a long time to transfer the data. difficult. Moreover, in a PDA or a mobile phone used as a terminal for a network, since a memory capacity and a processing capacity are small, it is not realistic to directly handle a three-dimensional model.
[0004]
Conventionally, the three-dimensional model is reduced at an appropriate ratio according to the purpose, thereby reducing the data amount and facilitating the processing.
[0005]
[Problems to be solved by the invention]
As described above, conventionally, since the three-dimensional model is reduced at a fixed ratio, the image pasted on the three-dimensional model also becomes smaller accordingly. Therefore, for example, when the target object is a person or the head of a person, an image such as an eye or eyebrows is crushed, and a facial feature such as a facial expression cannot be understood.
[0006]
The present invention has been made in view of the above-described problems, and has an apparatus and an apparatus for editing a three-dimensional model capable of reducing the amount of data of the three-dimensional model to be compact and retaining a characteristic part of the three-dimensional model. The purpose is to provide.
[0007]
[Means for Solving the Problems]
In the method according to the present invention, there is provided a method for editing a three-dimensional model on which a texture image is mapped, wherein a specific area on the three-dimensional model is specified, and a specific area on the three-dimensional model and other areas are specified. And re-mapping to the three-dimensional model so that the resolutions of the texture images are different from each other.
[0008]
In the apparatus according to the present invention, the means for designating a specific area on the three-dimensional model, and the three-dimensional model may be configured such that the resolution of the texture image differs between the specific area and the other area on the three-dimensional model. Means for re-mapping to the model.
[0009]
Also, in the apparatus according to the present invention, means for designating a specific area on the texture image that exists corresponding to the area on the three-dimensional model, and the specific area and the area other than the specific area for the texture image Means for converting the resolution so that the resolutions are different from each other with respect to the non-specific area existing corresponding to the area on the three-dimensional model; and for all the texture images whose resolutions have been converted, It has image integration means for integrating as one or a plurality of new texture images, and means for updating the correspondence between the integrated texture image and the three-dimensional model.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a block diagram of a three-dimensional model editing apparatus 1 according to an embodiment of the present invention.
[0011]
In FIG. 1, an editing apparatus 1 includes an apparatus main body 10, a magnetic disk device 11, a medium drive device 12, a display device 13, a keyboard 14, a mouse 15, and the like.
[0012]
The apparatus main body 10 includes a CPU, a RAM, a ROM, a video RAM, input / output ports, various controllers, various interfaces, and the like. Various functions described below are realized by the CPU executing programs stored in the RAM, the ROM, and the like.
[0013]
The magnetic disk device 11 includes an OS (Operating System), a modeling program PR for generating a three-dimensional model (three-dimensional shape model) ML or performing texture mapping, other programs, and input or generated three-dimensional data. (Three-dimensional shape data) DT, an image (two-dimensional image data) FT, a generated three-dimensional model ML, and other data are stored. The three-dimensional model ML includes a normal three-dimensional model and a reduced three-dimensional model. Particularly, when referring to a reduced three-dimensional model, the “three-dimensional model MLS” or “reduced three-dimensional model MLS” is used. ". The same applies to the image FT. In particular, when referring to a reduced image for the three-dimensional model MLS, it may be described as “image FTS” or “reduced image FTS”. These programs and data are loaded into the RAM of the apparatus main body 10 as appropriate.
[0014]
The modeling program PR includes programs for initialization processing, specific area designation processing, resolution conversion processing, image integration processing, correspondence update processing, and other processing.
[0015]
The medium drive device 12 accesses a semiconductor memory HM such as a CD-ROM (CD), a floppy disk FD, a magneto-optical disk, and a compact flash (registered trademark), and other recording media, and reads and writes data or a program. An appropriate drive device is used depending on the type of the recording medium. The above-described modeling program PR can be installed from these recording media. It is also possible to input three-dimensional data DT, image FT, and the like via a recording medium.
[0016]
On the display surface HG of the display device 13, various data described above, three-dimensional data DT, an image FT, an image of a processing process by the modeling program PR, a generated three-dimensional model ML, for example, a three-dimensional model shown in FIG. The model ML1 and other images or data are displayed.
[0017]
The keyboard 14 and the mouse 15 are used not only by the user to make various designations for the image FT and the three-dimensional data DT displayed on the display device 13, but also to input or instruct various data to the device main body 10. Used to give
[0018]
A digital camera for capturing an object from various positions around the object and obtaining an image FT can be connected to the apparatus main body 10. It is also possible to connect a three-dimensional measuring device for photographing an object and inputting its three-dimensional data DT. Such a three-dimensional measuring device measures non-contact three-dimensional data DT of an object by, for example, a light section method. Alternatively, instead of the three-dimensional data DT, data serving as a source for generating the three-dimensional data DT may be output from the three-dimensional measuring device, and the three-dimensional data DT may be obtained by the calculation by the device body 10.
[0019]
Note that the coordinates of each pixel on the image FT obtained by the digital camera can be associated with the position information of each vertex on the polygon mesh PM based on the three-dimensional data DT obtained by three-dimensional measurement. I have. For this purpose, the digital camera and the three-dimensional measuring device are provided with a position and orientation sensor that detects the position and orientation and outputs position and orientation information. Also, the three-dimensional data DT and the image FT can be obtained by the three-dimensional measuring device itself. In that case, the positional relationship between the three-dimensional data DT and the image FT is defined by the internal parameters of the three-dimensional measuring device, or a projection matrix is generated.
[0020]
FIG. 2 is a diagram showing an example of a three-dimensional model ML1 generated by the editing device 1, FIG. 3 is a diagram showing an example of data constituting the three-dimensional model ML1, and FIG. 4 is a table TB1 of the three-dimensional model ML1. It is a figure showing an example.
[0021]
In the three-dimensional model ML1 shown in FIG. 2, the object Q is for a character doll. The three-dimensional model ML1 is obtained by measuring the object Q with a three-dimensional measuring device, and mapping an image FT of the object Q similarly photographed by the three-dimensional measuring device onto the three-dimensional data DT obtained thereby.
[0022]
As shown in FIG. 3, the three-dimensional model ML1 includes a table TB1 indicating the configuration of the three-dimensional model ML1, and all the images FT1 to FT4 mapped to the three-dimensional model ML1. The table TB1 indicates vertices indicating the configuration of the polygons of the three-dimensional model ML1 and their coordinate values, the ID (texture ID) of the image FT to be pasted on each polygon, the coordinate values of the corresponding part in the image FT, and the like.
[0023]
The surface of the three-dimensional model ML1 is divided into a plurality of regions such as a face, a hand, a torso, a back, a foot, and the like.
In FIG. 4, for example, in the face region, one polygon of the region is composed of three vertices (P1, P2, P3), and the polygon uses an image FT1 designated by a texture ID as a texture image. its three coordinate points in the image FT1 (x 11, y 11) (x 12, y 12) (x 13, y 13) portion surrounded by is actually paste. In this way, the configuration of all the polygons in the face area and the image to be pasted thereon are defined. Similarly, the configuration and image of each polygon are defined for the other regions, that is, the hand, the torso, and the like.
[0024]
Since such a three-dimensional model ML1 has a large data amount, the three-dimensional model ML1 is reduced in order to reduce the data amount. Next, an editing process for reducing the three-dimensional model ML1 will be described.
[0025]
5 is a diagram for explaining a method for editing the three-dimensional model ML1, FIG. 6 is a diagram for explaining a method for specifying a specific region TR on the three-dimensional model ML, and FIG. 7 is a diagram for specifying the specific region TR on the image FT. 8 illustrates a method of generating an image FG2 of an area other than the specific area TR, FIG. 9 illustrates an example of the contents of a table TB2 of the reduced three-dimensional model MLS, and FIG. It is a flowchart which shows a process.
[0026]
Referring to FIG. 5, first, in the first stage, a specific region TR is specified for the three-dimensional model ML in preparation for generating a reduced new image FTS. In this case, as the specific region TR, a region in which the image of the surface is composed of high-frequency components, that is, a region composed of a finely changing image, a character region, or the like is designated. However, it is not limited to these.
[0027]
In the present embodiment, the face area of the three-dimensional model ML is specified as the specific area TR. The specification of the specific region TR is performed manually or automatically. When manually specifying the specific region TR, the specific region TR may be specified on the three-dimensional model ML or may be specified on the two-dimensional image FT.
[0028]
That is, in the example shown in FIG. 6, the face area is specified as the specific area TR on the three-dimensional model ML. Here, a polygon included in a range to be specified as the specific region TR is selected. That is, for example, the polygons in the specific area TR are picked up one by one. The set of the picked-up polygons becomes the specified specific area TR.
[0029]
In the example shown in FIG. 7, on the image FT, the face region is designated as a region TRF corresponding to the specific region TR. The region TRF here is rectangular. The image of the area TRF is projected onto the three-dimensional model ML, and polygons on the three-dimensional model ML included in the projected area TRF are picked up. The set of polygons picked up in this manner becomes the specific area TR.
[0030]
In addition, various conventionally known techniques can be used to specify the specific region TR on the three-dimensional model ML or the image FT.
Then, for the polygons selected as the specific area TR, the image FT pasted or assigned to the polygons is projected onto a certain projection plane, for example, a plane or a cylindrical plane. Thus, a new image FG1 is generated. The generated image FG1 is a source of a texture image (image FGS1) for the specific region TR.
[0031]
Next, a non-specific area TS that is an area other than the specific area TR is specified. Here, polygons not selected as the specific area TR are picked up. A set of polygons other than the specific area TR becomes the specified non-specific area TS.
[0032]
Then, as shown in FIG. 8, for the polygons selected as the non-specific area TS, those polygons are projected on the original image FT. On the projected original image FT, continuous polygons PG adjacent to each other on the same image MY are extracted. A rectangular range including the extracted polygon PG is cut out as an image FG2.
[0033]
Thus, the image FG1 for the specific region TR and the images FG2, 3... For the non-specific region TS are obtained. At the time of these processes, the table TB1 is referred to.
[0034]
Next, in the second stage, resolution conversion is performed on these images FG1, FG2,... To generate new reduced images FGS1, 2, 3,.
At the time of the resolution conversion, the ratio of the resolution conversion is different between the image FG1 of the specific region TR and the images FG2, FG3 of the non-specific region TS.
[0035]
In other words, the conversion is performed on the image FG1 in the specific area TR without significantly lowering the resolution. In some cases, the resolution conversion ratio is set to 1, that is, the same resolution. The image FGS1 converted in this manner without significantly lowering the resolution is arranged in a predetermined area of the reduced image FTS. Here, the reduced image FTS is a memory area for generating the reduced image FTS.
[0036]
.. Of the non-specific area TS are converted so as to lower the resolution at a higher rate than in the case of the image FG1. The images FGS2, 3,... Thus converted to have a reduced resolution are arranged side by side in a predetermined area of the reduced image FTS.
[0037]
The ratio of the resolution conversion ratio between the image FGS1 of the specific region TR and the images FGS2, 3... Of the non-specific region TS is, for example, 1: 2, 1: 3, 1: 4, and the like. As a result, the resolution of the image FGS1 is twice, three times, or four times the resolution of the other images FGS2, 3,.
[0038]
Such processing is performed for all the polygons PG of the three-dimensional model ML, and the reduced images FTS are generated by arranging all the converted images FGS1, 2, 3,.
[0039]
In the process of generating such a reduced image FTS, the position coordinates on the reduced image FTS are associated with the polygons PG of the three-dimensional model ML. The table TB2 is updated by such a new association. That is, in the table TB2, for all the polygons PG of the three-dimensional model ML, the coordinate positions of the portion on the reduced image FTS to be attached to each polygon PG are set.
[0040]
As can be seen from the table TB2 shown in FIG. 9, only the reduced image FTS is used as a texture image for all the polygons PG of the three-dimensional model ML. Then, a portion surrounded by three coordinate points in the reduced image FTS is attached to each polygon PG. Thus, the three-dimensional model ML is associated with the reduced image FTS, and the reduced three-dimensional model MLS is generated. Note that the coordinate values shown in FIG. 9 and the coordinate values shown in FIG. 4 are different.
[0041]
10, in the editing process, a specific area TR is designated (# 11), and the specific area TR is projected to generate a new image FG (# 12). The projection is also performed on the non-specific area TS to generate a new image FG (# 13). The resolution conversion is performed such that the ratio of the resolution conversion is different between the image FG1 of the specific region TR and the images FG2, FG3 of the non-specific region TS (# 14). Each of the images FGS whose resolution has been converted is arranged at a predetermined position in the area of the reduced image FTS, thereby generating a reduced image FTS (# 15). The generated reduced image FTS is associated with the three-dimensional model ML or the reduced three-dimensional model MLS.
[0042]
These processes are realized by an initialization process, a specific region designation process, a resolution conversion process, an image integration process, a correspondence update process, or the like by the modeling program PR.
[0043]
As described above, the mapping to the three-dimensional model ML is performed again so that the resolution of the texture image differs between the specific region TR on the three-dimensional model ML and the non-specific region TS that is the other region.
[0044]
Thus, the reduced three-dimensional model MLS is configured by the table TB2 and the reduced image FTS, and the data amount is significantly reduced. In particular, the reduced image FTS becomes one image, the data amount is reduced, and the size is reduced. In addition, in the face region, which is the specific region TR, the image FGS1 whose resolution is not much lower than that of the original image is used as a texture image, so that facial expressions and the like are well expressed, and as a result, the three-dimensional model Are retained.
[0045]
In the above embodiment, the configuration of the polygon PG of the three-dimensional model ML is not changed. However, the configuration of the polygon PG may be changed by reducing the three-dimensional model ML at a predetermined ratio. In that case, the data amount of the three-dimensional data DT is also reduced. Further, the generated reduced three-dimensional model MLS may be converted into an arbitrary size.
[0046]
In the above embodiment, only one face area is specified as the specific area TR, but two or more specific areas TR may be specified. In that case, the ratio of the resolution conversion may be changed according to the specific region TR. Also, the ratio of the resolution conversion may be different for each of the non-specific areas TS.
[0047]
Further, in the above embodiment, when the converted images FGS1, 2, 3,... Are arranged, by associating the images FGS with the polygons PG of the three-dimensional model ML, any position on the reduced image FTS can be obtained. May be arranged. Further, in the above embodiment, the converted image FGS is arranged in one reduced image FTS and collected as one image. However, it is divided into two or more reduced images FTS and arranged, and two or more reduced images FTS are arranged. An image FTS may be generated.
[0048]
In the above embodiment, the type of the object Q, the configuration, the shape, the number of the whole or each part of the editing apparatus 1, the contents and the order of the processing, and the like can be appropriately changed in accordance with the gist of the present invention.
[0049]
【The invention's effect】
According to the present invention, the data amount of the three-dimensional model can be reduced to make it compact, and the characteristic part of the three-dimensional model can be retained.
[Brief description of the drawings]
FIG. 1 is a block diagram of a three-dimensional model editing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a three-dimensional model generated by an editing device.
FIG. 3 is a diagram showing an example of data constituting a three-dimensional model.
FIG. 4 is a diagram showing an example of the contents of a table of a three-dimensional model.
FIG. 5 is a diagram for explaining a method of editing a three-dimensional model.
FIG. 6 is a diagram illustrating a method of specifying a specific area on a three-dimensional model.
FIG. 7 is a diagram illustrating a method of specifying a specific area on an image.
FIG. 8 is a diagram illustrating a method of generating an image of an area other than a specific area.
FIG. 9 is a diagram showing an example of the contents of a table of a reduced three-dimensional model.
FIG. 10 is a flowchart illustrating an editing process.
[Explanation of symbols]
1 Editing Apparatus 10 Apparatus Main Body (Specifying Means, Means for Re-Mapping, Resolution Conversion Means, Image Integration Means, Update Means)
ML, MLS 3D model FT image (texture image)
FTS reduced image (new texture image)
TR Specific area TS Non-specific area (other area)

Claims (4)

テクスチャ画像がマッピングされた3次元モデルの編集方法であって、
前記3次元モデル上の特定領域を指定するステップと、
前記3次元モデル上の特定領域とそれ以外の領域とで前記テクスチャ画像の解像度が互いに異なるように、前記3次元モデルへのマッピングをやり直すステップと、
を有することを特徴とする3次元モデルの編集方法。
A method for editing a three-dimensional model to which a texture image is mapped,
Specifying a specific area on the three-dimensional model;
Re-mapping to the three-dimensional model such that the resolution of the texture image is different between the specific region on the three-dimensional model and the other region,
3. A method for editing a three-dimensional model, comprising:
テクスチャ画像がマッピングされた3次元モデルの編集装置であって、
前記3次元モデル上の特定領域を指定する手段と、
前記3次元モデル上の特定領域とそれ以外の領域とで前記テクスチャ画像の解像度が互いに異なるように、前記3次元モデルへのマッピングをやり直す手段と、
を有することを特徴とする3次元モデルの編集装置。
An editing device for a three-dimensional model to which a texture image is mapped,
Means for specifying a specific area on the three-dimensional model;
Means for redoing the mapping to the three-dimensional model so that the resolution of the texture image is different between the specific area on the three-dimensional model and the other area,
A three-dimensional model editing apparatus, comprising:
テクスチャ画像がマッピングされた3次元モデルの編集装置であって、
前記3次元モデル上の領域に対応して存在する前記テクスチャ画像上の特定領域を指定する手段と、
前記テクスチャ画像に対し、前記特定領域と、前記特定領域以外の領域であって前記3次元モデル上の領域に対応して存在する特定外領域とについて、解像度が互いに異なるように解像度を変換する手段と、
解像度が変換された全てのテクスチャ画像について、それらを1つまたは複数の新たなテクスチャ画像として統合する画像統合手段と、
統合されたテクスチャ画像と前記3次元モデルとの対応を更新する手段と、
を有してなることを特徴とする3次元モデルの編集装置。
An editing device for a three-dimensional model to which a texture image is mapped,
Means for specifying a specific area on the texture image that exists corresponding to the area on the three-dimensional model;
Means for converting the texture image so that the specific region and the non-specific region other than the specific region and corresponding to the region on the three-dimensional model have different resolutions from each other. When,
Image integration means for integrating all resolution-converted texture images as one or more new texture images;
Means for updating the correspondence between the integrated texture image and the three-dimensional model;
A three-dimensional model editing apparatus, comprising:
テクスチャ画像がマッピングされた3次元モデルの編集に用いられるコンピュータプログラムであって、
前記3次元モデル上の特定領域を指定するステップと、
前記3次元モデル上の特定領域とそれ以外の領域とで前記テクスチャ画像の解像度が互いに異なるように、前記3次元モデルへのマッピングをやり直すステップと、
をコンピュータに実行させるためのコンピュータプログラム。
A computer program used for editing a three-dimensional model to which a texture image is mapped,
Specifying a specific area on the three-dimensional model;
Re-mapping to the three-dimensional model such that the resolution of the texture image is different between the specific region on the three-dimensional model and the other region,
A computer program for causing a computer to execute.
JP2002210855A 2002-07-19 2002-07-19 Method and device for editing three-dimensional model Pending JP2004054572A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002210855A JP2004054572A (en) 2002-07-19 2002-07-19 Method and device for editing three-dimensional model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002210855A JP2004054572A (en) 2002-07-19 2002-07-19 Method and device for editing three-dimensional model

Publications (1)

Publication Number Publication Date
JP2004054572A true JP2004054572A (en) 2004-02-19

Family

ID=31934250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002210855A Pending JP2004054572A (en) 2002-07-19 2002-07-19 Method and device for editing three-dimensional model

Country Status (1)

Country Link
JP (1) JP2004054572A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323481A (en) * 2006-06-02 2007-12-13 Sony Corp Video data transmission system and method, transmission processing apparatus and method, and reception processing apparatus and method
WO2021261188A1 (en) * 2020-06-23 2021-12-30 パナソニックIpマネジメント株式会社 Avatar generation method, program, avatar generation system, and avatar display method
JP7414483B2 (en) 2019-11-18 2024-01-16 日本放送協会 3D model data conversion device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323481A (en) * 2006-06-02 2007-12-13 Sony Corp Video data transmission system and method, transmission processing apparatus and method, and reception processing apparatus and method
JP7414483B2 (en) 2019-11-18 2024-01-16 日本放送協会 3D model data conversion device and program
WO2021261188A1 (en) * 2020-06-23 2021-12-30 パナソニックIpマネジメント株式会社 Avatar generation method, program, avatar generation system, and avatar display method

Similar Documents

Publication Publication Date Title
JP7176012B2 (en) OBJECT MODELING OPERATING METHOD AND APPARATUS AND DEVICE
AU2016102387A4 (en) Augmented reality imaging system for cosmetic surgical procedures
USRE44465E1 (en) Method and apparatus for electronically generating a color dental occlusion map within electronic model images
CN106803884A (en) Image processing system and image processing method
CN109325990B (en) Image processing method, image processing apparatus, and storage medium
US6661420B2 (en) Three-dimensional skeleton data compression apparatus
CN111932664A (en) Image rendering method and device, electronic equipment and storage medium
JP6863596B6 (en) Data processing device and data processing method
CN104732585A (en) Human body type reconstructing method and device
WO2005024728A1 (en) Form changing device, object action encoding device, and object action decoding device
AU2017272304B2 (en) Auto vr: an assistant system for virtual reality painting
WO2019120131A1 (en) Image generation method, and method and device for generating dynamic expression image
KR102068993B1 (en) Method And Apparatus Creating for Avatar by using Multi-view Image Matching
CN112138386A (en) Volume rendering method and device, storage medium and computer equipment
CN107452049A (en) A kind of three-dimensional head modeling method and device
JP2014029566A (en) Image processing apparatus, image processing method, and image processing program
JP2006107145A (en) Face shape modeling system and face shape modeling method
Jeong et al. Automatic generation of subdivision surface head models from point cloud data
JP2004054572A (en) Method and device for editing three-dimensional model
JP2004252603A5 (en)
CN107924424A (en) Information processing equipment, information processing method and program
JPH08147494A (en) Picture forming device for hair of head
TWI221590B (en) Graphics data generating method, graphics generating apparatus and components thereof
WO2020173222A1 (en) Object virtualization processing method and device, electronic device and storage medium
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704