JP3643511B2 - 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program - Google Patents

3D image processing method, 3D modeling method, and recording medium recording 3D image processing program Download PDF

Info

Publication number
JP3643511B2
JP3643511B2 JP2000050999A JP2000050999A JP3643511B2 JP 3643511 B2 JP3643511 B2 JP 3643511B2 JP 2000050999 A JP2000050999 A JP 2000050999A JP 2000050999 A JP2000050999 A JP 2000050999A JP 3643511 B2 JP3643511 B2 JP 3643511B2
Authority
JP
Japan
Prior art keywords
polygon
image
information
screen
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000050999A
Other languages
Japanese (ja)
Other versions
JP2001243497A (en
Inventor
裕人 松岡
昭彦 宮崎
仁志 北澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2000050999A priority Critical patent/JP3643511B2/en
Publication of JP2001243497A publication Critical patent/JP2001243497A/en
Application granted granted Critical
Publication of JP3643511B2 publication Critical patent/JP3643511B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,表示対象物体の3次元モデルデータを用い,コンピュータによって任意の視点方向から見た物体の画像を表示する3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体に関し,特に表示対象の撮影画像をもとに処理を行うイメージベースモデリングならびにイメージベースレンダリングの技術に関する。
【0002】
【従来の技術】
近年,インターネットの普及や画像処理能力の向上に伴い,商品等のプレゼンテーションに3次元モデルデータが用いられるようになってきた。3次元モデルデータを商品紹介に用いることにより,顧客は,実際に目の前に商品がなくても,パーソナルコンピュータ等の画面上で,商品を好きな角度/方向から見ることができる。しかし,商品の3次元モデルデータを生成するには,その形状データと表面の画像データが必要となる。
【0003】
一般的な3次元モデルとして,ポリゴンモデルがある。図22にそのポリゴンモデルの一例を示す。このモデルは,表示対象を複数のポリゴンで表し,各ポリゴンに色彩や光沢等の情報を与える。そのデータを透視投影することにより,所望の角度・距離から見たときの2次元画像を得ることができる。この方法では,正確なポリゴンモデルを生成することにより,任意の角度・距離からの観察画像を正確に得ることができる。
【0004】
しかしながら,このポリゴンモデルを得るには,レンジファインダ等の専用の3次元モデリング装置が必要となる。また,表示対象に曲面がある場合,ポリゴン数が膨大となり,そのデータ量・処理量が共に膨大となるという問題がある。また,微妙な色彩が表現できないためリアリティが低く,実写画像に比べるとかなり見劣りするという問題がある。
【0005】
リアリティを増すために,実写画像を複数の方向から撮影し,その画像をポリゴン表面に貼り付ける方法がある。しかしながら,この方法は,表示対象の表面がプラスチックや金属等の鏡面反射が大きいものである場合に,表面に映り込んだ像が実写画像ごとに異なるため,これらの画像をポリゴン表面に貼り付けると,逆にポリゴンの境界が見苦しくなるという問題がある
一方,実写画像を用いたモデルとして,複数の方向から実写画像を撮影し,表示したい角度に最も近い画像を表示する方法がある。この方法では,実写画像を用いているため,非常にリアリティの高い画像を得ることができ,例えば米国アップルコンピュータ社が開発したQuickTimeVR等で用いられている。しかしながら,任意の角度からの画像を得るには,画像数が膨大となり,また,実写画像の撮影距離と所望の視点距離とが大きく異なる場合,表示対象の側面等の見え方が異なるという問題がある。
【0006】
これを解決する方法として,2枚の実写画像から,その間の画像を補間して描画する方法が提案されており,IGGRAPH96で公表された“View Morphing”はその代表的な例である。この方法は,2枚の画像間で共通である対応点をあらかじめ求めておき,対応点をもとに2枚の画像を変形してそれらを合成し,2枚の画像間の視点から見たときの画像を合成する。この方法では,正確な対応点が得られると,2枚の画像間の任意の視点からの画像を,かなり正確に描画することができ,必要となる実写画像の枚数を減らすことができる。
【0007】
しかしながら,この方法では,2つの実写画像間の対応点が必須であるが,これを求める有効なアルゴリズムはいまだ実現されておらず,現在のところ手動で対応点の指定を行っているので,3次元モデルの自動生成には難がある。また,本方法では計算量がかなり大きいため,画像合成に数〜数十分程度かかるのが普通であり,リアルタイムで表示することができない。
【0008】
【発明が解決しようとする課題】
前述したように,従来のモデリング手法であるポリゴンモデルでは,リアリティの高い画像を生成することができず,また,モデルデータの作成が難しいという問題がある。また,実写画像を用いたモデリング手法では,リアリティは増すが,データ量が膨大になったり,対応点を手動で指定したりしなければならなかったり,その処理時間が膨大になったりするという問題がある。
【0009】
【課題を解決するための手段】
本発明は,複数の視点から撮影した実写画像と表示対象物体の概略形状を3次元モデルとする。そして,所望の視点からの表示画像を合成する場合に,まず,所望の視点方向と撮影方向とが最も近い実写画像を選ぶ。その実写画像を概略形状の表面に,実写画像の撮影位置を視点として投射する。そして,投射された概略形状を,所望の視点からの方向からスクリーン上に透視投影して,表示画像を得る。
【0010】
本発明では,所望の視点方向と撮影方向が近い1枚の画像を用い,それを概略形状をもとに変形した画像を表示することを基本とする。このため,実写画像間で,鏡面反射等で写り込んだ画像に差が生じていても,それらに影響されることなく,リアリティの高い画像を得ることができる。また,実写画像間の対応点を用いていないため,対応点を求める必要もない。
【0011】
さらに,実写画像を変形した画像で実写画像間の視点からの表示画像を補っているので,必要となる実写画像の枚数を低く抑えることができる。また,所望の視点方向と撮影方向が近い実写画像を変形させて表示させているので,実写画像の変形は比較的小さく,このため,概略形状の精度を高くしなくても,十分にリアリティの高い画像が得られるという特徴がある。
【0012】
すなわち,概略形状を生成するために,高精度の3次元モデリング装置を必要とせず,概略形状の生成も簡易に行うことができる。また,概略形状のポリゴン数はかなり少なく抑えられるので,本方法における画像合成時間は短く,リアルタイムで描画することが可能である。
【0013】
【発明の実施の形態】
以下,本発明の実施の形態について詳細に説明する。
【0014】
本発明での,表示対象物体Oの3次元モデルデータMDは,物体の全周囲をカバーする異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,その撮影情報Ik(1≦k≦n)と,表示対象物体Oの概略を表すポリゴンデータ(概略形状S)からなる。
【0015】
図1に3次元モデルデータMDの例を示す。この図において,(A)は撮影画像の例を,(B)は撮影情報の例を,(C)は概略形状の例を示している。
【0016】
撮影画像Pkは,デジタルカメラ等で撮影する。撮影情報Ikは,カメラと表示対象物体O(被写体)の距離d,表示対象物体Oのある撮影方向を基準としてその基準方向との差を表す撮影方向を示す回転行列R,撮影画像の1ピクセルの長さを表す解像度rからなる。これらの値は厳密な値を必要としないので,定規等での計測で十分である。
【0017】
概略形状Sは,表示対象物体Oの大まかな形状でかまわないので,撮影画像から表示対象物体Oの大まかな縁取りを行い,Shape from Silhouette 等のアルゴリズムを用いて求める。厳密に計算する必要はなく,生成するポリゴン数も少なくてよいので,一般的なポリゴン生成に比べ,簡易に生成することができる。なお,画像から形状を求める手法(Shape from Silhouette のアルゴリズムを含む)の参考文献としては,例えば「“From image to models (and beyond): a personal retrospective", SIGGRAPH Course Note, 1999. 」がある。
【0018】
また,概略形状Sは,定規等による測定で大まかに生成する方法でも生成可能である。さらに,各撮影画像の背景を切り取っておくことにより,表示対象を表示するとき,表示対象よりも奥にある物体等と重なった場合でも,正確に表示することができる。
【0019】
本発明での上記3次元モデルデータMDを任意の方向から見たときの第1の表示方法について述べる。図2に,第1の表示方法による処理の流れを示す。
【0020】
まず,ステップS11で,所望の視点Vの方向と3次元モデルデータMDの各撮影画像P1〜Pnの撮影方向とを比較し,最も近い撮影画像Pk(1≦k≦n)を選ぶ。この比較は,視点Vの方向ベクトルと撮影方向のベクトルの内積を求め,その値が最も大きいもの(各方向ベクトルを単位ベクトルで表したとき,内積が1に最も近いもの)を選ぶことにより実現できる。
【0021】
ステップS12では,この撮影画像Pkを,撮影位置を視点とした方向から見た概略形状Sの表面に投射する。この様子を,図3に示す。実際に計算機上では,撮影位置を視点,概略形状SをスクリーンSC上に透視投影して,撮影画像PkをスクリーンSCに重ねることにより,概略形状Sの各表面に投射される画像を得ることができる。
【0022】
ステップS13では,図4に示すように,この撮影画像Pkを投射した概略形状Sを,所望の視点Vの方向からスクリーンSC上に透視投影して,表示画像を得る。この操作を行うことにより,3次元モデルデータMDの所望の視点から見たときの投影画像を生成することができる。
【0023】
なお,透視投影は,人間が眼で見る状態と同じ画像を作るため,視点に近い物体ほど大きく,遠い物体ほど小さくなるように投影する投影方法の一つであるが,周知の技術であるため,これについてのさらに詳しい説明は省略する。
【0024】
図5に撮影画像および第1の表示方法による合成画像例を示す。図5(B)は撮影画像そのものであり,図5(A)は視点を左15度ずらして合成した画像,図5(C)は視点を右15度ずらして合成した画像である。図5の(A),(C)は,図1(C)に示す単純な概略形状Sで合成を行っているが,本アルゴリズムを用いることにより,任意の方向から見たときの表示画像を生成できることがわかる。
【0025】
以上の第1の表示方法では,概略形状Sに対して,撮影画像Pkの撮影位置を視点とした方向からの実写の投影と,所望の視点Vからの透視投影のため,2回の座標計算を行う必要がある。撮影情報Ikに,概略形状Sの各項点が対応する撮影画像上のピクセル座標からなる投影点情報(以下,ピクセル座標情報という)IV,概略形状Sの多角形に対応する撮影画像上の多角形を表す多角形情報IPを加えた3次元モデルデータMD2を用いることにより,この座標計算を1回に減らすことができる。
【0026】
図6に3次元モデルデータMD2における撮影情報に追加されるピクセル座標情報IVと多角形情報IPの例を示す。他の撮影情報については,図1(C)に示す3次元モデルデータMDと同様である。ピクセル座標情報IVは,2次元の座標データであり,撮影位置を視点,撮影画像PkをスクリーンSCとして,概略形状Sの各頂点を透視投影することにより,その座標を求める。さらに,多角形情報IPは,頂点のインデックス列のリストであり,概略形状Sの頂点の接続情報をもとに生成する。
【0027】
次に,この3次元モデルデータMD2を用いた第2の表示方法について説明する。図7に,第2の表示方法による処理の流れを示す。
【0028】
第2の表示方法では,まず,所望の視点Vの方向と撮影方向とが最も近い撮影画像Pk(1≦k≦n)を選ぶ(ステップS21)。次に,図8に示すように,視点Vからの概略形状Sの各頂点のスクリーン座標VSを,透視投影により求める(ステップS22)。
【0029】
そして,多角形情報IPから任意の多角形Aを一つ選び(ステップS23),多角形Aの各頂点の座標をピクセル座標情報IVから得て,撮影画像Pk内の多角形Bの領域を取得する(ステップS24)。ステップS24では,例えば図9(A)に示す実写画像から,図9(B)に示す多角形Bの領域を取得することになる。
【0030】
次に,多角形Aの各頂点座標をスクリーン座標VSから得て,図9(C)に示すようなスクリーンSC上の多角形Cを得る(ステップS25)。そして,多角形Bの領域をスクリーンSC上の多角形Cの形状に合うように変形する(ステップS26)。多角形Bの領域を変形した様子を図9(D)に示す。これをスクリーンSCに貼り付けて描画する(ステップS27)。多角形情報IPの全ての多角形に対して,多角形Aと同様に処理してスクリーンSC上に描画することにより(ステップS28),図9(E)に示すように,第1の表示方法と同様の表示画像を得ることができる。
【0031】
上記第1または第2の表示方法では,スクリーンSCに射影した多角形に対応する撮影画像上の多角形がない場合,その場所の画像が抜けるという問題がある。具体例で説明すると,図10は,表示対象物体を正面から撮影した画像であるが,この画像をもとに視点を左に15度ずらして第1の表示方法(第2の表示方法も同様)で合成すると,図11に示すような画像になる。この画像では,左側面に対応する多角形が,図10中の撮影画像中にないため,画像の欠けが生じている。
【0032】
この問題を解決する第3の表示方法を次に示す。図12に,第3の表示方法による処理の流れを示す。
【0033】
第3の表示方法では,所望の視点方向と撮影方向とが近いm枚(2から4枚程度)の撮影画像を選び(ステップS31),その中から視点方向と撮影方向が最も遠い撮影画像から順番に1枚ずつ選んで,上記第1の表示方法または第2の表示方法を用いることにより表示画像を生成する(ステップS32)。生成した表示画像をスクリーンSC上に順次上書きしていく(ステップS33)。ステップS32,S33を,選択したm枚の撮影画像に対する処理を全て終了するまで繰り返す(ステップS34)。
【0034】
図13は,第3の表示方法を用いた例であり,視点の方向を左15度として画像を合成するにあたって,正面撮影画像を用いてスクリーンSCに描画する前に,左45度方向から撮影した撮影画像について,視点を右に30度ずらしたときの画像を生成し,それをスクリーンSCに描画し,その後に,図11の画像を同様に第1または第2の表示方法を用いて上書きした例を示している。
【0035】
これにより,画像の欠けがなくなっていることがわかる。第3の表示方法では,m枚の画像を重ね書きした場合,その処理時間はm倍となる。ここで,表示欠けを生じさせる多角形Dについて考えてみる。3次元モデルデータMDあるいはMD2内の,ある撮影画像Pkを表示するときの視点の範囲は,撮影画像Pkと撮影位置が隣接する撮影画像Pmの撮影位置の中間であり,これを表示限界位置Lとする。表示限界位置Lを視点として概略形状Sの各多角形を透視投影したときにスクリーンSC上に映し出される多角形のうち,撮影画像Pkを撮影したときの撮影位置を視点として概略形状Sの各多角形を透視投影したときにスクリーンSC上に現れない多角形が,表示欠けを生じさせる多角形Dである。
【0036】
そこで表示欠けをなくすための描画時間の短縮のため,次のような付加画像情報ITkを用いる。付加画像情報ITkは,この多角形の各頂点が対応する撮影画像Pm上のピクセル座標情報と,その多角形の頂点のインデックスのリストで多角形を表す多角形情報,その多角形内の撮影画像からなる。上記ピクセル座標情報は,前記の多角形情報の生成の場合と同様に作成する。すなわち,付加画像情報ITkは,図6と同様な形式のピクセル座標情報,多角形情報のリストと,多角形内の撮影画像の画像データからなる。このような付加画像情報ITkを加えた3次元モデルデータをMD3とし,これを描画に用いることにより,描画時間を短縮することができる。
【0037】
図14に,第4の表示方法による処理の流れを示す。この3次元モデルデータMD3を用いた第4の表示方法では,まず,3次元モデルデータMD3の撮影画像Pk(1≦k≦n)の中から,所望の視点方向と撮影方向とが最も近い撮影画像Pj(1≦j≦n)を1枚選び(ステップS41),3次元モデルデータMD3の付加画像情報ITkをもとに前述した第1または第2の表示方法によりスクリーンに描画し(ステップS42),全ての必要な付加画像情報ITkの描画が終了したならば(ステップS43),3次元モデルデータMD3の撮影情報Ikをもとに第1または第2の表示方法によりスクリーンに重ね書きを行い,表示画像を得る(ステップS44)。
【0038】
また,第3の表示方法または第4の表示方法では,違う撮影画像を変形したものを重ね合わせているので,撮影時の照明角度の違いなどで撮影画像の色彩に差がある場合や,概略形状が正確でないために変形した画像が一致しない場合がある。
【0039】
例えば,図15の画像のポリゴンABCDEに注目する。概略形状上では,このポリゴンは,AFCDEで構成されているが,線分CGを含むポリゴンが手前にあるので,実際に見えている部分のポリゴンは,ABCDEとなる。視点方向を左にすると,点Bの位置が,線分CGより左側になり,図16のように表示画像に欠けが生じる。第3の表示方法または第4の表示方法のように,近傍の撮影画像で欠け部分を補ったのが図17の例である。撮影画像の色彩が若干違い,形状にも差が生じているため,接合部が目立つことかわかる。
【0040】
これを回避するための3次元モデルデータMD4と第5の表示方法について説明する。3次元モデルデータMD4は,頂点Bのように,手前のポリゴンの重なりにより生じた頂点を交点として,その交差点情報IXを,3次元モデルデータの多角形情報IPに加えたデータを,モデルデータとする。その交差点情報IXは,これを表す2つの交線すなわち4つの頂点のインデックスからなる。図15の例では,交点(頂点)Bは,頂点A,F,G,Cのインデックスで与えられる。
【0041】
第5の表示方法は,この3次元モデルデータMD4を用いる。描画アルゴリズムは,基本的に第2の表示方法と同様である。違う点は,概略形状Sの各頂点のスクリーン座標を求めた後,それらから,交点のスクリーン座標を求めて描画する点にある。
【0042】
図18に,第5の表示方法による処理の流れを示す。まず,所望の視点方向と撮影方向とが最も近い撮影画像Pk(1≦k≦n)を選ぶ(ステップS51)。視点Vからの概略形状Sの各頂点のスクリーン座標VSを,透視投影により求める(ステップS52)。次に,3次元モデルデータMD4の交差点情報IXの示す2辺の始点と終点に対応するスクリーン座標を代入して,その2辺の交点の座標を求めて頂点のスクリーン座標として加える(ステップS53)。
【0043】
そして,多角形情報IPから任意の多角形Aを一つ選び(ステップS54),多角形Aの各頂点の座標をピクセル座標情報IVから得て,撮影画像Pk内の多角形Bの領域を取得する(ステップS55)。次に,多角形Aの各頂点座標をスクリーン座標VSから得て,スクリーン上の多角形Cを求め(ステップS56),多角形Bの領域をスクリーンSC上の多角形Cの形状に合うように変形する(ステップS57)。これをスクリーンSCに描画する(ステップS58)。多角形情報IPの全ての多角形に対して,多角形Aと同様に処理してスクリーンSC上に描画し表示画像を得る(ステップS59)。
【0044】
図19は,第5の表示方法を用いた例を説明する図であり,頂点A,C,F,Gのスクリーン座標を求め,それから,線分AFおよび線分CGの交点B’のスクリーン座標を求める。そして,図15の多角形ABCDEの領域を図19の多角形AB’CDEの形状に合うように変形して描画する方法を加えたものである。この方法により,画像の不自然さも回避できていることが分かる。
【0045】
上記の3次元モデルデータMD2では,ピクセル座標情報IVとして,x,yの2次元データを用い,第2の表示方法では,その座標で表された多角形を,スクリーン上の対応する多角形領域に変形して貼り付けていた。さらに,ピクセル座標情報IVに,奥行き情報のz値を加えた情報を用いることにより,より自然な画像を得ることが可能になる。
【0046】
図20(A)に示すスクリーンと平面の関係により,ピクセル座標情報IVとしてx,yの2次元データを用いたときに生じる画像の歪みについて説明する。スクリーンSC上の2点S0 とS1 間のm:(1−m)の位置の点をSm とし,視点VからSm を通り,概略形状Sの平面との交点をPm とすると,平面が奥行き方向に傾いている場合,P0 m とPm 1 との比は,m:(1−m)にならない。このため,z値を用いずに多角形を線形補間によって変形すると,図20(A)からも明らかなように画像に歪みが生じることになる。そこで,第6の表示方法では,多角形の変形時にz値を考慮して,いわゆるパースペクティブコレクション(perspective correction)による変形を行い,多角形への描画を実行する。
【0047】
図7で説明した第2の表示方法におけるステップS26での多角形の変形方法と,第6の表示方法による多角形の変形方法との違いについて説明する。図7のステップS26では,撮影画像上の多角形BをスクリーンSC上の多角形Cの形状に変形する。すなわち,多角形C内の任意の点が多角形Bのどこに対応するかがわかれば,変形を計算できる。
【0048】
まず,第2の表示方法においてピクセル座標情報IVとして,2次元データを用いる場合,図21(A)に示すような線形補間による多角形の変換を行うことになる。
【0049】
多角形Cの辺上の2点をS0 (xs0,ys0),S1 (xs1,ys1)とし,それらが多角形B上で対応する2点をP0 (xp0,yp0),P1 (xp1,yp1)とする。S0 とS1 との間の点をSm (xsm,ysm)とすると,点Sm に対応する多角形B上の点Pm (xpm,ypm)は,次のように計算される。
【0050】
m=(xsm−xs0)/(xs1−xs0
pm=(1−m)×xp0+m×xp1
pm=(1−m)×yp0+m×yp1
これに対し,第2の表示方法を改良した第6の表示方法では,ピクセル座標情報IVとして,図20(B)に示すような3次元データを用いて,図21(B)に示すパースペクティブコレクションによって,撮影画像上の多角形BをスクリーンSC上の多角形Cの形状に変形する。
【0051】
多角形Cの辺上の2点をS0 (xs0,ys0,zs0),S1 (xs1,ys1,zs1)とし,それらが多角形B上で対応する2点をP0 (xp0,yp0,zp0),P1 (xp1,yp1,zp1)とする。また,S0 とS1 との間の点をSm (xsm,ysm,zsm)とし,点Sm に対応する多角形B上の点をPm (xpm,ypm,zpm)とする。点Pm (xpm,ypm,zpm)は,次のように計算される。
【0052】
m=(xsm−xs0)/(xs1−xs0
1/T=(1−m)/(zs0×zp1)+m/(zs1×zp0
pm/T=(1−m)×xp0/(zs0×zp1)+m×xp1/(zs1×zp0
pm/T=(1−m)×yp0/(zs0×zp1)+m×yp1/(zs1×zp0
このようにピクセル座標情報IVにz値を加えた3次元の座標情報を用いることによって,図20(A)に示すような概略形状Sの平面の傾きによって生じる画像の歪みを解消することができ,より自然な画像を得ることが可能になる。
【0053】
上述した第3ないし第5の表示方法において利用する第2の表示方法に代えて,第6の表示方法を用いることができることは言うまでもない。
【0054】
なお,以上説明した表示方法を,CPUおよびメモリを備えたコンピュータに上記の処理を行うソフトウェアプログラムを実行させることにより実現することができ,また,その一部をハードウェア回路によって実現することもできる。このようなソフトウェアやハードウェアによる画像処理のインプリメント方法自体は,以上の説明と従来のイメージベースレンダリングの技術とから,当業者には明らかであるので,これ以上の詳しい説明は省略する。また,本発明の方法をコンピュータによって実現するためのプログラムは,コンピュータが読み取り可能な可搬媒体メモリ,半導体メモリ,ハードディスクなどの適当な記録媒体に格納することができることは言うまでもない。
【0055】
【発明の効果】
本発明では,視点と撮影方向が近い撮影画像を用い,概略形状をもとに変形させて描画させているので,従来のポリゴンモデルに比べてリアリティの高い画像を得ることができる。また,本発明で用いる概略形状は簡便なものでよいので,そのデータの作成は容易であるという利点もある。また,QuickTimeVRのように撮影画像のみで描画する方法に比べ,必要となる撮影画像も少なく抑えることができるので,モデルデータ量を低く抑えることができる。また,概略形状のポリゴン数はかなり少なく抑えられるので,本発明を用いた画像合成時間は短く,リアルタイムで描画することも可能である。
【図面の簡単な説明】
【図1】3次元モデルデータMDの例を示す図である。
【図2】第1の表示方法による処理の流れを示す図である。
【図3】撮影画像の概略形状への投影例を示す図である。
【図4】投影された概略形状のスクリーンへの透視投影例を示す図である。
【図5】撮影画像および第1の表示方法による合成画像例を示す図である。
【図6】3次元モデルデータMD2における撮影情報に追加されるピクセル座標情報IVと多角形情報IPの例を示す図である。
【図7】第2の表示方法による処理の流れを示す図である。
【図8】第2の表示方法の説明図である。
【図9】第2の表示方法の説明図である。
【図10】表示対象を正面から撮影した画像を示す図である。
【図11】視点を左15度として正面撮影画像を第1の表示方法で合成した例を示す図である。
【図12】第3の表示方法による処理の流れを示す図である。
【図13】視点を左15度として正面撮影画像を第3の表示方法で合成した例を示す図である。
【図14】第4の表示方法による処理の流れを示す図である。
【図15】表示対象を右135度,上30度から撮影した例を示す図である。
【図16】視点を左15度として右135度撮影画像を第1の表示方法で合成した例を示す図である。
【図17】視点を左15度として右135度撮影画像を第3の表示方法で合成した例を示す図である。
【図18】第5の表示方法による処理の流れを示す図である。
【図19】視点を左15度として右135度撮影画像を第5の表示方法で合成した例を示す図である。
【図20】3次元ピクセル座標情報を用いる例を説明する図である。
【図21】多角形の変形方法説明図である。
【図22】ポリゴンモデルの例を示す図である。
【符号の説明】
Pk 撮影画像
Ik 撮影情報
S 概略形状
[0001]
BACKGROUND OF THE INVENTION
The present invention uses a 3D model data of a display target object, and records a 3D image processing method, a 3D modeling method, and a 3D image processing program for displaying an image of an object viewed from an arbitrary viewpoint direction by a computer. In particular, the present invention relates to image-based modeling and image-based rendering technology that performs processing based on captured images to be displayed.
[0002]
[Prior art]
In recent years, with the spread of the Internet and the improvement of image processing capability, 3D model data has been used for presentation of products and the like. By using the three-dimensional model data for product introduction, the customer can view the product from a desired angle / direction on the screen of a personal computer or the like without actually having the product in front of him. However, in order to generate the three-dimensional model data of the product, the shape data and the surface image data are required.
[0003]
There is a polygon model as a general three-dimensional model. FIG. 22 shows an example of the polygon model. In this model, a display target is represented by a plurality of polygons, and information such as color and gloss is given to each polygon. By perspective-projecting the data, it is possible to obtain a two-dimensional image when viewed from a desired angle and distance. In this method, it is possible to accurately obtain an observation image from an arbitrary angle and distance by generating an accurate polygon model.
[0004]
However, in order to obtain this polygon model, a dedicated three-dimensional modeling apparatus such as a range finder is required. In addition, when a display target has a curved surface, the number of polygons becomes enormous, and there is a problem that both the data amount and the processing amount become enormous. In addition, since the subtle colors cannot be expressed, the reality is low, and there is a problem that it is considerably inferior to the actual image.
[0005]
In order to increase the reality, there is a method in which a photographed image is taken from a plurality of directions and the image is pasted on the polygon surface. However, in this method, when the surface of the display object has a large specular reflection such as plastic or metal, the image reflected on the surface is different for each photographed image. On the contrary, there is a problem that the boundary of the polygon becomes unsightly
On the other hand, as a model using a photographed image, there is a method of photographing a photographed image from a plurality of directions and displaying an image closest to the desired display angle. In this method, since a photographed image is used, an image with extremely high reality can be obtained. For example, it is used in QuickTime VR developed by Apple Computer, Inc., USA. However, in order to obtain an image from an arbitrary angle, the number of images is enormous, and when the shooting distance of a live-action image and the desired viewpoint distance are greatly different, the appearance of the side surface of the display object is different. is there.
[0006]
As a method for solving this, there has been proposed a method of drawing an image between two real shot images by interpolating between them, and “View Morphing” published by IGGRAPH 96 is a typical example. In this method, corresponding points that are common between the two images are obtained in advance, the two images are deformed based on the corresponding points, and the images are synthesized and viewed from the viewpoint between the two images. Synthesize the image of the time. In this method, when an accurate corresponding point is obtained, an image from an arbitrary viewpoint between two images can be drawn fairly accurately, and the number of necessary photographed images can be reduced.
[0007]
However, in this method, a corresponding point between two live-action images is indispensable. However, an effective algorithm for obtaining this has not been realized yet, and at present, the corresponding point is manually specified. There are difficulties in automatically generating a dimensional model. In addition, since this method requires a large amount of calculation, it usually takes several to several tens of minutes for image synthesis, and cannot be displayed in real time.
[0008]
[Problems to be solved by the invention]
As described above, the polygon model, which is a conventional modeling method, has a problem that it is difficult to generate an image with high reality and it is difficult to create model data. In addition, although modeling techniques using live-action images increase reality, the amount of data becomes enormous, corresponding points must be specified manually, and the processing time becomes enormous. There is.
[0009]
[Means for Solving the Problems]
In the present invention, a real image taken from a plurality of viewpoints and a schematic shape of a display target object are set as a three-dimensional model. When a display image from a desired viewpoint is synthesized, first, a real image that has the closest desired viewpoint direction and shooting direction is selected. The photographed image is projected onto the surface of the approximate shape with the shooting position of the photographed image as the viewpoint. Then, the projected schematic shape is perspective-projected on the screen from the direction from the desired viewpoint to obtain a display image.
[0010]
The present invention basically uses a single image whose photographing direction is close to the desired viewpoint direction, and displays an image obtained by deforming the image based on the schematic shape. For this reason, even if there is a difference between images captured by specular reflection or the like between actual captured images, an image with high reality can be obtained without being influenced by the difference. In addition, since no corresponding points between live-action images are used, there is no need to obtain corresponding points.
[0011]
Furthermore, since the display image from the viewpoint between the captured images is supplemented with an image obtained by deforming the captured image, the number of necessary captured images can be kept low. In addition, since a live-action image that is close to the desired viewing direction is displayed in a deformed manner, the deformation of the live-action image is relatively small. Therefore, even if the accuracy of the approximate shape is not increased, sufficient reality can be achieved. There is a feature that a high image can be obtained.
[0012]
That is, in order to generate a rough shape, a high-precision three-dimensional modeling apparatus is not required, and the rough shape can be easily generated. In addition, since the number of polygons of the approximate shape can be suppressed to a very small value, the image synthesis time in this method is short, and drawing in real time is possible.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail.
[0014]
In the present invention, the three-dimensional model data MD of the display target object O includes n photographed images Pk (1 ≦ k ≦ n) photographed from different directions covering the entire periphery of the object, and photographing information Ik (1 ≦ k ≦ n) and polygon data (schematic shape S) representing the outline of the display target object O.
[0015]
FIG. 1 shows an example of the three-dimensional model data MD. In this figure, (A) shows an example of a photographed image, (B) shows an example of photographed information, and (C) shows an example of a schematic shape.
[0016]
The captured image Pk is captured with a digital camera or the like. The shooting information Ik includes a distance d between the camera and the display target object O (subject), a rotation matrix R indicating a shooting direction with respect to a shooting direction of the display target object O as a reference, and one pixel of the shot image. It consists of resolution r representing the length of. Since these values do not require exact values, measurement with a ruler is sufficient.
[0017]
Since the rough shape S may be a rough shape of the display target object O, the rough shape of the display target object O is obtained from the photographed image, and is obtained by using an algorithm such as Shape from Silhouette. Since it is not necessary to calculate strictly and the number of polygons to be generated may be small, it can be generated more easily than general polygon generation. For example, “From image to models (and beyond): a personal retrospective”, SIGGRAPH Course Note, 1999. is available as a reference for techniques for obtaining shapes from images (including the Shape from Silhouette algorithm).
[0018]
The rough shape S can also be generated by a method of generating roughly by measurement using a ruler or the like. Furthermore, by cutting out the background of each captured image, when displaying a display target, it is possible to display it accurately even if it overlaps with an object or the like located behind the display target.
[0019]
A first display method when the three-dimensional model data MD in the present invention is viewed from an arbitrary direction will be described. FIG. 2 shows a flow of processing by the first display method.
[0020]
First, in step S11, the direction of the desired viewpoint V is compared with the shooting directions of the captured images P1 to Pn of the three-dimensional model data MD, and the closest captured image Pk (1 ≦ k ≦ n) is selected. This comparison is realized by obtaining the inner product of the direction vector of the viewpoint V and the shooting direction vector and selecting the one with the largest value (when each direction vector is expressed as a unit vector, the inner product is closest to 1). it can.
[0021]
In step S12, the photographed image Pk is projected onto the surface of the general shape S viewed from the direction with the photographing position as the viewpoint. This is shown in FIG. Actually, on the computer, an image projected on each surface of the approximate shape S can be obtained by perspectively projecting the shooting position, perspectively projecting the approximate shape S on the screen SC, and superimposing the captured image Pk on the screen SC. it can.
[0022]
In step S13, as shown in FIG. 4, the schematic shape S on which the captured image Pk is projected is perspective-projected on the screen SC from the direction of the desired viewpoint V to obtain a display image. By performing this operation, it is possible to generate a projection image when the 3D model data MD is viewed from a desired viewpoint.
[0023]
In addition, perspective projection is one of the projection methods for projecting so that an object closer to the viewpoint is larger and a farther object is smaller in order to create the same image as a human sees with eyes, but is a well-known technique. , More detailed explanation about this is omitted.
[0024]
FIG. 5 shows a photographed image and a composite image example by the first display method. FIG. 5B is a captured image itself, FIG. 5A is an image synthesized by shifting the viewpoint 15 degrees to the left, and FIG. 5C is an image synthesized by shifting the viewpoint 15 degrees to the right. 5A and 5C are synthesized with a simple schematic shape S shown in FIG. 1C. By using this algorithm, a display image viewed from an arbitrary direction is displayed. It can be seen that it can be generated.
[0025]
In the first display method described above, the coordinate calculation is performed twice for the approximate shape S for the projection of the real image from the direction with the shooting position of the shot image Pk as the viewpoint and the perspective projection from the desired viewpoint V. Need to do. Projection information (hereinafter referred to as pixel coordinate information) IV, which is made up of pixel coordinates on the captured image corresponding to each item point of the approximate shape S, corresponds to the captured information Ik, and many on the captured image corresponding to the polygon of the approximate shape S. By using the three-dimensional model data MD2 to which polygon information IP representing a square is added, this coordinate calculation can be reduced to one time.
[0026]
FIG. 6 shows an example of pixel coordinate information IV and polygon information IP added to the photographing information in the three-dimensional model data MD2. Other imaging information is the same as that of the three-dimensional model data MD shown in FIG. The pixel coordinate information IV is two-dimensional coordinate data, and the coordinates are obtained by perspective-projecting each vertex of the schematic shape S with the shooting position as the viewpoint and the shot image Pk as the screen SC. Furthermore, the polygon information IP is a list of vertex index strings, and is generated based on the vertex connection information of the general shape S.
[0027]
Next, a second display method using the three-dimensional model data MD2 will be described. FIG. 7 shows the flow of processing by the second display method.
[0028]
In the second display method, first, a photographed image Pk (1 ≦ k ≦ n) in which the direction of the desired viewpoint V and the photographing direction are closest is selected (step S21). Next, as shown in FIG. 8, the screen coordinates VS of each vertex of the schematic shape S from the viewpoint V are obtained by perspective projection (step S22).
[0029]
Then, an arbitrary polygon A is selected from the polygon information IP (step S23), the coordinates of each vertex of the polygon A are obtained from the pixel coordinate information IV, and the area of the polygon B in the captured image Pk is acquired. (Step S24). In step S24, for example, the region of the polygon B shown in FIG. 9B is acquired from the photographed image shown in FIG.
[0030]
Next, each vertex coordinate of the polygon A is obtained from the screen coordinates VS, and a polygon C on the screen SC as shown in FIG. 9C is obtained (step S25). Then, the region of the polygon B is deformed so as to match the shape of the polygon C on the screen SC (step S26). FIG. 9D shows a state where the region of the polygon B is deformed. This is pasted and drawn on the screen SC (step S27). By processing all the polygons of the polygon information IP in the same manner as the polygon A and drawing them on the screen SC (step S28), the first display method as shown in FIG. 9E. The same display image can be obtained.
[0031]
The first or second display method has a problem that if there is no polygon on the photographed image corresponding to the polygon projected onto the screen SC, the image at that location is lost. Specifically, FIG. 10 is an image obtained by photographing the display target object from the front. Based on this image, the viewpoint is shifted 15 degrees to the left, and the first display method (the second display method is the same). ), An image as shown in FIG. 11 is obtained. In this image, since the polygon corresponding to the left side surface is not present in the captured image in FIG. 10, the image is missing.
[0032]
A third display method for solving this problem will be described below. FIG. 12 shows the flow of processing by the third display method.
[0033]
In the third display method, m (approximately 2 to 4) photographed images having a desired viewpoint direction and a photographing direction are selected (step S31), and the viewpoint image and the photographing direction are the farthest from the photographed images. One image is selected in order and a display image is generated by using the first display method or the second display method (step S32). The generated display image is sequentially overwritten on the screen SC (step S33). Steps S32 and S33 are repeated until all the processes for the selected m photographed images are completed (step S34).
[0034]
FIG. 13 shows an example using the third display method. When compositing an image with the viewpoint direction set to 15 degrees to the left, the image is taken from the direction of 45 degrees to the left before being drawn on the screen SC using the front image. For the captured image, an image is generated when the viewpoint is shifted 30 degrees to the right, and is drawn on the screen SC. Thereafter, the image of FIG. 11 is overwritten using the first or second display method in the same manner. An example is shown.
[0035]
As a result, it can be seen that the image is not missing. In the third display method, when m images are overwritten, the processing time is m times. Here, consider a polygon D that causes display defects. The range of the viewpoint when displaying a certain photographed image Pk in the three-dimensional model data MD or MD2 is an intermediate between the photographed positions of the photographed image Pk and the photographed image Pm adjacent to the photographed position. And Among the polygons displayed on the screen SC when the polygons of the schematic shape S are perspective-projected with the display limit position L as the viewpoint, each of the polygons of the schematic shape S with the imaging position when the captured image Pk is captured as the viewpoint. A polygon that does not appear on the screen SC when the square is perspective-projected is a polygon D that causes display defects.
[0036]
Therefore, the following additional image information ITk is used in order to shorten the drawing time for eliminating display defects. The additional image information ITk includes pixel coordinate information on the captured image Pm to which each vertex of the polygon corresponds, polygon information representing a polygon in a list of indices of the polygon vertices, and a captured image in the polygon. Consists of. The pixel coordinate information is created in the same manner as in the generation of the polygon information. That is, the additional image information ITk includes pixel coordinate information, a list of polygon information, and image data of a captured image in the polygon in the same format as in FIG. The three-dimensional model data to which such additional image information ITk is added is MD3 and is used for drawing, thereby shortening the drawing time.
[0037]
FIG. 14 shows the flow of processing by the fourth display method. In the fourth display method using the three-dimensional model data MD3, first, shooting is performed in which the desired viewpoint direction is closest to the shooting direction from the shot images Pk (1 ≦ k ≦ n) of the three-dimensional model data MD3. One image Pj (1.ltoreq.j.ltoreq.n) is selected (step S41), and drawn on the screen by the first or second display method described above based on the additional image information ITk of the three-dimensional model data MD3 (step S42). ), When drawing of all necessary additional image information ITk is completed (step S43), overwriting is performed on the screen by the first or second display method based on the shooting information Ik of the three-dimensional model data MD3. , A display image is obtained (step S44).
[0038]
In addition, in the third display method or the fourth display method, since different photographed images are superimposed, there is a difference in the color of the photographed image due to a difference in illumination angle at the time of photographing, etc. The deformed image may not match because the shape is not accurate.
[0039]
For example, pay attention to the polygon ABCDE in the image of FIG. On the schematic shape, this polygon is composed of AFCDE, but since the polygon including the line segment CG is in front, the polygon that is actually visible is ABCDE. When the viewpoint direction is set to the left, the position of the point B is on the left side of the line segment CG, and the display image is missing as shown in FIG. FIG. 17 shows an example in which a missing portion is compensated for by a nearby captured image as in the third display method or the fourth display method. Since the color of the photographed image is slightly different and the shape is also different, it can be seen that the joint is conspicuous.
[0040]
The 3D model data MD4 and the fifth display method for avoiding this will be described. The three-dimensional model data MD4 is obtained by adding the intersection information IX to the polygon information IP of the three-dimensional model data, with the vertex generated by the overlap of the preceding polygons like the vertex B as the intersection. To do. The intersection information IX includes two intersection lines representing this, that is, indexes of four vertices. In the example of FIG. 15, the intersection (vertex) B is given by the indices of the vertices A, F, G, and C.
[0041]
The fifth display method uses this three-dimensional model data MD4. The drawing algorithm is basically the same as in the second display method. The difference is that, after obtaining the screen coordinates of each vertex of the general shape S, the screen coordinates of the intersection are obtained and drawn.
[0042]
FIG. 18 shows a flow of processing by the fifth display method. First, a photographed image Pk (1 ≦ k ≦ n) having the closest desired viewpoint direction and photographing direction is selected (step S51). The screen coordinates VS of each vertex of the schematic shape S from the viewpoint V are obtained by perspective projection (step S52). Next, the screen coordinates corresponding to the start point and end point of the two sides indicated by the intersection information IX of the three-dimensional model data MD4 are substituted, the coordinates of the intersection of the two sides are obtained and added as the screen coordinates of the vertex (step S53). .
[0043]
Then, an arbitrary polygon A is selected from the polygon information IP (step S54), the coordinates of each vertex of the polygon A are obtained from the pixel coordinate information IV, and the area of the polygon B in the captured image Pk is acquired. (Step S55). Next, the vertex coordinates of the polygon A are obtained from the screen coordinates VS to obtain the polygon C on the screen (step S56), so that the area of the polygon B matches the shape of the polygon C on the screen SC. Deformation (step S57). This is drawn on the screen SC (step S58). All the polygons of the polygon information IP are processed in the same way as the polygon A and drawn on the screen SC to obtain a display image (step S59).
[0044]
FIG. 19 is a diagram for explaining an example using the fifth display method. The screen coordinates of the vertices A, C, F, and G are obtained, and then the screen coordinates of the intersection B ′ of the line segment AF and the line segment CG are obtained. Ask for. Then, a method is added in which the region of the polygon ABCDE in FIG. 15 is deformed and drawn so as to match the shape of the polygon ABC′CDE in FIG. 19. It can be seen that this method can also avoid the unnaturalness of the image.
[0045]
In the above three-dimensional model data MD2, x, y two-dimensional data is used as the pixel coordinate information IV, and in the second display method, a polygon represented by the coordinates is converted into a corresponding polygon region on the screen. It was deformed and pasted. Furthermore, a more natural image can be obtained by using information obtained by adding the z value of the depth information to the pixel coordinate information IV.
[0046]
Image distortion that occurs when two-dimensional data of x and y is used as the pixel coordinate information IV will be described based on the relationship between the screen and the plane shown in FIG. 2 points S on the screen SC0And S1The point of the position of m: (1-m) in between is SmAnd from viewpoint V to SmPassing through the plane of the general shape SmIf the plane is inclined in the depth direction, P0PmAnd PmP1The ratio is not m: (1-m). For this reason, if the polygon is deformed by linear interpolation without using the z value, the image is distorted as is apparent from FIG. Therefore, in the sixth display method, in consideration of the z value when the polygon is deformed, deformation is performed by so-called perspective correction, and drawing on the polygon is executed.
[0047]
The difference between the polygonal deformation method at step S26 in the second display method described in FIG. 7 and the polygonal deformation method according to the sixth display method will be described. In step S26 of FIG. 7, the polygon B on the captured image is transformed into the shape of the polygon C on the screen SC. That is, if it is known where an arbitrary point in the polygon C corresponds to the polygon B, the deformation can be calculated.
[0048]
First, when two-dimensional data is used as the pixel coordinate information IV in the second display method, a polygon is converted by linear interpolation as shown in FIG.
[0049]
Two points on the side of polygon C are S0(Xs0, Ys0), S1(Xs1, Ys1) And the two corresponding points on polygon B are P0(Xp0, Yp0), P1(Xp1, Yp1). S0And S1The point between and Sm(Xsm, Ysm), Point SmPoint P on polygon B corresponding tom(Xpm, Ypm) Is calculated as follows:
[0050]
m = (xsm-Xs0) / (Xs1-Xs0)
xpm= (1-m) × xp0+ M × xp1
ypm= (1-m) × yp0+ M × yp1
On the other hand, in the sixth display method improved from the second display method, the perspective collection shown in FIG. 21B is used by using three-dimensional data as shown in FIG. 20B as the pixel coordinate information IV. Thus, the polygon B on the captured image is transformed into the shape of the polygon C on the screen SC.
[0051]
Two points on the side of polygon C are S0(Xs0, Ys0, Zs0), S1(Xs1, Ys1, Zs1) And the two corresponding points on polygon B are P0(Xp0, Yp0, Zp0), P1(Xp1, Yp1, Zp1). S0And S1The point between and Sm(Xsm, Ysm, Zsm) And point SmA point on polygon B corresponding tom(Xpm, Ypm, Zpm). Point Pm(Xpm, Ypm, Zpm) Is calculated as follows:
[0052]
m = (xsm-Xs0) / (Xs1-Xs0)
1 / T = (1-m) / (zs0Xzp1) + M / (zs1Xzp0)
xpm/ T = (1-m) × xp0/ (Zs0Xzp1) + M × xp1/ (Zs1Xzp0)
ypm/ T = (1-m) × yp0/ (Zs0Xzp1) + M × yp1/ (Zs1Xzp0)
As described above, by using the three-dimensional coordinate information obtained by adding the z value to the pixel coordinate information IV, it is possible to eliminate the image distortion caused by the inclination of the plane of the general shape S as shown in FIG. , It becomes possible to obtain a more natural image.
[0053]
It goes without saying that the sixth display method can be used in place of the second display method used in the third to fifth display methods described above.
[0054]
Note that the display method described above can be realized by causing a computer having a CPU and a memory to execute a software program for performing the above processing, and a part of the display method can also be realized by a hardware circuit. . The method of implementing image processing using software or hardware is apparent to those skilled in the art based on the above description and the conventional image-based rendering technique, and will not be described in detail. Needless to say, the program for realizing the method of the present invention by a computer can be stored in an appropriate recording medium such as a portable medium memory, a semiconductor memory, or a hard disk readable by the computer.
[0055]
【The invention's effect】
In the present invention, since a photographed image having a viewpoint and a photographing direction close to each other is used and the image is deformed and drawn based on the approximate shape, an image having higher reality than the conventional polygon model can be obtained. Further, since the schematic shape used in the present invention may be simple, there is an advantage that the data can be easily created. Further, compared to a method of drawing with only a photographed image such as QuickTimeVR, it is possible to reduce the number of necessary photographed images, so that the model data amount can be kept low. In addition, since the number of polygons of the approximate shape can be suppressed to a very small value, the image composition time using the present invention is short, and it is possible to draw in real time.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of three-dimensional model data MD.
FIG. 2 is a diagram showing a flow of processing by a first display method.
FIG. 3 is a diagram illustrating an example of projection of a captured image onto a schematic shape.
FIG. 4 is a diagram showing an example of perspective projection onto a screen having a projected general shape.
FIG. 5 is a diagram illustrating an example of a composite image by a captured image and a first display method.
FIG. 6 is a diagram illustrating an example of pixel coordinate information IV and polygon information IP added to shooting information in the three-dimensional model data MD2.
FIG. 7 is a diagram showing a flow of processing by a second display method.
FIG. 8 is an explanatory diagram of a second display method.
FIG. 9 is an explanatory diagram of a second display method.
FIG. 10 is a diagram illustrating an image obtained by photographing a display target from the front.
FIG. 11 is a diagram illustrating an example in which a front-shot image is synthesized by the first display method with the viewpoint being 15 degrees to the left.
FIG. 12 is a diagram showing a flow of processing by a third display method.
FIG. 13 is a diagram illustrating an example in which a front-shot image is synthesized by a third display method with the viewpoint set to 15 degrees to the left.
FIG. 14 is a diagram showing a flow of processing by a fourth display method.
FIG. 15 is a diagram illustrating an example in which a display target is photographed from 135 degrees on the right and 30 degrees on the right.
FIG. 16 is a diagram illustrating an example in which a photographed image of 135 degrees to the right is synthesized by the first display method with the viewpoint being 15 degrees to the left.
FIG. 17 is a diagram illustrating an example in which a photographed image of 135 degrees to the right is synthesized by the third display method with the viewpoint being 15 degrees to the left.
FIG. 18 is a diagram showing a flow of processing by a fifth display method.
FIG. 19 is a diagram illustrating an example in which a photographed image of 135 degrees to the right is synthesized by the fifth display method with the viewpoint being 15 degrees to the left.
FIG. 20 is a diagram illustrating an example using three-dimensional pixel coordinate information.
FIG. 21 is an explanatory diagram of a polygonal deformation method.
FIG. 22 is a diagram illustrating an example of a polygon model.
[Explanation of symbols]
Pk image
Ik shooting information
S Outline shape

Claims (12)

表示対象物体の3次元モデルデータを用い,コンピュータによって任意の視点方向から見た物体の画像を表示する3次元画像処理方法において,
前記3次元モデルデータとして,表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,少なくとも撮影方向の情報を含む撮影情報Ik(1≦k≦n)と,表示対象物体の概略を表す概略形状Sの情報を用い,
前記3次元モデルデータの撮影画像Pk(1≦k≦n)の中から,指定された表示視点の方向と撮影方向とが近いk枚の撮影画像を近接撮影画像集合として選び,
その近接撮影画像集合の中で表示視点の方向と撮影方向とが遠い画像から1枚ずつ順次最も近い画像まで,
前記3次元モデルデータの概略形状Sの表面に,前記撮影画像の撮影位置を視点として撮影画像を投影する処理と,
その投影された概略形状を前記表示視点を視点としてスクリーン上に重ねて透視投影する処理とを,
前記近接撮影画像集合の中の各画像について繰り返すことにより表示画像を生成する
ことを特徴とする3次元画像処理方法。
In a 3D image processing method for displaying an image of an object viewed from an arbitrary viewpoint direction by a computer using 3D model data of a display target object,
As the three-dimensional model data, n photographed images Pk (1 ≦ k ≦ n) obtained by photographing a display target object from different directions, photographing information Ik (1 ≦ k ≦ n) including at least photographing direction information, Using information on the outline shape S representing the outline of the display target object,
From the photographed images Pk (1 ≦ k ≦ n) of the three-dimensional model data, k photographed images that are close to the designated display viewpoint direction and the photographing direction are selected as a close-up photographed image set ,
From the close-up shot image set to the closest image one by one from the image with the direction of the display viewpoint and the shooting direction far away,
On the surface of general shape S of the three-dimensional model data, a process of projecting the photographed image photographing position of the photographing field image as the viewpoint,
A process of superposing and projecting the projected schematic shape on the screen with the display viewpoint as a viewpoint ;
A display image is generated by repeating for each image in the close-up photographed image set .
表示対象物体の3次元モデルデータを用い,コンピュータによって任意の視点方向から見た物体の画像を表示する3次元画像処理方法において,
前記3次元モデルデータとして,表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,少なくとも撮影方向の情報を含む撮影情報Ik(1≦k≦n)と,表示対象物体の概略を表す概略形状Sの情報とからなり,前記撮影情報Ikに,撮影画像Pkを撮影したときの撮影装置の位置を視点とし,撮影画像Pk上に概略形状Sの各頂点を透視投影した各投影点の撮影画像上のピクセル座標からなる投影点情報IVと,概略形状Sの投影された多角形を表す投影点の連結を表す多角形情報IPとを含む情報を用い,
前記3次元モデルデータの撮影画像Pk(1≦k≦n)の中から,指定された表示視点の方向と撮影方向とが近いk枚の撮影画像を近接撮影画像集合として選び,
その近接撮影画像集合の中で表示視点の方向と撮影方向とが遠い画像から1枚ずつ順次最も近い画像まで,
前記表示視点を視点として前記3次元モデルデータの概略形状Sの各頂点をスクリーンに透視投影し,投影した概略形状Sの各頂点のスクリーン座標VSを求める処理と
前記撮影情報Ikの多角形情報IPから任意の多角形Aを1つ取り出し,多角形Aの各頂点座標を前記投影点情報IVから取得し,それが指し示す撮影画像Pkの多角形Aに対応する多角形Bの領域を切り出す処理と
さらに,多角形Aの各頂点のスクリーン座標VSから多角形Aに対応するスクリーン上の多角形Cを得て,前記多角形Bの形状を多角形Cの形状に合うように変形してスクリーン上に貼り付ける処理と
前記多角形情報IPの全ての多角形に対して,前記多角形Aと同様の操作を繰り返す処理とを,
前記近接撮影画像集合の中の各画像について繰り返すことにより表示画像を生成する
ことを特徴とする3次元画像処理方法。
In a 3D image processing method for displaying an image of an object viewed from an arbitrary viewpoint direction by a computer using 3D model data of a display target object,
As the three-dimensional model data, n photographed images Pk (1 ≦ k ≦ n) obtained by photographing a display target object from different directions, photographing information Ik (1 ≦ k ≦ n) including at least photographing direction information, Information of the outline shape S representing the outline of the display target object. The position of the photographing apparatus when the photographed image Pk is photographed is used as the viewpoint in the photograph information Ik, and each vertex of the outline shape S is displayed on the photographed image Pk. Using information including projection point information IV composed of pixel coordinates on a captured image of each projection point that has been perspective-projected, and polygon information IP representing a connection of projection points representing a projected polygon of the approximate shape S,
From the photographed images Pk (1 ≦ k ≦ n) of the three-dimensional model data, k photographed images that are close to the designated display viewpoint direction and the photographing direction are selected as a close-up photographed image set ,
From the close-up shot image set to the closest image one by one from the image with the direction of the display viewpoint and the shooting direction far away,
The display viewpoint each vertex of general shape S of the three-dimensional model data perspectively projected on the screen as a viewpoint, a processing asking you to screen coordinates VS of each vertex of the projected outline shape S,
One arbitrary polygon A is taken out from the polygon information IP of the shooting information Ik, each vertex coordinate of the polygon A is acquired from the projection point information IV, and corresponds to the polygon A of the shooting image Pk pointed to by it. and processing to cut out the area of a polygon B,
Further, a polygon C on the screen corresponding to the polygon A is obtained from the screen coordinates VS of each vertex of the polygon A, and the shape of the polygon B is deformed so as to match the shape of the polygon C, and then on the screen. and processing that stuck to,
A process of repeating the same operation as the polygon A for all the polygons of the polygon information IP ,
A display image is generated by repeating for each image in the close-up photographed image set .
表示対象物体の3次元モデルデータを用い,コンピュータによって任意の視点方向から見た物体の画像を表示する3次元画像処理方法において,
前記3次元モデルデータとして,
表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,
少なくとも撮影方向の情報を含む撮影情報Ik(1≦k≦n)と,
表示対象物体の概略を表す概略形状Sの情報と,
さらに前記撮影画像Pkと撮影位置が隣接する撮影画像Pmとで,撮影画像Pkの撮影位置と撮影画像Pmの撮影位置の中間を,撮影画像Pkの表示限界位置Lとし,表示限界位置Lを視点として概略形状Sの各多角形を透視投影したときにスクリーン上に映し出される多角形のうち,撮影画像Pkを撮影したときの撮影位置を視点として概略形状Sの各多角形を透視投影したときにスクリーン上に現れない多角形を,撮影画像Pmの撮影位置を視点として撮影画像Pm上に投影し,その多角形の頂点座標や多角形内の撮影画像を付加画像情報ITkとして加えた情報とを用い,
前記3次元モデルデータの撮影画像Pk(1≦k≦n)の中から,指定された表示視点の方向と撮影方向とが最も近い撮影画像Pj(1≦j≦n)を1枚選び,
前記3次元モデルデータの付加画像情報ITkをもとに,前記3次元モデルデータの概略形状Sの表面に,前記撮影画像の撮影位置を視点として撮影画像を投影し,その投影された概略形状を前記表示視点を視点としてスクリーン上に透視投影することによりスクリーンに描画し,
その後に前記3次元モデルデータの撮影情報Ikをもとに,前記3次元モデルデータの概略形状Sの表面に,前記撮影画像の撮影位置を視点として撮影画像を投影し,その投影された概略形状を前記表示視点を視点としてスクリーン上に透視投影してスクリーンに重ねて描画することにより表示画像を生成する
ことを特徴とする3次元画像処理方法。
In a 3D image processing method for displaying an image of an object viewed from an arbitrary viewpoint direction by a computer using 3D model data of a display target object,
As the three-dimensional model data,
N captured images Pk (1 ≦ k ≦ n) obtained by capturing the display target object from different directions;
Shooting information Ik (1 ≦ k ≦ n) including at least information of the shooting direction;
Information of the outline shape S representing the outline of the display target object;
Further, between the photographed image Pk and the photographed image Pm whose photographing position is adjacent, an intermediate between the photographing position of the photographed image Pk and the photographing position of the photographed image Pm is set as the display limit position L of the photographed image Pk, and the display limit position L is viewed. When the polygons of the approximate shape S are perspectively projected, the polygons that are projected on the screen when the polygons of the approximate shape S are perspectively projected are perspectively projected with respect to the shooting position when the captured image Pk is captured. the polygon does not appear on the screen, projected on the photographed image Pm photographing position of the photographing image Pm as the viewpoint, and information obtained by adding the photographed image in the vertex coordinates and polygon of the polygon as the additional image information ITk Use
From the photographed images Pk (1 ≦ k ≦ n) of the three-dimensional model data, one photographed image Pj (1 ≦ j ≦ n) having the closest display viewpoint direction and photographing direction is selected.
Based on the additional image information ITk of the 3D model data, a captured image is projected on the surface of the approximate shape S of the 3D model data from the shooting position of the captured image as a viewpoint, and the projected approximate shape is Drawing on the screen by perspective projection on the screen with the display viewpoint as the viewpoint ,
Thereafter, based on the imaging information Ik of the 3D model data, a captured image is projected on the surface of the approximate shape S of the 3D model data with the imaging position of the captured image as a viewpoint, and the projected approximate shape A three-dimensional image processing method characterized in that a display image is generated by perspectively projecting on the screen with the display viewpoint as a viewpoint and drawing it superimposed on the screen.
表示対象物体の3次元モデルデータを用い,コンピュータによって任意の視点方向から見た物体の画像を表示する3次元画像処理方法において,
前記3次元モデルデータとして,
表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,
表示対象物体の概略を表す概略形状Sの情報と,
少なくとも撮影方向の情報,および撮影画像Pkを撮影したときの撮影装置の位置を視点とし,撮影画像Pk上に概略形状Sの各頂点を透視投影した各投影点の撮影画像上のピクセル座標からなる投影点情報IV,および概略形状Sの投影された多角形を表す投影点の連結を表す多角形情報IPを含む撮影情報Ik(1≦k≦n)と,
さらに前記撮影画像Pkと撮影位置が隣接する撮影画像Pmとで,撮影画像Pkの撮影位置と撮影画像Pmの撮影位置の中間を,撮影画像Pkの表示限界位置Lとし,表示限界位置Lを視点として概略形状Sの各多角形を透視投影したときにスクリーン上に映し出される多角形のうち,撮影画像Pkを撮影したときの撮影位置を視点として概略形状Sの各多角形を透視投影したときにスクリーン上に現れない多角形を,撮影画像Pmの撮影位置を視点として撮影画像Pm上に投影し,その多角形の頂点座標や多角形内の撮影画像を付加画像情報ITkとして加えた情報とを用い,
前記3次元モデルデータの撮影画像Pk(1≦k≦n)の中から,指定された表示視点の方向と撮影方向とが最も近い撮影画像Pj(1≦j≦n)を1枚選び,
前記3次元モデルデータの付加画像情報ITkをもとに,前記表示視点を視点として前記3次元モデルデータの概略形状Sの各頂点をスクリーンに透視投影し,投影した概略形状Sの各頂点のスクリーン座標VSを求め,前記撮影情報Ikの多角形情報IPから任意の多角形Aを1つ取り出し,多角形Aの各頂点座標を前記投影点情報IVから取得し,それが指し示す撮影画像Pkの多角形Aに対応する多角形Bの領域を切り出し,さらに,多角形Aの各頂点のスクリーン座標VSから多角形Aに対応するスクリーン上の多角形Cを得て,前記多角形Bの形状を多角形Cの形状に合うように変形してスクリーン上に貼り付け,前記多角形情報IPの全ての多角形に対して,前記多角形Aと同様の操作を繰り返すことによりスクリーンに描画し,
その後に前記3次元モデルデータの撮影情報Ikをもとに,前記表示視点を視点として前記3次元モデルデータの概略形状Sの各頂点をスクリーンに透視投影し,投影した概略形状Sの各頂点のスクリーン座標VSを求め,前記撮影情報Ikの多角形情報IPから任意の多角形Aを1つ取り出し,多角形Aの各頂点座標を前記投影点情報IVから取得し,それが指し示す撮影画像Pkの多角形Aに対応する多角形Bの領域を切り出し,さらに,多角形Aの各頂点のスクリーン座標VSから多角形Aに対応するスクリーン上の多角形Cを得て,前記多角形Bの形状を多角形Cの形状に合うように変形してスクリーン上に貼り付け,前記多角形情報IPの全ての多角形に対して,前記多角形Aと同様の操作を繰り返 し,スクリーンに重ねて描画することにより表示画像を生成する
ことを特徴とする3次元画像処理方法。
In a 3D image processing method for displaying an image of an object viewed from an arbitrary viewpoint direction by a computer using 3D model data of a display target object,
As the three-dimensional model data,
N captured images Pk (1 ≦ k ≦ n) obtained by capturing the display target object from different directions;
Information of the outline shape S representing the outline of the display target object;
It consists of pixel coordinates on the captured image of each projection point obtained by perspectively projecting each vertex of the general shape S on the captured image Pk, with at least the information on the capturing direction and the position of the capturing device when capturing the captured image Pk as the viewpoint. Shooting information Ik (1 ≦ k ≦ n) including projection point information IV and polygon information IP representing connection of projection points representing a projected polygon of the approximate shape S;
Further, between the photographed image Pk and the photographed image Pm whose photographing position is adjacent, an intermediate between the photographing position of the photographed image Pk and the photographing position of the photographed image Pm is set as the display limit position L of the photographed image Pk, and the display limit position L is viewed. When the polygons of the approximate shape S are perspectively projected, the polygons that are projected on the screen when the polygons of the approximate shape S are perspectively projected are perspectively projected with respect to the shooting position when the captured image Pk is captured. A polygon that does not appear on the screen is projected onto the photographed image Pm with the photographing position of the photographed image Pm as a viewpoint, and information obtained by adding the vertex coordinates of the polygon and the photographed image in the polygon as additional image information ITk. Use
From the photographed images Pk (1 ≦ k ≦ n) of the three-dimensional model data, one photographed image Pj (1 ≦ j ≦ n) having the closest display viewpoint direction and photographing direction is selected.
Based on the additional image information ITk of the three-dimensional model data, each vertex of the schematic shape S of the three-dimensional model data is perspective-projected on the screen from the display viewpoint, and the screen of each vertex of the projected schematic shape S is projected. The coordinate VS is obtained, one arbitrary polygon A is extracted from the polygon information IP of the shooting information Ik, each vertex coordinate of the polygon A is acquired from the projection point information IV, and the number of the shot images Pk pointed to by it is obtained. A polygon B area corresponding to the polygon A is cut out, and a polygon C on the screen corresponding to the polygon A is obtained from the screen coordinates VS of each vertex of the polygon A. It is deformed to fit the shape of the square C and pasted on the screen, and all polygons of the polygon information IP are drawn on the screen by repeating the same operation as the polygon A.
Thereafter, based on the photographing information Ik of the three-dimensional model data, each vertex of the schematic shape S of the three-dimensional model data is perspective-projected on the screen from the display viewpoint, and each vertex of the projected schematic shape S is projected. The screen coordinate VS is obtained, one arbitrary polygon A is extracted from the polygon information IP of the shooting information Ik, each vertex coordinate of the polygon A is acquired from the projection point information IV, and the shot image Pk indicated by it is indicated. A region of polygon B corresponding to polygon A is cut out, and polygon C on the screen corresponding to polygon A is obtained from screen coordinates VS of each vertex of polygon A, and the shape of polygon B is obtained. paste on the screen is deformed to fit the shape of a polygon C, for all polygons of the polygon information IP, to repeat the operation similar to the polygon a, draw over the screen You 3-dimensional image processing method characterized by generating a display image by.
表示対象物体の3次元モデルデータを用い,コンピュータによって任意の視点方向から見た物体の画像を表示する3次元画像処理方法において,
前記3次元モデルデータとして,
表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,
少なくとも撮影方向の情報を含む撮影情報Ik(1≦k≦n)と,
表示対象物体の概略を表す概略形状Sの情報と,
さらに前記撮影情報Ikに,撮影画像Pkを撮影したときの撮影装置の位置を視点とし,撮影画像Pk上に概略形状Sの各頂点を透視投影した各投影点の撮影画像上のピクセル座標からなる投影点情報IVと,概略形状Sの投影された多角形を表す投影点の連結を表す多角形情報IPとを加えた情報,
および前記撮影画像Pkの撮影位置を視点として,概略形状Sの各多角形をスクリーンに投影し,各多角形の辺と辺とが交差する点を交点Xとし,交点Xを含む2辺の始点と終点の頂点の情報である交差点情報IXkと,スクリーン上に投影された交点Xを含む多角形情報とを加えた情報とを用い,
前記3次元モデルデータの撮影画像Pk(1≦k≦n)の中から,指定された表示視点の方向と撮影方向とが最も近い撮影画像Pj(1≦j≦n)を1枚選び,
前記表示視点を視点として前記3次元モデルデータの概略形状Sの各頂点をスクリーンに透視投影し,投影した概略形状Sの各頂点のスクリーン座標VSを求め,
前記交差点情報IXkの示す2辺の始点と終点に対応するスクリーン座標を代入して,その2辺の交点の座標を求めて頂点のスクリーン座標として加え,
前記撮影情報Ikの多角形情報IPから任意の多角形Aを1つ取り出し,
多角形Aの各頂点座標を前記投影点情報IVから取得し,
それが指し示す撮影画像Pkの多角形Aに対応する多角形Bの領域を切り出し,
さらに,多角形Aの各頂点のスクリーン座標VSから多角形Aに対応するスクリーン上の多角形Cを得て,前記多角形Bの形状を多角形Cの形状に合うように変形してスクリーン上に貼り付け,多角形情報IPの全ての多角形に対して,前記多角形Aと同様の操作を繰り返すことにより表示画像を生成する
ことを特徴とする3次元画像処理方法。
In a 3D image processing method for displaying an image of an object viewed from an arbitrary viewpoint direction by a computer using 3D model data of a display target object,
As the three-dimensional model data,
N captured images Pk (1 ≦ k ≦ n) obtained by capturing the display target object from different directions;
Shooting information Ik (1 ≦ k ≦ n) including at least information of the shooting direction;
Information of the outline shape S representing the outline of the display target object;
Further, the photographing information Ik includes pixel coordinates on the photographed image of each projection point obtained by perspectively projecting each vertex of the schematic shape S on the photographed image Pk with the viewpoint of the position of the photographing device when the photographed image Pk is photographed. Information obtained by adding projection point information IV and polygon information IP representing a connection of projection points representing a projected polygon of the approximate shape S;
Further, each polygon of the approximate shape S is projected onto the screen with the shooting position of the captured image Pk as a viewpoint, and the point where the sides of each polygon intersect is defined as an intersection X, and the starting points of the two sides including the intersection X And intersection information IXk which is information on the vertex of the end point and information obtained by adding the polygon information including the intersection point X projected on the screen,
From the photographed images Pk (1 ≦ k ≦ n) of the three-dimensional model data, one photographed image Pj (1 ≦ j ≦ n) having the closest display viewpoint direction and photographing direction is selected.
Perspectively projecting each vertex of the approximate shape S of the three-dimensional model data onto the screen from the display viewpoint, and obtaining a screen coordinate VS of each vertex of the projected approximate shape S;
Substituting the screen coordinates corresponding to the start point and end point of the two sides indicated by the intersection information IXk, the coordinates of the intersection of the two sides are obtained and added as the screen coordinates of the vertex,
One arbitrary polygon A is extracted from the polygon information IP of the shooting information Ik,
Obtaining the vertex coordinates of the polygon A from the projection point information IV;
Cut out a region of polygon B corresponding to polygon A of photographed image Pk to which it points,
Further, a polygon C on the screen corresponding to the polygon A is obtained from the screen coordinates VS of each vertex of the polygon A, and the shape of the polygon B is deformed so as to match the shape of the polygon C, and then on the screen. A display image is generated by repeating the same operation as that for the polygon A for all the polygons of the polygon information IP.
請求項2,請求項4または請求項5記載の3次元画像処理方法において,
前記投影点情報IVとして,奥行きの座標値を含む3次元座標データを用い,前記多角形Bの形状を多角形Cの形状に合うように変形する際に,前記奥行きの座標値を用い,前記スクリーンに対する前記概略形状Sの平面の傾きに応じた補正を行う
ことを特徴とする3次元画像処理方法。
According to claim 2,請 Motomeko 4 or 3-dimensional image processing method according to claim 5,
As the projection point information IV, three-dimensional coordinate data including a coordinate value of depth is used, and when the shape of the polygon B is deformed to match the shape of the polygon C, the coordinate value of the depth is used, The three-dimensional image processing method characterized by performing correction | amendment according to the inclination of the plane of the said general shape S with respect to a screen.
コンピュータによって3次元物体を表現する3次元モデリング方法において,
表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,
少なくとも撮影方向の情報を含む撮影情報Ik(1≦k≦n)と,
表示対象物体の概略を表す概略形状Sとの情報とを用いるとともに,
さらに,前記撮影画像Pkと撮影位置が隣接する撮影画像Pmとで,撮影画像Pkの撮影位置と撮影画像Pmの撮影位置の中間を,撮影画像Pkの表示限界位置Lとし,表示限界位置Lを視点として概略形状Sの各多角形を透視投影したときにスクリーン上に映し出される多角形のうち,撮影画像Pkを撮影したときの撮影位置を視点として概略形状Sの各多角形を透視投影したときにスクリーン上に現れない多角形を,撮影画像Pmの撮影位置を視点として撮影画像Pm上に投影し,その多角形の頂点座標や多角形内の撮影画像を付加画像情報ITkとして加えた情報を用いて,
表示対象物体の3次元モデルデータをコンピュータ上で生成し,
3次元画像処理を行うコンピュータが読み取り可能な記憶媒体に,前記3次元モデルデータを格納する
ことを特徴とする3次元モデリング方法。
In a three-dimensional modeling method for representing a three-dimensional object by a computer,
N captured images Pk (1 ≦ k ≦ n) obtained by capturing the display target object from different directions;
Shooting information Ik (1 ≦ k ≦ n) including at least information of the shooting direction;
While using the information with the outline shape S representing the outline of the display target object ,
Further, between the photographed image Pk and the photographed image Pm whose photographing position is adjacent, an intermediate between the photographing position of the photographed image Pk and the photographing position of the photographed image Pm is set as the display limit position L of the photographed image Pk, and the display limit position L is set as the display limit position L. When each polygon of the approximate shape S is perspective-projected, the polygon of the approximate shape S is perspectively projected out of the polygons projected on the screen when the captured image Pk is captured. A polygon that does not appear on the screen is projected onto the photographed image Pm with the photographing position of the photographed image Pm as the viewpoint, and information obtained by adding the vertex coordinates of the polygon and the photographed image in the polygon as additional image information ITk. make use of,
Generate 3D model data of display object on computer,
A three-dimensional modeling method comprising storing the three-dimensional model data in a computer-readable storage medium that performs three-dimensional image processing.
コンピュータによって3次元物体を表現する3次元モデリング方法において,
表示対象物体を異なる方向から撮影したn枚の撮影画像Pk(1≦k≦n)と,
少なくとも撮影方向の情報を含む撮影情報Ik(1≦k≦n)と,
表示対象物体の概略を表す概略形状Sとの情報とを用いるとともに,
さらに,前記撮影画像Pkの撮影位置を視点として,概略形状Sの各多角形をスクリーンに投影し,各多角形の辺と辺が交差する点を交点Xとし,交点Xを含む2辺の始点と終点の頂点の情報である交差点情報IXkと,スクリーン上に投影された交点Xを含む多角形情報とを,撮影情報Ikに加えた情報を用いて,
表示対象物体の3次元モデルデータをコンピュータ上で生成し,
3次元画像処理を行うコンピュータが読み取り可能な記憶媒体に,前記3次元モデルデータを格納する
ことを特徴とする3次元モデリング方法。
In a three-dimensional modeling method for representing a three-dimensional object by a computer,
N captured images Pk (1 ≦ k ≦ n) obtained by capturing the display target object from different directions;
Shooting information Ik (1 ≦ k ≦ n) including at least information of the shooting direction;
While using the information with the outline shape S representing the outline of the display target object,
Further, each polygon of the general shape S is projected onto the screen with the shooting position of the captured image Pk as a viewpoint, and the point where the sides of each polygon intersect is defined as an intersection X, and the starting points of the two sides including the intersection X Using information obtained by adding the intersection information IXk, which is information on the vertex of the end point, and polygon information including the intersection X projected on the screen to the shooting information Ik,
Generate 3D model data of display object on computer,
A three- dimensional modeling method , wherein the three-dimensional model data is stored in a computer-readable storage medium that performs three-dimensional image processing .
請求項7または請求項8記載の3次元モデリング方法において,
前記撮影画像Pkに,背景画像を切り取った画像を用いる
ことを特徴する3次元モデリング方法。
The three-dimensional modeling method according to claim 7 or 8,
A three-dimensional modeling method, wherein an image obtained by cutting a background image is used as the photographed image Pk.
請求項7,請求項8または請求項9記載の3次元モデリング方法において,
前記撮影情報Ikに,
撮影画像Pkを撮影したときの撮影装置Cの位置を視点とし,撮影画像Pk上に概略形状Sの各頂点を透視投影した各投影点の撮影画像上のピクセル座標からなる投影点情報IVと,
概略形状Sの投影された多角形を表す投影点の連結を表す多角形情報IPとを加えた
ことを特徴とする3次元モデリング方法。
In the three-dimensional modeling method according to claim 7, claim 8 or claim 9,
In the shooting information Ik,
Projection point information IV consisting of pixel coordinates on the photographic image of each projection point obtained by perspectively projecting each vertex of the schematic shape S on the photographic image Pk, with the position of the photographic device C when photographing the photographic image Pk as a viewpoint,
A three-dimensional modeling method comprising adding polygon information IP representing a connection of projection points representing a projected polygon of the approximate shape S.
請求項10記載の3次元モデリング方法において,
前記ピクセル座標からなる投影点情報IVとして,奥行きの座標値を含む3次元座標データを用いる
ことを特徴とする3次元モデリング方法。
The three-dimensional modeling method according to claim 10 ,
A three-dimensional modeling method characterized in that three-dimensional coordinate data including a coordinate value of depth is used as the projection point information IV including the pixel coordinates.
請求項1から請求項6までのいずれか1項に記載した3次元画像処理方法をコンピュータに実行させるためのプログラムを,コンピュータが読み取り可能な記録媒体に記録した
ことを特徴とする3次元画像処理プログラムを記録した記録媒体。
A three-dimensional image processing characterized in that a program for causing a computer to execute the three-dimensional image processing method according to any one of claims 1 to 6 is recorded on a computer-readable recording medium. A recording medium that records the program.
JP2000050999A 2000-02-28 2000-02-28 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program Expired - Fee Related JP3643511B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000050999A JP3643511B2 (en) 2000-02-28 2000-02-28 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000050999A JP3643511B2 (en) 2000-02-28 2000-02-28 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program

Publications (2)

Publication Number Publication Date
JP2001243497A JP2001243497A (en) 2001-09-07
JP3643511B2 true JP3643511B2 (en) 2005-04-27

Family

ID=18572712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000050999A Expired - Fee Related JP3643511B2 (en) 2000-02-28 2000-02-28 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program

Country Status (1)

Country Link
JP (1) JP3643511B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3352454B2 (en) * 2000-11-21 2002-12-03 キヤノン株式会社 Image processing apparatus and method, and storage medium
US7071953B2 (en) 2001-11-02 2006-07-04 Nippon Telegraph And Telephone Corporation Image processing method and image processing apparatus for obtaining overlaid image
JP2005063041A (en) * 2003-08-08 2005-03-10 Olympus Corp Three-dimensional modeling apparatus, method, and program
JP2005141655A (en) * 2003-11-10 2005-06-02 Olympus Corp Three-dimensional modeling apparatus and three-dimensional modeling method
JP4368748B2 (en) * 2004-06-28 2009-11-18 株式会社リコー Content editing method, document file structure, information processing apparatus and system, and program
CA2587644C (en) * 2004-11-12 2015-01-13 Mok3, Inc. Method for inter-scene transitions
US8570343B2 (en) * 2010-04-20 2013-10-29 Dassault Systemes Automatic generation of 3D models from packaged goods product images
JP5685516B2 (en) * 2011-10-25 2015-03-18 日本電信電話株式会社 3D shape measuring device
JP2016020891A (en) 2014-06-20 2016-02-04 株式会社リコー Shape measurement system and imaging device
JP6906370B2 (en) * 2017-05-31 2021-07-21 京セラ株式会社 Image processing device
JP6861584B2 (en) * 2017-06-28 2021-04-21 京セラ株式会社 Image processing equipment, image processing system and control program
CN110990997A (en) * 2019-10-26 2020-04-10 重庆铁马工业集团有限公司 Design scheme of box body parameterization process template

Also Published As

Publication number Publication date
JP2001243497A (en) 2001-09-07

Similar Documents

Publication Publication Date Title
JP6201476B2 (en) Free viewpoint image capturing apparatus and method
JP4947593B2 (en) Apparatus and program for generating free viewpoint image by local region segmentation
US8014985B2 (en) Setting and visualizing a virtual camera and lens system in a computer graphic modeling environment
JP4803594B2 (en) Apparatus and program for generating free viewpoint image by local region segmentation
US7129943B2 (en) System and method for feature-based light field morphing and texture transfer
US20160125638A1 (en) Automated Texturing Mapping and Animation from Images
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
WO2013082539A1 (en) Automatic tracking matte system
JP2006244306A (en) Animation generation system, animation generation device, animation generation method, program, and storage medium
US7428482B2 (en) Visualization and setting of a virtual camera and lens system in a computer graphic modeling environment
JP3104638B2 (en) 3D image creation device
JP3855053B2 (en) Image processing apparatus, image processing method, and image processing program
US6795090B2 (en) Method and system for panoramic image morphing
JP4108171B2 (en) Image synthesizer
JPH0950540A (en) Method for generating picture
JP3352454B2 (en) Image processing apparatus and method, and storage medium
JP2002163678A (en) Method and device for generating pseudo three- dimensional image
JP2005063041A (en) Three-dimensional modeling apparatus, method, and program
JP7394566B2 (en) Image processing device, image processing method, and image processing program
JP3309841B2 (en) Synthetic moving image generating apparatus and synthetic moving image generating method
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP2022029730A (en) Three-dimensional (3d) model generation apparatus, virtual viewpoint video generation apparatus, method, and program
US6633291B1 (en) Method and apparatus for displaying an image
JP2004227095A (en) Texture map formation method, program for texture map formation, and texture map formation device
JPH09245192A (en) Method for realizing virtual environment generation realizing and its device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050128

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090204

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100204

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110204

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120204

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130204

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees