JP3672739B2 - Texture image generator - Google Patents

Texture image generator Download PDF

Info

Publication number
JP3672739B2
JP3672739B2 JP18235098A JP18235098A JP3672739B2 JP 3672739 B2 JP3672739 B2 JP 3672739B2 JP 18235098 A JP18235098 A JP 18235098A JP 18235098 A JP18235098 A JP 18235098A JP 3672739 B2 JP3672739 B2 JP 3672739B2
Authority
JP
Japan
Prior art keywords
projection
plane
point
unit
developable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18235098A
Other languages
Japanese (ja)
Other versions
JP2000020735A (en
Inventor
利生 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP18235098A priority Critical patent/JP3672739B2/en
Publication of JP2000020735A publication Critical patent/JP2000020735A/en
Application granted granted Critical
Publication of JP3672739B2 publication Critical patent/JP3672739B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、テクスチャ画像生成装置に関する。特に、特徴点対応に基づく3次元形状復元処理を用いた任意視点の画像表示方式において、高品質かつ記憶容量が少なくて済むテクスチャ画像を自動生成できるテクスチャ画像生成装置に関する。
【0002】
【従来の技術】
近年のコンピュータシステムの高性能化、マルチメディア処理技術の発達により、パーソナルコンピュータ等においても高度な3次元コンピュータグラフィックス(以下、CGと略記する)が処理できる環境が整いつつある。3次元CG技術を利用した電子ショッピング、電子博物館など、物体をコンピュータ画面上に現実感をもって再現するシステムの構築において、実在する物体を如何に効率良くコンピュータ上の3次元画像データとして取り込むかが重要な課題となっている。
【0003】
3次元物体をコンピュータに取り込むためのデータ生成の手法として最も簡単な方式は、3次元物体を幾つかの視点から撮影した2次元画像データを生成して用意しておき、再現時には利用者の視点に応じて最も近い視点から撮影した2次元画像をディスプレイに表示する方式である。しかし、この方式によれば、撮影した視点以外からの視点による3次元物体の画像を表示できないという問題があった。また、あくまでも2次元画像であるので、3次元CGデータとして生成されている他の3次元物体との画像合成が実行しにくいという問題もあった。そこで、取り込んだ3次元物体を任意の視点から表示可能とするためには、物体を複数の視点から撮影した2次元画像データに基づいて物体の3次元形状を3次元画像データとして復元し、任意視点に対する3次元形状の投影画像を生成して表示することが必要となる。
【0004】
ここで、撮影した2次元画像データから物体の3次元形状を3次元画像データとして復元する方式として幾つか提案されているが、代表的な方式として、特徴点に基づく方式がある。この方式による3次元画像データの生成処理は、図19のフローチャートに示すように以下の処理ステップから構成される。また、図20に従来の特徴点に基づく3次元画像データ生成の概念を示す。
【0005】
まず、撮影画像を読み込み、特徴点を抽出する(ステップS1901)。この特徴点の抽出にあたり、撮影した2次元画像の中で明度が変化している箇所を選んで特徴点とすることが好ましい。この抽出処理は、明度の変化を調べることによりコンピュータで自動的に特徴点を抽出することにより実行しても良く、人手で指定することにより実行しても良い。この様子を図20に示す。この例では図20(a)の撮影画像から図20(b)に示した4つの特徴点が抽出された。
【0006】
次に、撮影画像間で、抽出した特徴点同士の対応付けを行う(ステップS1902)。この特徴点同士の対応付けにあたっては、撮影画像の撮影位置関係、画像の類似性、抽出特徴点間の位置関係を利用すれば、コンピュータで自動的に処理することが可能である。また、人手で指定することにより実行しても良い。図20の例では、図20(c)のように各特徴点1〜特徴点4の対応付けが行われた。
【0007】
次に、特徴点の対応関係からステレオ計測の原理により各特徴点の3次元座標を求める(ステップS1903)。この処理により、各特徴点は3次元空間内の一点として表現される。
【0008】
次に、3次元空間内に表現された各特徴点間に対して面を割り当て、多面体を形成する(ステップS1904)。ここで、面を形成する特徴点の組み合わせは任意の組み合わせではなく、再生物体の外表面を形成するように選択されなければならない。図20の例では、図20(d)のように面が割り当てられ、4面体が形成された。
【0009】
次に、各面のテクスチャを生成する(ステップS1905)。テクスチャの生成にあたっては、撮影画像の模様を参照すれば各面に貼るテクスチャが計算できる。
【0010】
以上のステップS1901〜ステップS1905に示した処理により、撮影画像から3次元画像データが生成できる。図20の例では、図20(e)に示すように元の3次元物体の3次元画像データが生成できる。
【0011】
一方、生成した3次元画像データを用いた3次元物体のコンピュータ画面上での再生処理は、図21のフローチャートに示すように以下の処理ステップから構成される。
【0012】
まず、利用者の物体に対する視点の位置を指定する。つまり、物体に対する視点の方向と距離が指定される(ステップS2101)。
次に、指定された物体に対する視点の方向と距離に応じた投影面に対する各特徴点の投影面上の位置を計算し、投影画像を得る(ステップS2102)。この段階では、まだテクスチャマッピング処理は行われていない。
【0013】
次に、投影画像の各面に対してテクスチャを貼り込む(ステップS2103)。ここで、テクスチャの貼り込みにあたっては、投影された各面の大きさ、形、方向を計算してテクスチャを調整して貼り込む。
【0014】
最後に、ライティング、トレーシング、シェーディングなど必要な特殊効果処理を施した後、コンピュータ画面上への表示が行われる(ステップS2104)。
【0015】
以上のステップS2101〜ステップS2104に示した処理により、生成した3次元画像データを用いてコンピュータ画面上へ3次元物体の任意の視点における画像が表示できる。
【0016】
【発明が解決しようとする課題】
3次元画像として取り込む物体は、その形状、模様も複雑なものが多く、また、一層優れた仮想現実を実現するために高精細なデータが要求される。この場合、必要とされるデータ容量が膨大なものとなるので、3次元画像データの記憶容量の低減が重要な課題となる。また、3次元画像の再生は、記録媒体やネットワークを介して時間的にも空間的にも離れた場所で行う必要があり、回線費用の低減や転送時間の短縮のために、一層のデータ容量の削減が求められている。
【0017】
ここで、特徴点とその接続関係は、XYZ値および特徴点の対応番号のデータセットで表現されるので、通常、テクスチャに関するデータ量と比べ、特徴点に関するデータ量は十分小さいものである。従って、3次元画像データのデータ量の削減は、テクスチャに関するデータ量を如何に削減するかという点が重要な課題となる。
【0018】
以下に挙げる2つの従来のテクスチャ画像生成処理方式には、それぞれデータ量低減の観点からは問題点を有するものであった。
第一番目のテクスチャ画像生成処理方式としては、3次元画像データ生成時には、テクスチャデータを3次元形状に貼り込んだ形の3次元物体としては復元せずに、撮影された画像データをそのまま記憶し、表示処理時に指定された視点に応じて各面に貼るテクスチャを生成する方式がある。この方式によれば、指定された視点に近い視点から撮影された画像データを用いて動的にテクスチャデータを生成すれば良いが、あらゆる視点から撮影した画像データが必要となり、テクスチャ処理に必要となる画像データは膨大な容量となる問題が発生する。
【0019】
第二番目のテクスチャ画像生成処理方式としては、各面ごとにその面に貼るテクスチャをそのまま画像(テクスチャ画像)として記憶する方式がある。これは、図22に示すように、多面体を形成する各面を切り離して平面上に配置しておき、その上に撮影画像の模様を描き込んで記憶するものである。しかし、このテクスチャ処理方式によれば、テクスチャ関連のデータとして保持するデータの中に無駄な部分が多く含まれ、余分な記憶容量が必要になってしまう問題があった。つまり、一般に多面体を平面に展開すると、図22に示したように面と面の間に無駄な隙間が多く発生してしまう。この隙間を埋めるように面を配置することは容易ではなく、また、画像の品質向上のために面の総数を増やすにつれて生じる隙間が増加し、無駄な記憶容量がさらに増加する問題が発生する。
【0020】
ここで、隙間を埋めるために、面の形を適宜に変形させることは可能であるが、画像は画素を単位とする2次元配列データとして表現されるため、面の形が元の形から歪むにつれ、画素を単位とする量子化誤差の影響が大きくなり、再生画像の品質が劣化するという問題が生じる。
【0021】
本発明は、上記従来のテクスチャ画像生成処理方式の問題点に鑑み、特徴点対応に基づく3次元オブジェクト復元処理を用いた任意視点の画像表示処理に用いるテクスチャ画像データであって、高品質かつ記憶容量の少ないテクスチャ画像データを自動生成するテクスチャ画像生成装置を提供することを目的とする。
【0022】
【課題を解決するための手段】
上記課題を解決するために本発明のテクスチャ画像生成装置は、入力部と、投影部と、分割部と、展開部と、画像書き込み部とを備え、前記入力部は、3次元オブジェクトの特徴点のデータと外表面の2次元撮影画像データの入力を受け付け、前記投影部は、前記入力された3次元オブジェクトの特徴点を、可展体面である既知形状面であって前記特徴点を包含する投影面に投影して投影点を求め、前記分割部は、前記投影面を前記特徴点の投影点により小面に分割し、前記展開部は、前記投影面を平面に展開して前記小面からなる展開平面を生成し、前記画像書き込み部は、前記展開平面上の各小面に対して、対応する特徴点が撮影された前記3次元オブジェクトの外表面の撮影画像を書き込むことによりテクスチャ画像を生成することを特徴とする。
【0023】
この構成により、3次元オブジェクトの特徴点を可展体面である既知形状面の投影面に投影して平面に展開することができ、前記展開平面への撮影画像データの書き込みにより効率の良いテクスチャ画像の生成を行うことができる。
【0024】
次に、前記投影部は投影面調整部を備え、前記投影面調整部が、前記投影部が生成する投影面の種類とサイズを、前記特徴点により形成される3次元オブジェクトの形状に合わせるように調整することにより、前記投影面の形状と前記特徴点により形成される3次元オブジェクトとの形状の歪みを最小化することが好ましい。
【0025】
この構成により、投影面の種類とサイズを特徴点により形成される3次元オブジェクトの形状に合わせることができるため、投影により生じる投影面上に形成される投影形成面と元の3次元オブジェクトの外表面との歪みを最小化することができ、テクスチャ画像の品質を向上することができる。
【0026】
次に、前記投影部は投影中心点適正確認部を備え、前記投影中心点適正確認部により、前記画像書き込み部による前記展開平面上の各小面への前記3次元オブジェクトの外表面の撮影画像の書き込みをモニタし、前記展開平面上の各小面と、対応する特徴点が撮影された撮影画像との対応が正しく得られているか確認することができることが好ましい。
【0027】
この構成により、3次元オブジェクトの特徴点の既知形状面への投影にあたり、形成される投影面上において3次元オブジェクトの各面が重ならないことが保証でき、3次元オブジェクトのすべての面を平面上に展開することができる。
【0028】
なお、投影中心点として、3次元オブジェクトの重心点、原点などあらかじめ定められた点などを採用することができ、投影中心点適正確認部により投影中心点の適正が確認できない場合は、投影中心点の選定をやり直す。
【0029】
次に、前記投影部が投影中心点の指定を入力する投影中心点指定部を備え、前記投影中心点指定部からの指定に基づいて前記投影中心点を定めることが好ましい。
【0030】
この構成により、投影中心点の指定を装置利用者が行なうことができ、状況に応じてテクスチャ画像生成装置の処理をチューニングすることができる。
次に、前記3次元オブジェクトの特徴点をグループに分ける特徴点グループ情報が付され、前記投影部が、前記特徴点グループ情報に従い、それぞれの特徴点のグループに対してそれぞれ投影処理を行うことが好ましい。
【0031】
この構成により、復元される3次元オブジェクトの形状が複雑な場合に、各部分の形状が処理しやすいようなオブジェクト部分に分けて投影処理することができ、テクスチャ画像の品質を向上させることができる。
【0032】
次に、前記投影部が、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面上の可展面および平面にまたがって投影される越境面がある場合に、前記越境面を形成する特徴点を投影した際に、特徴点のすべてが可展面上に投影されるように可展面を調整する可展面投影調整部を備え、前記越境面の特徴点の投影点のうち、前記可展面上にある投影点を可展面境界投影点とし、前記平面上にある投影点を平面境界投影点とし、前記可展面投影調整部は、前記投影中心点から前記平面境界投影点を通る投影線を延長して前記可展面の延長面と交わる点を可展面調整投影点として求め、前記分割部は、前記可展面の境界稜線を前記可展面境界投影点と前記可展面調整投影点とを順に結ぶ線とし、前記平面の境界稜線を前記平面境界投影点を順に結ぶ線として前記可展面と平面を分割することが好ましい。
【0033】
この構成により、既知形状面上に投影された3次元オブジェクトの各面が可展面と平面にまたがって形成されることがなく、可展面と平面の境界稜線を投影形成面間の境界稜線とすることができ、歪みの少ないテクスチャ画像を得ることができる。
【0034】
次に、前記投影部が、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面上の可展面および平面にまたがって投影される越境面がある場合に、前記越境面を形成する特徴点を投影した際に、特徴点のすべてが平面上に投影されるように平面を調整する平面投影調整部を備え、前記越境面の特徴点の投影点のうち、前記可展面上にある投影点を可展面境界投影点とし、前記平面上にある投影点を平面境界投影点とし、前記平面投影調整部は、前記投影中心点から前記可展面境界投影点を通る投影線を延長して前記平面の延長面と交わる点を平面調整投影点として求め、前記分割部は、前記平面の境界稜線を前記平面境界投影点と前記平面調整投影点とを順に結ぶ線とし、前記可展面の境界稜線を前記可展面境界投影点を順に結ぶ線として前記可展面と平面を分割することが好ましい。
【0035】
この構成により、既知形状面上に投影された3次元オブジェクトの各面が可展面と平面にまたがって形成されることがなく、可展面と平面の境界稜線を投影形成面間の境界稜線とすることができ、歪みの少ないテクスチャ画像を得ることができる。
【0036】
次に、前記投影部は、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面上の第一の可展面と第二の可展面にまたがって投影される越境面がある場合に、前記越境面を形成する特徴点を投影した際に、特徴点のすべてが前記第一の可展面上に投影されるように可展面を調整する可展面投影調整部を備え、前記越境面の特徴点の投影点のうち、前記一の可展面上にある投影点を第一の可展面境界投影点とし、前記第二の可展面上にある投影点を第二の可展面境界投影点とし、前記可展面投影調整部は、前記投影中心点から前記第二の可展面境界投影点を通る投影線を延長して前記第一の可展面の延長面と交わる点を可展面調整投影点として求め、前記分割部は、前記第一の可展面の境界稜線を前記第一の可展面境界投影点と前記可展面調整投影点とを順に結ぶ線とし、前記第二の可展面の境界稜線を前記第二の可展面境界投影点を順に結ぶ線として前記第一の可展面と第二の可展面を分割することが好ましい。
【0037】
この構成により、既知形状面上に投影された3次元オブジェクトの各面が2つの可展面間にまたがって形成されることがなく、第一の可展面と第二の可展面の境界稜線を投影形成面間の境界稜線とすることができ、歪みの少ないテクスチャ画像を得ることができる。
【0038】
次に、前記展開部は、前記可展面の平面への展開処理において、特徴点の投影点を結ぶ稜線に沿って切断・展開することが好ましい。
この構成により、可展面の切断・展開処理において、投影された特徴点により形成される面が途中から切断されてしまうことがなく、投影形成面間の稜線をもって切断することができ、歪みの少ないテクスチャ画像を得ることができる。
【0039】
次に、前記分割部は、前記投影面の分割処理において、前記特徴点の投影点を頂点とする凸包を生成し、前記凸包を構成する小面をもって前記投影面を分割した小面と近似して扱うことが好ましい。
【0040】
この構成により、特徴点の投影点を頂点とする凸包をもって投影面と近似して平面に展開することができ、効率良く、かつ、データ容量の無駄の少ないテクスチャ画像を生成することができる。
【0041】
次に、前記画像書き込み部は、前記展開平面への前記3次元オブジェクトの撮影画像を書き込む処理において、書き込むそれぞれの小面の撮影画像のデータとして、書き込む小面の面積が最も大きく撮影されている画像データを用いることが好ましい。
【0042】
この構成により、実物の3次元オブジェクト外表面のテクスチャに最も近いテクスチャ画像を生成することができる。
次に、前記画像書き込み部は、前記展開平面への前記3次元オブジェクトの撮影画像を書き込む処理において、書き込むそれぞれの小面の撮影画像のデータとして、書き込む小面を最も近い視点から撮影した画像データを用いることが好ましい。
【0043】
この構成により、指定の視点から見た場合の3次元オブジェクト外表面のテクスチャに最も近いテクスチャ画像を生成することができる。
次に、前記画像書き込み部は、前記展開平面への前記3次元オブジェクトの撮影画像を書き込む処理において、書き込むそれぞれの小面の撮影画像のデータの形状を、展開平面上の対応する小面の形状に合うようにアフィン変換して書き込むことが好ましい。
【0044】
この構成により、可展面および平面からなる既知形状への投影処理において実際の3次元オブジェクトの面とその投影形成面との形状の歪みを調整することができ、生成されるテクスチャ画像の歪みも矯正することができる。
【0045】
次に、本発明のテクスチャ画像生成装置を実現する処理プログラムを記録したコンピュータ読み取り可能な記録媒体は、3次元オブジェクトの特徴点のデータと外表面の撮影画像データの入力を受け付ける入力処理ステップと、前記入力された3次元オブジェクトの特徴点を、可展体面である既知形状面であって前記特徴点を包含する投影面に投影して投影点を求める投影処理ステップと、前記投影処理ステップにより投影した投影面を前記特徴点の投影点により小面に分割する分割処理ステップと、前記投影面を平面に展開して前記小面からなる展開平面を生成する展開処理ステップと、前記展開平面上の各小面に対して、対応する特徴点が撮影された前記3次元オブジェクトの外表面の撮影画像を書き込む画像書き込み処理ステップとを備え、テクスチャ画像を生成することを特徴とする処理プログラムを記録したことを特徴とする。
【0046】
この処理プログラムをコンピュータに読み取らせることより、コンピュータを利用して、3次元オブジェクトの特徴点を可展体面である既知形状面の投影面に投影して平面に展開することができ、前記展開平面への撮影画像データの書き込みにより効率の良いテクスチャ画像の生成を行うテクスチャ画像生成装置を構成することができる。
【0047】
【発明の実施の形態】
本発明のテクスチャ画像生成装置について図面を参照しつつ説明する。
まず始めに、本発明のテクスチャ画像生成装置の処理方式の基本的な考え方を以下に説明する。
【0048】
従来技術の説明において記述したように、テクスチャ画像は、3次元オブジェクトの外表面の展開面に対して3次元オブジェクトの外表面を撮影して得たテクスチャデータを描き込んだものであるので、展開平面間の隙間が少ない方がデータ容量は小さくて済む。いま、3次元オブジェクトの形状が既知であれば、画像データ生成処理において事前に3次元オブジェクトの平面への展開方法を検討して展開平面間の隙間が少なくなるように最適化しておくことが可能となる。
【0049】
例えば、3次元オブジェクトの形状が円筒体であるとすると、平面への展開は、図1に示すように、上面、側面、下面の3つの部分に切り離すだけで済む。この展開平面にテクスチャ画像を書き込めば高品質で記憶容量が少なくて済むテクスチャ画像とすることができる。この性質は、展開対象となった円筒体である3次元オブジェクトの形状が、可展体であったことに起因している。このように、3次元オブジェクトの形状が既知の可展体面であれば、所定の手順で展開した展開平面間の隙間が少なくなるので高品質かつ記憶容量の少ないテクスチャ画像とすることができる。
【0050】
ここで、可展面とは、一般に狭義には平面に展開可能な曲面を指す。例えば、円筒体の外表面は可展面である側面と平面である上面および下面の組み合わせである。本発明で言う「可展体」とは、その外表面が可展面同士の組み合わせ、または、可展面と平面の組み合わせであり適切に平面に展開できるものをいう。つまり、展開処理による面間の切断境界線は可展面同士の間、または可展面と平面との間のみ生じ、平面同士の間には生じないものを言う。「可展体面」とは、可展体を形成する面をいい、後述する投影処理においては投影面となる可展体の外表面をいう。
【0051】
本発明の可展体の例としては、図2に示すように、上記の円筒体に加え、柱体、錐体、台錐体がある。ここで、柱体には円柱体、楕円柱体などが含まれ、錐体には円錐体、楕円錐体などが含まれ、台錐体には台円錐体などが含まれる。また、可展面同士の組み合わせからなる可展体としては、2つの錐体を組み合わせたもの、球体などがある。なお、球体面は厳密には可展面ではないが、展開平面と球面の一対一の対応に注目すれば、球面を緯度と経度に着目して方形の平面に展開することが可能である。しかし、方形に展開したときに投影面上の形は大きく歪むことが予想されるので、球面を投影面として採用することはかならずしも好ましいとは言えない。
【0052】
ところで、画像処理で扱う3次元オブジェクトは一般には複雑な形状が多く、上記のような可展体とはなっていない。そこで、3次元オブジェクトを上記の可展体面からなる既知形状の中に入れ、その既知形状を投影面として、図3に示すように内部の投影中心点から3次元オブジェクトを投影面に投影し、その投影面を扱うことを考える。
【0053】
図3において、301は投影面であり、可展面及び平面の組み合わせである円筒体面である。302は投影中心点、303は投影される3次元オブジェクト、304は3次元オブジェクト外表面のうちの注目する一つの面である。投影処理は、まず投影中心点302から3次元オブジェクト303の各特徴点に向けて半直線が引かれる。これら半直線をそのまま投影面301まで延長し、投影面301上の投影点を求める。それぞれの特徴点に対するそれぞれの投影点が得られ、3次元オブジェクトの面304に対する投影面301上に投影された面304’が得られる。このように、3次元オブジェクト303のすべての特徴点を投影面301上に投影すれば、展開すべき元の3次元オブジェクトの特徴点に対応する投影点が得られる。ここで、投影面をそれら投影点を頂点とする各面(投影形成面)の集合とみると、3次元オブジェクトは投影処理の結果、可展体面である投影面301の形状を持つ物体として表現できる。投影面301は、図1に示したように平面に展開でき、展開平面は余分な隙間がないものとなるので、この展開平面に対して撮影画像のテクスチャを描き込んで作成したテクスチャ画像をもって3次元オブジェクトに対するテクスチャ画像とすれば、3次元オブジェクトのテクスチャ画像は、高品質かつ記憶容量の少ないものとすることができる。
【0054】
3次元オブジェクトの形状は一般には未知であり、その各外表面もテクスチャ画像と合わせて3次元特徴点から推定(もしくは算出)する必要がある。上述したように、3次元オブジェクトは投影処理の結果、投影点を頂点とする物体として表現されるので、逆に投影面を投影点を頂点とする小面に分割し、各小面を構成する投影点に対応する特徴点の組みを3次元オブジェクトの外表面とみなすことで、外表面の推定を行うことができる。これにより、テクスチャ画像と対応する外表面が得られる。
【0055】
以上、本発明のテクスチャ画像生成装置におけるテクスチャ画像生成の基本的な流れをまとめると、図4に示すように、3次元オブジェクト(ステップS401)の画像データから、3次元オブジェクト形状の特徴点の3次元点列での表現(ステップS402)とし、投影処理により投影面上での投影点列での表現(ステップS403)とし、投影点列を基に面を形成して投影面上の投影形成面での表現(ステップS404)とし、展開処理により展開平面上の投影形成面での表現(ステップS405)とし、最後に撮影画像を投影面に当てはめ、テクスチャ画像(ステップS406)として生成する。
【0056】
上記のように、可展体面からなる既知形状である投影面への投影を利用したテクスチャ画像の生成処理ができるテクスチャ画像生成装置を実現すれば、高品質かつ記憶容量の少ないテクスチャ画像を生成できる。
【0057】
以上に示した本発明における基本的な処理方式を実現した実施形態1のテクスチャ画像生成装置を以下に示す。
本実施形態1のテクスチャ画像生成装置の全体構成の概略と本装置による処理流れの全体像を図面を参照しつつ説明する。図5は、本装置の概略構成図を示している。図6は本装置が扱うデータ構造例を示している。
【0058】
図5に示すように、本実施形態1のテクスチャ画像生成装置は、大別して入力部10、特徴点抽出部20、投影部30、分割部40、展開部50、画像書き込み部60、出力部70を備えている。なお、図示していないが、システム全体の制御処理に必要な制御部、メモリ、モニタ、デバイス類は装備しているものとする。
【0059】
以下に、各部の動作を順を追って説明する。
入力部10によるデータ入力処理を説明する。図6aに本発明のテクスチャ画像生成装置の扱うデータ構造例を示す。データ100は、画像情報領域101、特徴点情報領域102、投影情報領域103、投影面情報領域104、その他情報領域105およびヘッダ106を備えている。
【0060】
データ100の構造におけるそれぞれの領域には、図6bに示したようなデータが与えられる。図6bに示すように、入力データは、必須の情報として撮影画像情報を備え、任意の情報として特徴点3次元座標情報、特徴点グループ情報、投影中心情報、投影面情報を備えている。ここで、特徴点グループ情報とは、特徴点の集合を複数の小グループに分ける情報であり、それぞれの特徴点の小グループごとに適切な投影面と投影中心点を個別に選択して投影処理する場合に利用する情報である。この特徴点グループ情報を利用して特徴点小グループごとに適切な投影面と投影中心点を個別に選択して投影処理するものは実施形態2として後述する。
【0061】
次に、特徴点抽出部20による特徴点抽出処理を説明する。
特徴点抽出部20は、入力データの特徴点情報として特徴点3次元座標情報が与えられている場合には、その特徴点3次元座標情報をもって特徴点とし、投影部30に渡す。特徴点3次元座標情報が与えられていない場合には、撮影画像情報から明るさが変化している箇所を検出し、その点を特徴点として自動的に抽出し、ステレオ計測の原理から3次元オブジェクトの特徴点を座標空間上の3次元点列として計算する。
【0062】
特徴点抽出部20は、撮影画像の状態によっては画像の明るさの変化による特徴点の抽出が困難な場合もあることに鑑み、特徴点指定部21を備えることが好ましい。装置利用者は、特徴点指定部21を介して自ら必要に応じて特徴点の指定を行うことができ、特徴点抽出処理をチューニングできることが好ましい。
【0063】
次に、投影部30による投影処理を説明する。図5に示すように投影部30は、特徴点配置部31、投影面生成部32、投影中心点指定部33、投影処理部34を備えている。
【0064】
特徴点配置部31は、特徴点抽出部20の特徴点抽出処理で得られた特徴点データをもとに3次元座標空間上に配置する。
投影面生成部32は、入力データ100中に投影面情報が与えられている場合は、その指定に従った種類の投影面を選択し、また投影面情報がない場合はデフォルトとして特定の投影面、ここでは円筒面を選択する。選択した種類の投影面をもって特徴点配置部31の配した特徴点をすべて含むように投影面を生成する。
【0065】
投影中心点指定部33は、入力データ100中に投影中心情報が与えられている場合は投影中心情報に従って投影処理における投影中心点を決定し、また、投影中心情報が与えられていない場合はデフォルトとして特定の投影中心点の計算、ここでは特徴点列の重心を計算して指定する。
【0066】
投影処理部34は、特徴点の投影処理を実行する。投影中心点から各特徴点に向けて投影線が引かれ、その投影線を投影面まで延長し、投影面との交点を特徴点の投影点とする。
【0067】
次に、分割部40による分割処理を説明する。分割部40は、投影部30により投影処理された投影面を、投影面上に形成されている特徴点の投影点を基に分割する。つまり、投影面上で投影点を頂点とした小面を形成して行き、その形成された小面により投影面全体を埋めることにより分割する。
【0068】
分割部40による上記の投影面の分割処理は、投影面上に形成されている投影点の3次元点列の凸包を求めることによっても近似的に実現できる。ここで、3次元点列の凸包とは、図7に示すように、3次元点列を空間上に配してそれらすべてを内側に含む巨大なゴム風船をできる限り縮小して得られる形状のことである。例えば円筒面など凸形状の面上に分布している点列の凸包は、点の数がある程度あれば円筒面にほぼ近似でき、円筒面を多角形の面によって分割したものと言えるからである。
【0069】
次に、展開部50による展開処理を説明する。展開部50は投影面を事前に最適化された平面に展開する。ここで、投影面は可展体面であるので、それぞれ隙間なく展開することができることとなる。投影面が円筒面の場合は、可展面である側面、平面である上面、下面により構成されているので図1に示したように展開が可能である。展開された平面上において、3次元オブジェクトのそれぞれの特徴点に対応する投影点の位置が決まることとなる。
【0070】
次に、画像書き込み部60により撮影画像のテクスチャを当てはめ、テクスチャ画像を生成する。面の当てはめは、入力された撮影画像上の特徴点と、それに対応する展開平面上における投影点とを一致するように重ねて割り当てることにより自動的に行うことができる。
【0071】
出力部70は、生成したテクスチャ画像を出力する部分である。出力データの例を図6bに示す。出力データのそれぞれの領域には、必須の情報として、テクスチャ画像情報、特徴点の接続関係情報を備えている。任意の情報として投影中心情報、投影面情報、特徴点グループ情報がある。特徴点グループ情報は入力情報で説明したように、特徴点の集合を複数の小グループに分ける情報であり、それぞれの特徴点の小グループごとに適切な投影面と投影中心点を個別に選択して投影処理を行った場合に利用する情報である。この特徴点グループ情報を利用するものは実施形態2として後述する。
【0072】
以上、上記のシステム構成および処理の流れにより、高品質かつ記憶容量の小さいテクスチャ画像を生成することができることを特徴とするテクスチャ画像生成装置が提供される。
【0073】
なお、上記例では、投影面として円筒面を用いて説明したが、その他の円錐面などの可展体面であっても良いことは言うまでもない。
(実施形態2)
実施形態2のテクスチャ画像生成装置は、実施形態1と同様、可展体面からなる既知形状面を投影面として投影・展開し、展開平面に撮影画像のテクスチャを貼り込んでテクスチャ画像を自動生成するものであるが、実施形態1のテクスチャ画像生成装置の投影部をさらに高性能化した投影部を備えたものである。
【0074】
本実施形態2のテクスチャ画像生成装置の全体構成の概略と本装置による処理流れの概略を図面を参照しつつ説明する。
図8は、実施形態2のテクスチャ画像生成装置の概略構成図を示している。図8に示すように、本実施形態2の装置では、実施形態1の構成における投影部30に代え、投影部30aを備えている。投影部30aは実施形態1の投影部30の構成に加えてさらに、投影面調整部35、投影中心点適正確認部36を備えた構成となっている。投影部30aの投影面調整部35、投影中心点適正確認部36を除いた各構成要素は、実施形態1で同じ番号を付して説明した各構成要素と同様であるのでここでの説明は省略し、投影部30aを中心に説明する。なお、実施形態1と同様、図示していないが、システム全体の制御処理に必要なメモリ、デバイス類などは装備している。
【0075】
まず、投影面調整部35の働きを以下に説明する。
投影面調整部35は、投影処理に用いる投影面の種類の選択、投影面形状・サイズの調整を行うものである。テクスチャ画像生成装置で扱う3次元オブジェクトの形状は、一般に多種多様なものが予想される。投影処理において、3次元オブジェクトの形状と投影面の形状の違いのために、投影処理の結果、形成される投影形成面の形状は実際の3次元オブジェクトの面の形状から少し歪むこととなる。このような歪みを抑えるために投影面として3次元オブジェクトにできるだけ近い可展体面を選ぶことが好ましい。投影面調整部35は、投影処理に用いる投影面の種類として3次元オブジェクト形状に近い適切なものを選択し、さらに3次元オブジェクト形状に近くなるように可展体面のサイズを調整する。投影面の種類の選定基準としては、例えば、特徴点から投影面までの距離の総和を計算し、もっとも値の小さくなる投影面の種類を選ぶ方法がある。
【0076】
また、投影面調整部35は、3次元オブジェクトの形状が複雑な場合は、3次元オブジェクトを幾つかのオブジェクト部分に分け、それぞれのオブジェクト部分の形状に対して適切な投影面の選択・サイズの調整ができる。
【0077】
上記のオブジェクト部分それぞれに投影面を割り当てる処理を以下詳しく説明する。
まず、入力部10から入力データが入力される(図9ステップS901)。ここでは、図6bにおいて示した入力データ中の特徴点情報として、特徴点グループ情報が与えられていたとする。
【0078】
投影面調整部35は、特徴点グループ情報に従って特徴点をグルーピングして各オブジェクト部分として把握する(ステップS902)。
投影面調整部35は、ステップS902で把握した各オブジェクト部分ごとに投影面の種類を選定する(ステップS903)。投影面の種類の選定にあたり、ここでは、オブジェクト部分の特徴点から投影面までの距離の総和を計算し、もっとも値の小さくなる投影面の種類を選ぶものとする。
【0079】
投影面調整部35は、投影面生成部32に対して投影面の種類を通知し、投影面の生成処理を行わせ、投影面のサイズの調整も制御する(ステップS904)。
【0080】
なお、各オブジェクト部分に対する、特徴点配置部31、投影面生成部32、投影中心点指定部33、投影処理部34による一連の投影処理は、それぞれ実施形態1と同様に行われる(ステップS905)。
【0081】
以上より、本実施形態2のテクスチャ画像生成装置は、対象となる3次元オブジェクトの形状が複雑な場合でも、各オブジェクト部分ごとに最適な投影処理を行うことができ、高品質かつ記憶容量の少ないテクスチャ画像の生成を行うことができる。
【0082】
次に、投影中心点適正確認部36の動作を説明する。
投影中心点適正確認部36は、投影処理における投影中心点の選定が適切に行われた否かを確認するものである。
【0083】
ここで言う投影中心点の適正について以下に説明する。図10は、不適切な投影中心点の例である。図10に示すように、面1004と1005の投影形成面1004’と1005’が重なるように、一部の投影形成面が投影面上で重なり合うため、正常な展開平面が得ることができないものとなっている。この場合には本発明の投影処理、展開処理によるテクスチャ画像生成を行うことができない。このような投影形成面の重なりがないことを投影中心点の適正と言う。
【0084】
ただし、図10の面1004、1005は3次元オブジェクトの真の外表面であり、本装置にはこの情報は与えられないため、投影形成面の重なりを直接判定することはできない。投影中心点適正確認部36は、投影面の分割によって得られる外表面の推定結果と3次元オブジェクトの撮影画像の矛盾を特徴点の並びかた(時計回りもしくは反時計回り)を用いて間接的に判定することにより、投影中心点が適正か否かを確認する。具体的には、分割によって得られるすべての外表面に対して、その面を構成する特徴点が面を外側から見たときに時計回りに並んでいるか反時計回りに並んでいるかを判定し、その結果と撮影画像上で各面を3次元オブジェクトの外側から見た時の特徴点の並びかたが一致していれば、投影中心点は適正であると判断する。分割によって得られる外表面の外側方向として、投影面の外側方向を用いる。撮影画像上の各面の外側方向として、その面を構成する全部の特徴点が抽出された撮影画像の撮影方向を用いる。
【0085】
投影面として円筒面が採用された例を説明する。実施形態1において説明したように、特徴点配置部31により配置された3次元特徴点列を包含するように投影面生成部32により投影面が生成されている。
【0086】
投影中心点指定部33は、まず、実施形態1で示した基準に従って投影中心点を指定する(ステップS1101)。つまり、入力データ中の投影中心データ、または、特徴点の重心計算、利用者による指定入力に従って指定する。
【0087】
次に、実施形態1と同様、投影処理部34は、指定した投影中心点から各特徴点に対して投影線を引いて投影面上の投影点を求め(ステップS1102)、投影点を頂点とする多角形で投影面である円筒面を隙間なく分割して多角形の面で埋めつくす(ステップS1103)。次に、展開部50は、投影面である円筒面を平面に展開する(ステップS1104)。ここで、投影面である円筒面は図1に示したように可展面である側面と平面である上面と下面に展開される。
【0088】
ここで、投影中心点適正確認部36は、画像書き込み部60による特徴点間の関係を基に3次元オブジェクトの各面の撮影画像を当てはめ・書き込み処理をモニタする(ステップS1105)。ここで、ステップS1104で得られた特徴点の並びかたと3次元オブジェクトの各面の撮影画像上での特徴点の並びかたが一致していれば、投影中心点が適切に選択されたことが確認できる(ステップS1106)。その後も同じ3次元オブジェクトと投影中心点を用いる限り正常な投影処理が保証される。
【0089】
投影中心点の適正が確認できない場合は、投影中心点の選定をやり直すか、または特徴点を適切にグルーピングしてオブジェクト部分に分けて投影処理を実行すれば良い。
【0090】
以上より、本実施形態2のテクスチャ画像生成装置は、投影処理において、対象となる3次元オブジェクトの形状と投影中心点の関係が適正なものであることを確認することができ、適切な投影処理を保証することができ、高品質かつ記憶容量の少ないテクスチャ画像の生成を行うことができる。
【0091】
(実施形態3)
本実施形態3のテクスチャ画像生成装置は、実施形態1と同様、可展体面からなる既知形状面を投影面として投影・展開し、展開平面に撮影画像のテクスチャを貼り込んでテクスチャ画像を自動生成するものであるが、実施形態1のテクスチャ画像生成装置の投影部および分割部をさらに高性能化した投影部および分割部を備えたものである。
【0092】
実施形態3のテクスチャ画像生成装置の全体構成の概略と本装置による処理流れの概略を図面を参照しつつ説明する。
図12は、実施形態3のテクスチャ画像生成装置の概略構成図を示している。図12に示すように、本実施形態3の装置では、実施形態1の構成における投影部30に代えて投影部30bを備え、分割部40に代えて分割部40aを備えている。投影部30bは実施形態1の投影部30の構成に加えてさらに、投影調整部37を備えた構成となっている。投影部30bの投影調整部37を除いた各構成要素は、実施形態1で同じ番号を付して説明した各構成要素と同様であるのでここでの説明は省略し、投影部30bを中心に説明する。また、分割部40aは展開境界線調整部41と可展面展開境界線調整部42を備えている。なお、実施形態1と同様、図示していないが、システム全体の制御処理に必要なメモリ、デバイス類などは装備している。
【0093】
投影部30bの投影調整部37と分割部40aの展開境界線調整部41は、投影面上への投影処理において可展面および平面をまたがる越境面が発生する場合に、可展面、平面の延長・縮退を実行して両者の展開境界線を調整し、投影形成面の境界稜線をもって展開境界線とするものである。
【0094】
ここで、越境面について説明する。投影処理において、投影点列は投影面上に配置されているが、投影点が可展面上と平面上に形成されるので、投影形成面を形成する頂点となる投影点一部が可展面上に形成され、他の部分が平面上に形成されたような面(越境面と呼ぶ)が生じる場合がある。例えば、図13aに示すように投影面として円筒面が採用された例において、投影形成面1303は上面1301と可展面1302にまたがって形成された越境面となっている。このような場合に可展面、平面を調整し、展開境界線を調整することにより投影形成面の境界稜線をもって展開境界線とすることができれば、テクスチャ画像を貼り込む面が分断されることなく歪みも少ないものとすることができ、テクスチャ画像生成装置の性能を一層向上させることができる。
【0095】
可展面、平面の延長・縮退調整、展開境界線の調整は以下のように行う。
第一番目の調整方式は、越境面を形成する特徴点の投影を調整してすべて可展面上に投影する可展面投影調整部37aおよび展開境界線調整部41を備える方式である。図13aに示すように、越境面1303を形成する投影点のうち、可展面上にある投影点1305、1306を可展面境界投影点とし、平面上にある投影点1307を平面境界投影点とする。可展面投影調整部37aは、まず、図13bに示す1302’のように可展面を延長する。さらに、投影中心点1304から平面境界投影点1307を通る投影線を延長し、可展面の延長面と交わる点を可展面調整投影点1307’として求める。この処理をすべての可展面と平面との境界面に沿って実行する。次に、分割処理において展開境界線調整部41は、可展面の境界稜線を生成された可展面調整投影点を順に結ぶ線とし、平面の境界稜線を平面境界投影点を順に結ぶ線とすれば、図13cに示すように、可展面と平面の展開境界線は投影形成面の境界稜線となり、一つの投影形成面が可展面と平面に分断されることがなくなる。このように、テクスチャ画像生成装置は、可展面投影調整部37aおよび展開境界線調整部41を備えることによりテクスチャ画像生成の性能を一層向上させることができる。
【0096】
第二番目の調整方式は、越境面を形成する特徴点の投影を調整してすべて平面上に投影する平面投影調整部37bと展開境界線調整部41を備える方式である。図14bに示すように、越境面1303を形成する投影点のうち、可展面上にある投影点1305、1306を可展面境界投影点とし、平面上にある投影点1307を平面境界投影点とする。平面投影調整部37bは、投影中心点1304から可展面境界投影点1305、1306を通る投影線を延長して平面の延長面と交わる点を平面調整投影点1305’、1306’として求める。この処理をすべての可展面と平面との境界面に沿って実行する。展開境界線調整部41は、平面の境界稜線を生成された平面調整投影点を順に結ぶ線とし、可展面の境界稜線を可展面境界投影点を順に結ぶ線とすれば、図14cに示すように、可展面と平面の境界線は投影形成面の境界稜線となり、一つの投影形成面が可展面と平面に分断されることがなくなる。このように、テクスチャ画像生成装置は、平面投影調整部37bおよび展開境界線調整部41を備えることによりテクスチャ画像生成の性能を一層向上させることができる。
【0097】
第三番目の調整方式は、投影面が可展面同士の境界を持つ場合における越境面を形成する特徴点の投影を調整してすべて一方の可展面上に投影する方式である。可展面投影調整部37cと展開境界線調整部41を備える方式である。基本的な考え方は上記の第一番目の調整方式、第二番目の調整方式と同様であるのでここでは、説明を省略する。
【0098】
次に、可展面展開境界線調整部42は、可展面の展開にあたり可展面の一部を切断処理する際に、可展面上の投影形成面の境界稜線に沿って切断するものである。図15aに示すように、投影形成面1501、1502は、デフォルトとして与えられている可展面の展開境界線1500をまたがって形成されている。可展面展開境界線調整部42は図15bに示すように、可展面展開境界線1500を左右に調整して投影形成面の境界稜線もって新たな可展面境界稜線1500’とする。この可展面展開境界調整をすべての可展面展開境界に沿って行うことにより、可展面の展開処理において一つの投影形成面が左右に分断されることがなくなる。
【0099】
以上のように、実施形態3のテクスチャ画像生成装置は、可展面展開境界線調整部42を備えることによりテクスチャ画像生成の性能を一層向上させることができる。
【0100】
(実施形態4)
実施形態4のテクスチャ画像生成装置は、実施形態1と同様、可展面および平面からなる既知形状面を投影面として投影・展開し、展開平面に撮影画像のテクスチャを貼り込んでテクスチャ画像を自動生成するものであるが、実施形態1のテクスチャ画像生成装置の画像書き込み部60をさらに高性能化した画像書き込み部60aを備えたものである。
【0101】
図16は、実施形態4のテクスチャ画像生成装置の概略構成図を示している。図16に示すように、本実施形態4の装置では、実施形態1の構成における画像書き込み部60に代えて画像書き込み部60aを備えている。画像書き込み部60aは実施形態1の画像書き込み部60の構成に加えてさらに、撮影画像選択部61とアフィン変換部62を備えた構成となっている。画像書き込み部60aの撮影画像選択部61とアフィン変換部62を除いた各構成要素は、実施形態1で同じ番号を付して説明した各構成要素と同様であるのでここでの説明は省略し、撮影画像選択部61とアフィン変換部62を中心に説明する。なお、実施形態1と同様、図示していないが、システム全体の制御処理に必要なメモリ、デバイス類などは装備している。
【0102】
撮影画像選択部61とアフィン変換部62は、画像書き込み処理において、撮影画像のテクスチャの展開平面への当てはめ・書き込みにおける両者の歪みの調整を行うものである。
【0103】
まず、撮影画像選択部61の備える第一番目の調整方式は、撮影画像上の各面は多方向から撮影されているので当てはめる面の形状ともっとも近い形状で撮影されている撮影画像のテクスチャを当てはめる撮影画像として選択することである。この撮影画像の選択により当てはめる撮影画像のテクスチャデータとして、もっとも歪みの少ないデータを選択することができ、テクスチャ画像生成の性能を一層向上させることができる。
【0104】
撮影画像選択部61の備える第二番目の調整方式は、撮影画像上の各面は多方向から撮影されているので当てはめる面をもっとも近い視点から撮影した撮影画像のテクスチャを当てはめる撮影画像として選択することである。この撮影画像の選択により当てはめる撮影画像のテクスチャデータとして、もっとも歪みの少ないデータを選択することができ、テクスチャ画像生成の性能を一層向上させることができる。
【0105】
次に、アフィン変換部62は、撮影画像のテクスチャデータをアフィン変換することにより書き込む面の形状に変形して歪みを調整する。投影面上に形成された投影形成面は、元の3次元オブジェクトを投影面に投影して形成されたために元の3次元オブジェクトの外表面とは多少歪んだ形状となっている。そこで、面の当てはめ・テクスチャの書き込みに先立ち、アフィン変換部62により撮影画像のテクスチャデータの形状を調整することが好ましい。ここで、アフィン変換とは、座標の一次式で表わされる変換であり、画像の拡大、縮小、平行移動、回転などによって画像の形状を変化させる変換をいう。
【0106】
アフィン変換部62の処理の流れを以下に説明する。
まず、アフィン変換の係数を決定する(図17ステップS1701)。つまり、撮影画像上の特徴点の座標と、展開平面上に投影された対応する特徴点の投影点の座標から両者を一致させるアフィン変換の係数を求める。
【0107】
投影により発生した形状の歪みを調整した画像を生成するためにはテクスチャ画像として生成する面の各画素値として、撮影画像上の対応する画素値をアフィン変換して対応する座標に書き込めば良い。まず、テクスチャ画像の注目する面の注目する画素、例えばXY座標において一番XY座標値が小さい左下の画素を注目画素として指定する(ステップS1702)。
【0108】
その注目画素の位置に対する撮影画像上の画素の位置をアフィン変換により決定する(ステップS1703)。
ステップS1703により求めた位置の撮影画像の画素値を読み取り、テクスチャ画像上の注目画素の画素値として書き込む(ステップS1704)。
【0109】
このステップS1702〜ステップS1704をすべての画素に対して実行する。つまり、ステップS1702において注目した注目画素の指定をX方向Y方向に走査するように移動して行くことにより次々と注目画素を指定し、その注目画素に対してステップS1703〜ステップS1704により対応する画素値を書き込んで行く。
【0110】
以上、実施形態4のテクスチャ画像生成装置は、画像選択部61を備えるにより、入力画像のうち、書き込む面の画像としてもっとも歪みの少ない画像を選択することができ、さらにアフィン変換部62を備えることにより、投影により発生した形状の歪みを調整して正しく面の当てはめ・書き込みが実行でき、テクスチャ画像生成の性能を一層向上させることができる。
【0111】
(実施形態5)
本発明のテクスチャ画像生成装置は、上記に説明した構成を実現する処理ステップを記述したプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することにより、各種コンピュータを用いて構築することができる。本発明のテクスチャ画像生成装置を実現する処理ステップを備えたプログラムを記録した記録媒体は、図18に図示した記録媒体の例に示すように、CD−ROM202やフレキシブルディスク203等の可搬型記録媒体201だけでなく、ネットワーク上にある記録装置内の記録媒体200や、コンピュータのハードディスクやRAM等の記録媒体205のいずれであっても良く、プログラム実行時には、プログラムはコンピュータ204上にローディングされ、主メモリ上で実行される。
【0112】
【発明の効果】
本発明のテクスチャ画像生成装置によれば、可展面および平面からなる既知形状面を投影面として投影・展開し、展開平面に撮影画像のテクスチャを貼り込んでテクスチャ画像を自動生成することができ、高品質かつ記憶容量の少ないテクスチャ画像を生成することができる。
【0113】
また、本発明のテクスチャ画像生成装置によれば、3次元オブジェクトの形状に応じた適切な投影面を選定することができ、3次元オブジェクトが複雑な場合でもオブジェクト部分ごとに投影面を最適化して選定することができる。
【0114】
また、本発明のテクスチャ画像生成装置によれば、投影処理における投影中心点が適正かどうかを確認することができ、適正なテクスチャ画像が生成できる。また、本発明のテクスチャ画像生成装置によれば、投影面が可展面、平面の組み合わせである場合に、展開処理における展開境界線を投影形成面の境界稜線とすることができ、投影形成面を分断することがなく、歪みの少ないテクスチャ画像が得られる。
【0115】
また、本発明のテクスチャ画像生成装置によれば、展開平面への画像書き込みにおいて最も歪みの少ない画像を選択することができ、また、アフィン変換により形状の歪みを調整して画像を書き込むことができ、テクスチャ画像の品質を向上することができる。
【図面の簡単な説明】
【図1】 円筒面の展開例を示す図
【図2】 可展面の組み合わせの例を示す図
【図3】 投影面を利用した投影処理の概念を示す図
【図4】 本発明のテクスチャ画像生成装置におけるテクスチャ画像生成の基本的な流れを示す図
【図5】 本発明の実施形態1のテクスチャ画像生成装置の概略構成図
【図6】 本発明の実施形態1のテクスチャ画像生成装置が扱うデータ構造例
【図7】 凸包の形成を説明する図
【図8】 本発明の実施形態2のテクスチャ画像生成装置の概略構成図
【図9】 オブジェクト部分それぞれに投影面を割り当てる処理を示すフローチャート
【図10】 不適切な投影中心点の例を示す図
【図11】 本発明の実施形態2の投影中心点適正確認部36による投影中心点が適正が否かを確認する処理ステップを示したフローチャート
【図12】 本発明の実施形態3のテクスチャ画像生成装置の概略構成図
【図13】 本発明の実施形態3の可展面投影調整部37a、平面投影調整部37bによる投影調整を説明する図
【図14】 本発明の実施形態3の可展面投影調整部37cによる投影調整を説明する図
【図15】 本発明の実施形態3の可展面展開境界線調整部42による展開境界線の調整を説明する図
【図16】 本発明の実施形態4のテクスチャ画像生成装置の概略構成図
【図17】 本発明の実施形態4のアフィン変換部62の処理ステップを示したフローチャート
【図18】 記録媒体の例
【図19】 従来のテクスチャ画像生成処理ステップを示したフローチャート
【図20】 従来の特徴点に基づく3次元画像データ生成の概念を示す図
【図21】 従来のコンピュータ画面上での3次元画像再生処理ステップを示したフローチャート
【図22】 従来の各面ごとに貼るテクスチャ画像を平面上に配置して記憶する方式を説明する図
【符号の説明】
10 入力部
20 特徴点抽出部
21 特徴点指定部
30,30a,30b 投影部
31 特徴点配置部
32 投影面生成部
33 投影中心点指定部
34 投影処理部
35 投影面調整部
36 投影中心点適正確認部
37,37a 投影調整部
40,40a 分割部
41 展開境界線調整部
42 可展面展開境界線調整部
50 展開部
60,60a 画像書き込み部
61 撮影画像選択部
62 アフィン変換部
70 出力部
100 データ
101 画像情報領域
102 特徴点情報領域
103 投影情報領域
104 投影面情報領域
105 その他情報領域
106 ヘッダ
200 回線先のハードディスク等の記録媒体
201 CD−ROMやフレキシブルディスク等の可搬型記録媒体
202 CD−ROM
203 フレキシブルディスク
204 コンピュータ
205 コンピュータ上のRAM/ハードディスク等の記録媒体
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a texture image generation apparatus. More particularly, the present invention relates to a texture image generation apparatus capable of automatically generating a texture image with high quality and a small storage capacity in an arbitrary viewpoint image display method using a three-dimensional shape restoration process based on feature point correspondence.
[0002]
[Prior art]
Due to the recent high performance of computer systems and the development of multimedia processing technology, an environment in which advanced three-dimensional computer graphics (hereinafter abbreviated as CG) can be processed even in personal computers and the like is being prepared. In constructing systems that realistically reproduce objects on computer screens, such as electronic shopping and electronic museums that use 3D CG technology, it is important how efficiently the existing objects are captured as 3D image data on the computer. It is a difficult issue.
[0003]
The simplest method for generating data for capturing a three-dimensional object into a computer is to generate and prepare two-dimensional image data obtained by photographing the three-dimensional object from several viewpoints. The two-dimensional image taken from the closest viewpoint is displayed on the display. However, according to this method, there is a problem that an image of a three-dimensional object cannot be displayed from a viewpoint other than the photographed viewpoint. Moreover, since it is a two-dimensional image to the last, there also existed a problem that image synthesis with the other three-dimensional object produced | generated as three-dimensional CG data was difficult to perform. Therefore, in order to display the captured 3D object from any viewpoint, the 3D shape of the object is restored as 3D image data based on the 2D image data obtained by photographing the object from a plurality of viewpoints. It is necessary to generate and display a three-dimensional projection image for the viewpoint.
[0004]
Here, some methods have been proposed as a method of restoring the three-dimensional shape of an object as three-dimensional image data from the photographed two-dimensional image data. As a typical method, there is a method based on feature points. The three-dimensional image data generation process by this method includes the following processing steps as shown in the flowchart of FIG. FIG. 20 shows a concept of generating three-dimensional image data based on conventional feature points.
[0005]
First, a captured image is read and feature points are extracted (step S1901). In extracting the feature points, it is preferable to select a location where the brightness changes in the photographed two-dimensional image as a feature point. This extraction processing may be executed by automatically extracting feature points by a computer by examining changes in brightness, or may be executed by manually specifying the feature points. This is shown in FIG. In this example, the four feature points shown in FIG. 20B are extracted from the captured image of FIG.
[0006]
Next, the extracted feature points are associated with each other between the captured images (step S1902). The association between the feature points can be automatically processed by a computer by using the photographing positional relationship of the photographed images, the similarity of the images, and the positional relationship between the extracted feature points. Moreover, you may perform by specifying manually. In the example of FIG. 20, each feature point 1 to feature point 4 is associated as shown in FIG.
[0007]
Next, the three-dimensional coordinates of each feature point are obtained from the correspondence between the feature points by the principle of stereo measurement (step S1903). By this processing, each feature point is expressed as one point in the three-dimensional space.
[0008]
Next, a face is assigned to each feature point expressed in the three-dimensional space to form a polyhedron (step S1904). Here, the combination of the feature points forming the surface is not an arbitrary combination, but must be selected so as to form the outer surface of the reproduced object. In the example of FIG. 20, a face is assigned as shown in FIG. 20D, and a tetrahedron is formed.
[0009]
Next, a texture for each surface is generated (step S1905). When generating the texture, the texture to be applied to each surface can be calculated by referring to the pattern of the photographed image.
[0010]
Through the processing shown in steps S1901 to S1905, three-dimensional image data can be generated from the captured image. In the example of FIG. 20, the three-dimensional image data of the original three-dimensional object can be generated as shown in FIG.
[0011]
On the other hand, the reproduction process on the computer screen of the three-dimensional object using the generated three-dimensional image data includes the following processing steps as shown in the flowchart of FIG.
[0012]
First, the position of the viewpoint with respect to the user's object is designated. That is, the direction and distance of the viewpoint with respect to the object are designated (step S2101).
Next, the position on the projection plane of each feature point with respect to the projection plane according to the direction and distance of the viewpoint with respect to the designated object is calculated to obtain a projection image (step S2102). At this stage, the texture mapping process has not yet been performed.
[0013]
Next, a texture is pasted on each surface of the projected image (step S2103). Here, when pasting the texture, the size, shape, and direction of each projected surface are calculated and the texture is adjusted and pasted.
[0014]
Finally, after performing necessary special effect processing such as lighting, tracing, and shading, display on the computer screen is performed (step S2104).
[0015]
Through the processing shown in steps S2101 to S2104, an image at an arbitrary viewpoint of the three-dimensional object can be displayed on the computer screen using the generated three-dimensional image data.
[0016]
[Problems to be solved by the invention]
An object to be captured as a three-dimensional image has many complicated shapes and patterns, and high-definition data is required to realize a better virtual reality. In this case, since the required data capacity becomes enormous, reduction of the storage capacity of the three-dimensional image data becomes an important issue. In addition, 3D image playback must be performed at a location that is separated in time and space via a recording medium or a network. To reduce line costs and transfer time, further increase the data capacity. Reduction is required.
[0017]
Here, since the feature points and their connection relations are expressed by a data set of XYZ values and corresponding numbers of feature points, the data amount related to the feature points is usually sufficiently smaller than the data amount related to the texture. Therefore, the reduction of the data amount of the three-dimensional image data is an important issue in how to reduce the data amount related to the texture.
[0018]
The two conventional texture image generation processing methods listed below have problems from the viewpoint of reducing the data amount.
As the first texture image generation processing method, when the 3D image data is generated, the captured image data is stored as it is without being restored as a 3D object in which the texture data is pasted into the 3D shape. There is a method of generating a texture to be attached to each surface in accordance with the viewpoint designated at the time of display processing. According to this method, texture data may be generated dynamically using image data taken from a viewpoint close to the designated viewpoint, but image data taken from any viewpoint is required, and is necessary for texture processing. There arises a problem that the image data becomes a huge capacity.
[0019]
As a second texture image generation processing method, there is a method of storing a texture to be attached to each surface as an image (texture image) as it is. As shown in FIG. 22, each surface forming a polyhedron is separated and placed on a plane, and a pattern of a captured image is drawn and stored thereon. However, according to this texture processing method, there is a problem that a lot of useless portions are included in the data held as texture-related data, and an extra storage capacity is required. That is, generally, when a polyhedron is developed on a plane, a lot of useless gaps are generated between the surfaces as shown in FIG. It is not easy to arrange the faces so as to fill in the gaps, and the gaps that are generated increase as the total number of faces is increased in order to improve the image quality, resulting in a problem that the useless storage capacity further increases.
[0020]
Here, in order to fill the gap, it is possible to appropriately deform the shape of the surface, but since the image is expressed as two-dimensional array data in units of pixels, the shape of the surface is distorted from the original shape. As a result, the influence of the quantization error in units of pixels increases, resulting in a problem that the quality of the reproduced image is degraded.
[0021]
In view of the problems of the conventional texture image generation processing method, the present invention provides texture image data used for image display processing at an arbitrary viewpoint using a three-dimensional object restoration process based on feature point correspondence, and has high quality and storage. An object of the present invention is to provide a texture image generation apparatus that automatically generates texture image data with a small capacity.
[0022]
[Means for Solving the Problems]
In order to solve the above problems, a texture image generation apparatus of the present invention includes an input unit, a projection unit, a division unit, a development unit, and an image writing unit, and the input unit is a feature point of a three-dimensional object. The projection unit receives the feature point of the inputted three-dimensional object as a known shape surface that is a developable surface and includes the feature point. Projecting onto a projection surface to obtain a projection point, the dividing unit divides the projection surface into small surfaces based on the projection points of the feature points, and the developing unit expands the projection surface into a plane to form the small surface The developed image plane is generated, and the image writing unit writes a captured image of the outer surface of the three-dimensional object in which the corresponding feature point is captured for each small surface on the expanded plane. To produce And butterflies.
[0023]
With this configuration, the feature points of the three-dimensional object can be projected onto a projection surface of a known shape surface, which is a developable surface, and developed on a plane, and a texture image that is efficient by writing captured image data on the development plane Can be generated.
[0024]
Next, the projection unit includes a projection plane adjustment unit, and the projection plane adjustment unit adjusts the type and size of the projection plane generated by the projection unit to the shape of the three-dimensional object formed by the feature points. It is preferable to minimize distortion of the shape of the projection plane and the shape of the three-dimensional object formed by the feature points.
[0025]
With this configuration, since the type and size of the projection plane can be matched to the shape of the three-dimensional object formed by the feature points, the projection plane formed on the projection plane generated by the projection and the original three-dimensional object are excluded. The distortion with the surface can be minimized, and the quality of the texture image can be improved.
[0026]
Next, the projection unit includes a projection center point appropriateness confirmation unit, and by the projection center point appropriateness confirmation unit, a captured image of the outer surface of the three-dimensional object on each facet on the development plane by the image writing unit It is preferable to be able to check whether or not the correspondence between each facet on the development plane and the photographed image obtained by photographing the corresponding feature point is correctly obtained.
[0027]
With this configuration, when projecting feature points of a three-dimensional object onto a known shape surface, it can be ensured that each surface of the three-dimensional object does not overlap on the formed projection surface. Can be deployed.
[0028]
Note that the center of gravity of the three-dimensional object, a predetermined point such as the origin, etc. can be adopted as the projection center point, and if the appropriateness of the projection center point cannot be confirmed by the projection center point appropriateness confirmation unit, the projection center point Redo the selection.
[0029]
Next, it is preferable that the projection unit includes a projection center point designating unit for inputting designation of a projection center point, and the projection center point is determined based on designation from the projection center point designating unit.
[0030]
With this configuration, the apparatus user can designate the projection center point, and the processing of the texture image generation apparatus can be tuned according to the situation.
Next, feature point group information that divides the feature points of the three-dimensional object into groups is attached, and the projection unit performs a projection process on each group of feature points according to the feature point group information. preferable.
[0031]
With this configuration, when the shape of the three-dimensional object to be restored is complex, it is possible to perform projection processing separately on object portions that can be easily processed, and to improve the quality of the texture image. .
[0032]
Next, when there is a transboundary surface projected across the developable surface and the plane on the projection surface among the projection forming surfaces formed by the projection processing of the characteristic points, the transboundary surface A projecting point of the feature point on the transboundary surface, comprising a developable surface projection adjustment unit that adjusts the developable surface so that all of the feature points are projected onto the developable surface when projecting the feature points forming Among these, the projection point on the developable surface is defined as a developable boundary projection point, the projection point on the plane is defined as a plane boundary projection point, and the developable surface projection adjustment unit is configured to A projection line that passes through a plane boundary projection point is extended to obtain a point that intersects with an extension surface of the developable surface as a developable surface adjustment projection point, and the dividing unit calculates a boundary edge line of the developable surface as the developable surface boundary. A line connecting the projection point and the developable surface adjustment projection point in order, and the boundary ridge line of the plane is the plane boundary It is preferable to divide the friendly exhibition surface and a plane as a line connecting the projected points in order.
[0033]
With this configuration, each surface of the three-dimensional object projected onto the known shape surface is not formed across the developable surface and the plane, and the boundary ridge line between the developable surface and the plane is the boundary ridge line between the projection forming surfaces. And a texture image with less distortion can be obtained.
[0034]
Next, when there is a transboundary surface projected across the developable surface and the plane on the projection surface among the projection forming surfaces formed by the projection processing of the characteristic points, the transboundary surface A plane projection adjustment unit that adjusts the plane so that all of the feature points are projected onto the plane when projecting the feature points forming the feature points. A projection point on the surface is defined as a developable boundary projection point, a projection point on the plane is defined as a plane boundary projection point, and the plane projection adjustment unit passes through the developable boundary projection point from the projection center point. A point that extends the projection line and intersects the extended surface of the plane is obtained as a plane adjustment projection point, and the dividing unit sets a boundary ridge line of the plane as a line that sequentially connects the plane boundary projection point and the plane adjustment projection point. , The boundary ridge line of the developable surface in order of the developable surface boundary projection point It is preferable to divide the friendly exhibition surface and a plane as a line connecting.
[0035]
With this configuration, each surface of the three-dimensional object projected onto the known shape surface is not formed across the developable surface and the plane, and the boundary ridge line between the developable surface and the plane is the boundary ridge line between the projection forming surfaces. And a texture image with less distortion can be obtained.
[0036]
Next, the projection unit projects the boundary between the first and second developable surfaces on the projection surface among the projection forming surfaces formed by the projection processing of the feature points. When the feature points that form the transboundary surface are projected, the developable surface projection adjustment unit that adjusts the developable surface so that all of the feature points are projected onto the first developable surface. Among the projection points of the feature points of the transboundary surface, a projection point on the first developable surface is defined as a first developable surface boundary projection point, and a projection point on the second developable surface The second developable surface boundary projection point, and the developable surface projection adjustment unit extends the projection line passing through the second developable surface boundary projection point from the projection center point to the first developable surface boundary projection point. A point that intersects the extended surface of the surface is obtained as a developable surface adjustment projection point, and the dividing unit determines a boundary ridge line of the first developable surface as the first developable surface boundary projection point. The first developable surface and the second as the line connecting the developable surface adjustment projection points in order, and the boundary ridge line of the second developable surface as the line connecting the second developable surface boundary projection points in order. It is preferable to divide the developable surface.
[0037]
With this configuration, each surface of the three-dimensional object projected on the known shape surface is not formed between the two developable surfaces, and the boundary between the first and second developable surfaces. A ridge line can be used as a boundary ridge line between projection forming surfaces, and a texture image with less distortion can be obtained.
[0038]
Next, it is preferable that the developing unit cuts and develops along a ridge line connecting the projection points of the feature points in the process of developing the developable surface into a plane.
With this configuration, in the process of cutting and developing the developable surface, the surface formed by the projected feature points is not cut from the middle, and it is possible to cut with the ridgeline between the projection forming surfaces, and distortion A few texture images can be obtained.
[0039]
Next, in the dividing process of the projection plane, the dividing unit generates a convex hull having the projection point of the feature point as a vertex, and a small surface obtained by dividing the projection surface with the small surface forming the convex hull. Approximate handling is preferred.
[0040]
With this configuration, a convex hull having the projection point of the feature point as an apex can be approximated to the projection plane and developed on a plane, and a texture image with low waste of data capacity can be generated efficiently.
[0041]
Next, in the process of writing the photographed image of the three-dimensional object on the development plane, the image writing unit captures the largest facet area to be written as the photographed image data of each facet to be written. It is preferable to use image data.
[0042]
With this configuration, it is possible to generate a texture image closest to the texture of the actual outer surface of the three-dimensional object.
Next, in the process of writing the photographed image of the three-dimensional object on the development plane, the image writing unit captures the facet to be written from the closest viewpoint as data of the photographed image of each facet to be written. Is preferably used.
[0043]
With this configuration, it is possible to generate a texture image closest to the texture of the outer surface of the three-dimensional object when viewed from a specified viewpoint.
Next, in the process of writing the captured image of the three-dimensional object to the development plane, the image writing unit sets the shape of the captured image data of each facet to be written to the shape of the corresponding facet on the development plane. It is preferable to write by affine transformation so as to match.
[0044]
With this configuration, it is possible to adjust the distortion of the shape of the actual three-dimensional object surface and its projection forming surface in the projection processing to a known shape consisting of a developable surface and a flat surface, and the distortion of the generated texture image It can be corrected.
[0045]
Next, a computer-readable recording medium in which a processing program for realizing the texture image generating apparatus of the present invention is recorded is an input processing step for receiving input of feature point data of the three-dimensional object and photographed image data of the outer surface, Projecting the input feature point of the three-dimensional object onto a projection plane that is a known shape surface that is a developable surface and includes the feature point, and projecting by the projection processing step A dividing process step of dividing the projected plane into small planes according to the projection points of the feature points, a developing process step of developing the projected plane into a plane to generate a developed plane composed of the small planes, An image writing processing step for writing a photographed image of the outer surface of the three-dimensional object on which the corresponding feature point is photographed for each facet; For example, it characterized by recording a processing program and generates a texture image.
[0046]
By causing the computer to read this processing program, the feature point of the three-dimensional object can be projected onto a projection surface of a known shape surface, which is a developable surface, and developed on a plane using the computer. A texture image generation apparatus that generates an efficient texture image by writing photographed image data to can be configured.
[0047]
DETAILED DESCRIPTION OF THE INVENTION
The texture image generation apparatus of the present invention will be described with reference to the drawings.
First, the basic concept of the processing method of the texture image generation apparatus of the present invention will be described below.
[0048]
As described in the description of the prior art, the texture image is obtained by drawing texture data obtained by photographing the outer surface of the three-dimensional object on the development surface of the outer surface of the three-dimensional object. The smaller the gap between the planes, the smaller the data capacity. If the shape of the 3D object is already known, it is possible to optimize the image data generation process in advance so that the space between the expanded planes can be reduced by examining the method of expanding the 3D object onto the plane in advance. It becomes.
[0049]
For example, assuming that the shape of the three-dimensional object is a cylindrical body, the development on the plane need only be separated into three parts: an upper surface, a side surface, and a lower surface, as shown in FIG. If a texture image is written on this development plane, it is possible to obtain a texture image with high quality and a small storage capacity. This property is attributed to the fact that the shape of the three-dimensional object, which is a cylindrical body to be developed, was a developable body. As described above, if the shape of the three-dimensional object is a known developable surface, the gap between the development planes developed by a predetermined procedure is reduced, so that a texture image with high quality and a small storage capacity can be obtained.
[0050]
Here, the developable surface generally refers to a curved surface that can be developed into a plane in a narrow sense. For example, the outer surface of the cylindrical body is a combination of a side surface that is a developable surface and an upper surface and a lower surface that are flat surfaces. The term “developable body” as used in the present invention refers to a material whose outer surface is a combination of developable surfaces or a combination of a developable surface and a flat surface and can be appropriately developed on a flat surface. That is, the boundary line between the surfaces by the development process is generated between the developable surfaces or between the developable surface and the plane, and does not occur between the planes. The “developable body surface” refers to a surface that forms a developable body, and refers to the outer surface of the developable body that becomes a projection surface in the projection processing described later.
[0051]
As an example of the developable body of the present invention, there are a columnar body, a cone body, and a trapezoidal body in addition to the above-described cylindrical body as shown in FIG. Here, the cylinder includes a cylinder, an elliptic cylinder, the cone includes a cone, an ellipse, and the like, and the frustum includes a cone and the like. In addition, examples of the developable body composed of a combination of developable surfaces include a combination of two cones and a sphere. Strictly speaking, the spherical surface is not a developable surface. However, if attention is paid to the one-to-one correspondence between the development plane and the spherical surface, the spherical surface can be developed into a rectangular plane by focusing on the latitude and longitude. However, since the shape on the projection surface is expected to be greatly distorted when expanded into a square, it is not always preferable to use a spherical surface as the projection surface.
[0052]
By the way, a three-dimensional object handled in image processing generally has a complicated shape and is not a developable body as described above. Therefore, the three-dimensional object is put in the known shape made of the above-described developable surface, and the known shape is used as the projection surface, and the three-dimensional object is projected onto the projection surface from the internal projection center point as shown in FIG. Consider handling the projection plane.
[0053]
In FIG. 3, reference numeral 301 denotes a projection surface, which is a cylindrical surface that is a combination of a developable surface and a flat surface. Reference numeral 302 denotes a projection center point, 303 denotes a three-dimensional object to be projected, and 304 denotes a focused surface of the three-dimensional object outer surface. In the projection processing, first, a half line is drawn from the projection center point 302 toward each feature point of the three-dimensional object 303. These half lines are extended as they are to the projection plane 301, and a projection point on the projection plane 301 is obtained. Each projection point for each feature point is obtained, and a surface 304 ′ projected onto the projection surface 301 for the surface 304 of the three-dimensional object is obtained. In this way, when all the feature points of the three-dimensional object 303 are projected onto the projection plane 301, projection points corresponding to the feature points of the original three-dimensional object to be developed can be obtained. Here, when the projection plane is considered as a set of planes (projection formation planes) having the projection points as vertices, the three-dimensional object is expressed as an object having the shape of the projection plane 301 that is a developable plane as a result of the projection process it can. The projection plane 301 can be developed on a plane as shown in FIG. 1, and the development plane does not have an extra space. If the texture image for the three-dimensional object is used, the texture image of the three-dimensional object can be of high quality and have a small storage capacity.
[0054]
The shape of a three-dimensional object is generally unknown, and each outer surface thereof needs to be estimated (or calculated) from a three-dimensional feature point together with a texture image. As described above, the three-dimensional object is expressed as an object having a projection point as a vertex as a result of the projection process. By regarding the set of feature points corresponding to the projection points as the outer surface of the three-dimensional object, the outer surface can be estimated. Thereby, the outer surface corresponding to the texture image is obtained.
[0055]
The basic flow of texture image generation in the texture image generation apparatus according to the present invention is summarized as follows. As shown in FIG. 4, three feature points of the three-dimensional object shape are obtained from the image data of the three-dimensional object (step S401). A representation with a three-dimensional point sequence (step S402), a representation with a projection point sequence on the projection surface by projection processing (step S403), a surface is formed based on the projection point sequence, and a projection formation surface on the projection surface (Step S404), and development processing is used to express on the projection plane on the development plane (step S405). Finally, the captured image is applied to the projection plane to generate a texture image (step S406).
[0056]
As described above, if a texture image generation device capable of generating a texture image using projection onto a projection surface having a known shape composed of a developable surface is realized, a texture image with high quality and low storage capacity can be generated. .
[0057]
A texture image generation apparatus according to the first embodiment that realizes the basic processing method of the present invention described above will be described below.
An outline of the overall configuration of the texture image generation apparatus according to the first embodiment and an overall image of the processing flow of the apparatus will be described with reference to the drawings. FIG. 5 shows a schematic configuration diagram of the present apparatus. FIG. 6 shows an example of the data structure handled by this apparatus.
[0058]
As shown in FIG. 5, the texture image generation apparatus according to the first embodiment is roughly divided into an input unit 10, a feature point extraction unit 20, a projection unit 30, a division unit 40, a development unit 50, an image writing unit 60, and an output unit 70. It has. Although not shown, it is assumed that a control unit, a memory, a monitor, and devices necessary for control processing of the entire system are provided.
[0059]
Hereinafter, the operation of each unit will be described in order.
Data input processing by the input unit 10 will be described. FIG. 6a shows an example of the data structure handled by the texture image generation apparatus of the present invention. The data 100 includes an image information area 101, a feature point information area 102, a projection information area 103, a projection plane information area 104, another information area 105, and a header 106.
[0060]
Each region in the structure of the data 100 is given data as shown in FIG. As shown in FIG. 6b, the input data includes captured image information as essential information, and includes feature point three-dimensional coordinate information, feature point group information, projection center information, and projection plane information as arbitrary information. Here, the feature point group information is information that divides a set of feature points into a plurality of small groups, and an appropriate projection plane and projection center point are individually selected for each small group of feature points to perform projection processing. This information is used when A method for performing projection processing by individually selecting an appropriate projection plane and projection center point for each small feature point group using this feature point group information will be described later as a second embodiment.
[0061]
Next, feature point extraction processing by the feature point extraction unit 20 will be described.
When the feature point three-dimensional coordinate information is given as the feature point information of the input data, the feature point extraction unit 20 takes the feature point three-dimensional coordinate information as a feature point and passes it to the projection unit 30. If the feature point 3D coordinate information is not given, a point where the brightness is changed is detected from the captured image information, and the point is automatically extracted as a feature point. The feature points of the object are calculated as a three-dimensional point sequence on the coordinate space.
[0062]
The feature point extraction unit 20 preferably includes a feature point designation unit 21 in view of the fact that it may be difficult to extract feature points due to changes in image brightness depending on the state of the captured image. It is preferable that the device user can specify the feature points as needed through the feature point specifying unit 21 and tune the feature point extraction process.
[0063]
Next, projection processing by the projection unit 30 will be described. As shown in FIG. 5, the projection unit 30 includes a feature point arrangement unit 31, a projection plane generation unit 32, a projection center point designation unit 33, and a projection processing unit 34.
[0064]
The feature point placement unit 31 places the feature point in the three-dimensional coordinate space based on the feature point data obtained by the feature point extraction process of the feature point extraction unit 20.
When projection plane information is given in the input data 100, the projection plane generation unit 32 selects a type of projection plane according to the designation, and when there is no projection plane information, the projection plane generation unit 32 uses a specific projection plane as a default. Here, a cylindrical surface is selected. A projection plane is generated so as to include all the feature points arranged by the feature point arrangement unit 31 with the selected type of projection plane.
[0065]
The projection center point designating unit 33 determines the projection center point in the projection process according to the projection center information when the projection center information is given in the input data 100, and defaults when the projection center information is not given. As a calculation of a specific projection center point, here, the center of gravity of the feature point sequence is calculated and designated.
[0066]
The projection processing unit 34 performs a feature point projection process. A projection line is drawn from the projection center point toward each feature point, the projection line is extended to the projection plane, and an intersection with the projection plane is set as a projection point of the feature point.
[0067]
Next, the dividing process by the dividing unit 40 will be described. The dividing unit 40 divides the projection surface projected by the projecting unit 30 based on the projection points of the feature points formed on the projection surface. In other words, a small surface having projection points at the vertices is formed on the projection surface, and the entire projection surface is filled with the formed small surfaces for division.
[0068]
The above dividing process of the projection plane by the dividing unit 40 can be approximately realized by obtaining a convex hull of a three-dimensional point sequence of projection points formed on the projection plane. Here, as shown in FIG. 7, the convex hull of a three-dimensional point sequence is a shape obtained by arranging a three-dimensional point sequence in a space and reducing a huge rubber balloon including all of them inside as much as possible. That is. For example, the convex hull of a sequence of points distributed on a convex surface such as a cylindrical surface can be approximated to a cylindrical surface with a certain number of points, and it can be said that the cylindrical surface is divided by polygonal surfaces. is there.
[0069]
Next, the expansion process by the expansion unit 50 will be described. The developing unit 50 develops the projection surface into a plane that has been optimized in advance. Here, since the projection surface is a developable surface, each can be developed without a gap. When the projection surface is a cylindrical surface, the projection surface is composed of a side surface that is a developable surface, an upper surface that is a flat surface, and a lower surface, and thus can be developed as shown in FIG. On the developed plane, the position of the projection point corresponding to each feature point of the three-dimensional object is determined.
[0070]
Next, the texture of the captured image is applied by the image writing unit 60 to generate a texture image. The surface fitting can be automatically performed by assigning the feature points on the input captured image and the corresponding projection points on the development plane so as to coincide with each other.
[0071]
The output unit 70 is a part that outputs the generated texture image. An example of output data is shown in FIG. Each area of the output data includes texture image information and feature point connection relation information as essential information. Arbitrary information includes projection center information, projection plane information, and feature point group information. As described in the input information, feature point group information is information that divides a set of feature points into a plurality of small groups, and selects an appropriate projection plane and projection center point for each small group of feature points. Information used when projection processing is performed. What uses this feature point group information will be described later as a second embodiment.
[0072]
As described above, a texture image generation apparatus characterized by being able to generate a texture image with high quality and a small storage capacity by the above system configuration and processing flow is provided.
[0073]
In the above example, the cylindrical surface is used as the projection surface. However, it goes without saying that the surface may be a developable surface such as another conical surface.
(Embodiment 2)
Similar to the first embodiment, the texture image generation apparatus according to the second embodiment projects and develops a known shape surface made of a developable surface as a projection surface, and automatically generates a texture image by pasting the texture of the photographed image on the development plane. However, the projection unit of the texture image generation apparatus according to the first embodiment includes a projection unit with higher performance.
[0074]
An outline of the overall configuration of the texture image generation apparatus according to the second embodiment and an outline of a processing flow by the apparatus will be described with reference to the drawings.
FIG. 8 is a schematic configuration diagram of the texture image generation apparatus according to the second embodiment. As shown in FIG. 8, the apparatus according to the second embodiment includes a projection unit 30a instead of the projection unit 30 in the configuration of the first embodiment. In addition to the configuration of the projection unit 30 of the first embodiment, the projection unit 30a further includes a projection plane adjustment unit 35 and a projection center point appropriateness confirmation unit 36. The components other than the projection plane adjustment unit 35 and the projection center point appropriateness confirmation unit 36 of the projection unit 30a are the same as the components described with the same numbers in the first embodiment, so the description here will be given. The description is omitted with the projection unit 30a as the center. As in the first embodiment, although not shown, the memory and devices necessary for the control processing of the entire system are provided.
[0075]
First, the operation of the projection plane adjustment unit 35 will be described below.
The projection plane adjustment unit 35 selects the type of projection plane used for projection processing and adjusts the projection plane shape and size. In general, a wide variety of shapes of three-dimensional objects handled by the texture image generation apparatus are expected. In the projection processing, due to the difference between the shape of the three-dimensional object and the shape of the projection surface, the shape of the projection formation surface formed as a result of the projection processing is slightly distorted from the shape of the actual surface of the three-dimensional object. In order to suppress such distortion, it is preferable to select a developable surface as close as possible to the three-dimensional object as the projection surface. The projection surface adjustment unit 35 selects an appropriate one close to the three-dimensional object shape as the type of projection surface used for the projection process, and further adjusts the size of the developable surface so as to be close to the three-dimensional object shape. As a selection criterion for the type of projection plane, for example, there is a method of calculating the sum of distances from feature points to the projection plane and selecting the type of projection plane with the smallest value.
[0076]
In addition, when the shape of the three-dimensional object is complicated, the projection plane adjustment unit 35 divides the three-dimensional object into several object parts, and selects an appropriate projection plane for the shape of each object part. Can be adjusted.
[0077]
The process of assigning a projection plane to each of the object parts will be described in detail below.
First, input data is input from the input unit 10 (step S901 in FIG. 9). Here, it is assumed that feature point group information is given as feature point information in the input data shown in FIG.
[0078]
The projection plane adjustment unit 35 groups the feature points according to the feature point group information and grasps them as each object part (step S902).
The projection plane adjustment unit 35 selects the type of projection plane for each object part grasped in step S902 (step S903). In selecting the type of projection plane, here, the sum of the distances from the feature points of the object portion to the projection plane is calculated, and the type of projection plane with the smallest value is selected.
[0079]
The projection plane adjustment unit 35 notifies the projection plane generation unit 32 of the type of projection plane, causes the projection plane generation process to be performed, and also controls the adjustment of the size of the projection plane (step S904).
[0080]
Note that a series of projection processing by the feature point arrangement unit 31, the projection plane generation unit 32, the projection center point designation unit 33, and the projection processing unit 34 for each object part is performed in the same manner as in the first embodiment (step S905). .
[0081]
As described above, the texture image generation apparatus according to the second embodiment can perform optimum projection processing for each object portion even when the shape of the target three-dimensional object is complicated, and has high quality and low storage capacity. A texture image can be generated.
[0082]
Next, the operation of the projection center point appropriateness confirmation unit 36 will be described.
The projection center point appropriateness confirmation unit 36 confirms whether or not the selection of the projection center point in the projection process has been appropriately performed.
[0083]
The appropriateness of the projection center point here will be described below. FIG. 10 is an example of an inappropriate projection center point. As shown in FIG. 10, since a part of the projection formation surfaces overlap on the projection surface such that the projection formation surfaces 1004 ′ and 1005 ′ of the surfaces 1004 and 1005 overlap, a normal development plane cannot be obtained. It has become. In this case, it is not possible to generate a texture image by the projection processing and development processing of the present invention. The fact that there is no overlapping of such projection forming surfaces is said to be appropriate for the projection center point.
[0084]
However, since the surfaces 1004 and 1005 in FIG. 10 are true outer surfaces of the three-dimensional object and this information is not given to the apparatus, it is not possible to directly determine the overlap of the projection forming surfaces. The projection center point appropriateness confirmation unit 36 indirectly uses the feature point arrangement (clockwise or counterclockwise) for the contradiction between the estimation result of the outer surface obtained by dividing the projection plane and the captured image of the three-dimensional object. To determine whether the projection center point is appropriate. Specifically, for all the outer surfaces obtained by the division, determine whether the feature points constituting the surface are aligned clockwise or counterclockwise when the surface is viewed from the outside, If the result and the arrangement of the feature points when each surface is viewed from the outside of the three-dimensional object on the photographed image match, it is determined that the projection center point is appropriate. The outer direction of the projection plane is used as the outer direction of the outer surface obtained by the division. As the outer direction of each surface on the photographed image, the photographing direction of the photographed image from which all feature points constituting the surface are extracted is used.
[0085]
An example in which a cylindrical surface is employed as the projection surface will be described. As described in the first embodiment, the projection plane is generated by the projection plane generation unit 32 so as to include the three-dimensional feature point sequence arranged by the feature point arrangement unit 31.
[0086]
First, the projection center point designating unit 33 designates a projection center point according to the reference shown in the first embodiment (step S1101). That is, it is specified in accordance with projection center data in the input data, calculation of the center of gravity of feature points, or specification input by the user.
[0087]
Next, as in the first embodiment, the projection processing unit 34 obtains a projection point on the projection plane by drawing a projection line for each feature point from the designated projection center point (step S1102), and sets the projection point as a vertex. The cylindrical surface that is the projection surface is divided without gaps and is filled with polygonal surfaces (step S1103). Next, the developing unit 50 develops the cylindrical surface that is the projection surface into a flat surface (step S1104). Here, as shown in FIG. 1, the cylindrical surface that is the projection surface is developed into a side surface that is a developable surface and an upper surface and a lower surface that are planes.
[0088]
Here, the projection center point appropriateness confirmation unit 36 applies the captured image of each surface of the three-dimensional object based on the relationship between the feature points by the image writing unit 60 and monitors the writing process (step S1105). Here, if the arrangement of the feature points obtained in step S1104 matches the arrangement of the feature points on the captured image of each surface of the three-dimensional object, the projection center point has been appropriately selected. Can be confirmed (step S1106). Thereafter, as long as the same three-dimensional object and projection center point are used, normal projection processing is guaranteed.
[0089]
If the appropriateness of the projection center point cannot be confirmed, the projection center point may be selected again, or the feature points may be appropriately grouped and divided into object portions to execute the projection process.
[0090]
As described above, the texture image generation apparatus according to the second embodiment can confirm that the relationship between the shape of the target three-dimensional object and the projection center point is appropriate in the projection processing, and can perform appropriate projection processing. Therefore, it is possible to generate a texture image with high quality and low storage capacity.
[0091]
(Embodiment 3)
Similar to the first embodiment, the texture image generating apparatus according to the third embodiment projects and develops a known shape surface composed of a developable surface as a projection surface, and automatically generates a texture image by pasting the texture of the photographed image on the development plane. However, the projection unit and the division unit of the texture image generation apparatus according to the first embodiment are provided with a projection unit and a division unit that further improve the performance.
[0092]
The outline of the overall configuration of the texture image generation apparatus according to the third embodiment and the outline of the processing flow of this apparatus will be described with reference to the drawings.
FIG. 12 is a schematic configuration diagram of the texture image generation apparatus according to the third embodiment. As shown in FIG. 12, the apparatus of the third embodiment includes a projection unit 30 b instead of the projection unit 30 in the configuration of the first embodiment, and includes a division unit 40 a instead of the division unit 40. In addition to the configuration of the projection unit 30 of the first embodiment, the projection unit 30b further includes a projection adjustment unit 37. The components other than the projection adjustment unit 37 of the projection unit 30b are the same as the components described with the same numbers in the first embodiment, and thus description thereof will be omitted, and the projection unit 30b will be mainly described. explain. Further, the dividing unit 40 a includes a development boundary line adjustment unit 41 and a developable surface development boundary line adjustment unit 42. As in the first embodiment, although not shown, the memory and devices necessary for the control processing of the entire system are provided.
[0093]
The projection adjustment unit 37 of the projection unit 30b and the development boundary line adjustment unit 41 of the division unit 40a are arranged so that the boundary between the developable surface and the flat surface is generated in the projection process on the projection surface. The expansion / reduction is executed to adjust the development boundary between the two, and the boundary ridge line of the projection forming surface is used as the development boundary line.
[0094]
Here, the cross-border plane will be described. In the projection processing, the projection point sequence is arranged on the projection surface, but the projection points are formed on the developable surface and the flat surface, so that a part of the projection points that are the vertices forming the projection formation surface are developable. In some cases, a surface (called a transboundary surface) that is formed on the surface and in which other portions are formed on the plane is generated. For example, in a case where a cylindrical surface is employed as the projection surface as shown in FIG. 13a, the projection forming surface 1303 is a transboundary surface formed across the upper surface 1301 and the developable surface 1302. In such a case, if the developable surface and the flat surface are adjusted, and the development boundary line is adjusted so that the boundary edge of the projection forming surface can be used as the development boundary line, the surface on which the texture image is pasted is not divided. The distortion can be reduced, and the performance of the texture image generation apparatus can be further improved.
[0095]
Adjust the expandable surface, extension / retraction of the plane, and adjustment of the development boundary as follows.
The first adjustment method is a method including a developable surface projection adjustment unit 37a and a development boundary line adjustment unit 41 that adjust projections of feature points that form a transboundary surface and project all of them onto the developable surface. As shown in FIG. 13a, among the projection points forming the transboundary surface 1303, the projection points 1305 and 1306 on the developable surface are set as the developable surface boundary projection points, and the projection point 1307 on the plane is the plane boundary projection point. And The developable surface projection adjustment unit 37a first extends the developable surface as indicated by 1302 ′ in FIG. 13b. Further, a projection line passing through the plane boundary projection point 1307 is extended from the projection center point 1304, and a point intersecting the extension surface of the developable surface is obtained as a developable surface adjustment projection point 1307 ′. This process is executed along the boundary surface between all the developable surfaces and the flat surface. Next, in the dividing process, the development boundary line adjustment unit 41 sets the developable surface boundary ridge line as a line connecting the generated developable surface adjustment projection points in order, and the plane boundary ridge line as a line connecting the plane boundary projection points in order. Then, as shown in FIG. 13c, the development boundary line between the developable surface and the plane becomes a boundary ridge line of the projection forming surface, and one projection forming surface is not divided into the developable surface and the flat surface. As described above, the texture image generation apparatus can further improve the performance of texture image generation by including the developable surface projection adjustment unit 37a and the development boundary adjustment unit 41.
[0096]
The second adjustment method includes a plane projection adjustment unit 37b that adjusts projections of feature points that form a transboundary surface and projects all of them onto a plane, and a development boundary line adjustment unit 41. As shown in FIG. 14b, among the projection points forming the transboundary surface 1303, the projection points 1305 and 1306 on the developable surface are set as the developable surface boundary projection points, and the projection point 1307 on the plane is the plane boundary projection point. And The plane projection adjustment unit 37b obtains, as plane adjustment projection points 1305 ′ and 1306 ′, points that extend from the projection center point 1304 through the developable surface boundary projection points 1305 and 1306 and intersect the plane extension plane. This process is executed along the boundary surface between all the developable surfaces and the flat surface. If the development boundary adjustment unit 41 sets the plane boundary ridge line as a line connecting the generated plane adjustment projection points in order, and the development plane boundary ridge line as a line connecting the development plane boundary projection points in order, FIG. As shown, the boundary line between the developable surface and the plane becomes the boundary ridge line of the projection forming surface, and one projection forming surface is not divided into the developable surface and the flat surface. As described above, the texture image generation apparatus can further improve the performance of texture image generation by including the plane projection adjustment unit 37b and the development boundary adjustment unit 41.
[0097]
The third adjustment method is a method in which the projection of the feature points forming the transboundary surface when the projection surface has a boundary between the expandable surfaces is adjusted and projected onto one expandable surface. In this method, the developable surface projection adjustment unit 37c and the development boundary adjustment unit 41 are provided. Since the basic idea is the same as the first adjustment method and the second adjustment method described above, description thereof is omitted here.
[0098]
Next, the developable surface development boundary line adjustment unit 42 cuts along a boundary ridge line of the projection forming surface on the developable surface when cutting a part of the developable surface in developing the developable surface. It is. As shown in FIG. 15a, the projection forming surfaces 1501 and 1502 are formed across the development boundary 1500 of the developable surface given as a default. As shown in FIG. 15B, the developable surface development boundary line adjustment unit 42 adjusts the developable surface development boundary line 1500 to the left and right to obtain a new developable surface boundary ridge line 1500 ′ with the boundary ridge line of the projection formation surface. By performing this developable surface development boundary adjustment along all the developable surface development boundaries, one projection forming surface is not divided into left and right in the developable surface development process.
[0099]
As described above, the texture image generation apparatus according to the third embodiment can further improve the performance of texture image generation by including the developable surface development boundary line adjustment unit 42.
[0100]
(Embodiment 4)
Similar to the first embodiment, the texture image generation apparatus according to the fourth embodiment projects and develops a known shape surface including a developable surface and a plane as a projection surface, and automatically pastes the texture of the photographed image on the development plane to automatically generate the texture image. What is generated is an image writing unit 60a in which the image writing unit 60 of the texture image generating apparatus of the first embodiment is further improved in performance.
[0101]
FIG. 16 is a schematic configuration diagram of a texture image generation apparatus according to the fourth embodiment. As shown in FIG. 16, the apparatus according to the fourth embodiment includes an image writing unit 60a instead of the image writing unit 60 in the configuration of the first embodiment. In addition to the configuration of the image writing unit 60 of the first embodiment, the image writing unit 60a further includes a captured image selection unit 61 and an affine transformation unit 62. The components other than the photographed image selection unit 61 and the affine transformation unit 62 of the image writing unit 60a are the same as the components described with the same numbers in the first embodiment, and thus description thereof is omitted here. The photographic image selection unit 61 and the affine transformation unit 62 will be mainly described. As in the first embodiment, although not shown, the memory and devices necessary for the control processing of the entire system are provided.
[0102]
The photographed image selection unit 61 and the affine transformation unit 62 adjust both distortions in fitting and writing a texture of a photographed image on a development plane in the image writing process.
[0103]
First, the first adjustment method provided in the photographed image selection unit 61 is that each surface on the photographed image is photographed from multiple directions, so the texture of the photographed image photographed in the shape closest to the shape of the surface to be applied is obtained. It is to select as a captured image to be applied. As texture data of a photographed image to be applied by selecting the photographed image, data with the least distortion can be selected, and the performance of texture image generation can be further improved.
[0104]
The second adjustment method provided in the photographed image selection unit 61 selects each face on the photographed image as a photographed image to which the texture of the photographed image photographed from the closest viewpoint is applied because each face is photographed from multiple directions. That is. As texture data of a photographed image to be applied by selecting the photographed image, data with the least distortion can be selected, and the performance of texture image generation can be further improved.
[0105]
Next, the affine transformation unit 62 adjusts the distortion by transforming the texture data of the captured image into the shape of the writing surface by performing affine transformation. Since the projection forming surface formed on the projection surface is formed by projecting the original three-dimensional object onto the projection surface, it has a slightly distorted shape from the outer surface of the original three-dimensional object. Therefore, it is preferable to adjust the shape of the texture data of the photographed image by the affine transformation unit 62 prior to surface fitting / texture writing. Here, affine transformation is transformation represented by a linear expression of coordinates, and refers to transformation that changes the shape of an image by enlargement, reduction, translation, rotation, or the like of the image.
[0106]
The processing flow of the affine transformation unit 62 will be described below.
First, an affine transformation coefficient is determined (step S1701 in FIG. 17). That is, the coefficient of affine transformation that matches the coordinates of the feature points on the photographed image and the coordinates of the projection points of the corresponding feature points projected on the development plane is obtained.
[0107]
In order to generate an image in which the distortion of the shape generated by the projection is adjusted, the corresponding pixel value on the photographed image may be affine transformed and written in the corresponding coordinates as each pixel value of the surface generated as the texture image. First, the target pixel of the target surface of the texture image, for example, the lower left pixel having the smallest XY coordinate value in the XY coordinates is designated as the target pixel (step S1702).
[0108]
The position of the pixel on the captured image with respect to the position of the target pixel is determined by affine transformation (step S1703).
The pixel value of the captured image at the position obtained in step S1703 is read and written as the pixel value of the pixel of interest on the texture image (step S1704).
[0109]
Steps S1702 to S1704 are executed for all the pixels. In other words, the pixel of interest noted in step S1702 is sequentially moved so as to scan in the X direction and the Y direction, and the pixel of interest is designated one after another, and the pixel corresponding to that pixel of interest in steps S1703 to S1704 is designated. Write the value.
[0110]
As described above, the texture image generation apparatus according to the fourth embodiment includes the image selection unit 61, so that the image with the least distortion can be selected as the image of the writing surface among the input images, and further includes the affine transformation unit 62. Thus, it is possible to adjust the distortion of the shape generated by the projection and execute the surface fitting / writing correctly, and the texture image generation performance can be further improved.
[0111]
(Embodiment 5)
The texture image generation device of the present invention can be constructed using various computers by recording and providing a program describing processing steps for realizing the configuration described above on a computer-readable recording medium. As shown in the example of the recording medium shown in FIG. 18, the recording medium on which the program having the processing steps for realizing the texture image generating apparatus of the present invention is recorded is a portable recording medium such as a CD-ROM 202 or a flexible disk 203. 201 may be any of the recording medium 200 in the recording device on the network and the recording medium 205 such as a computer hard disk or RAM. When the program is executed, the program is loaded onto the computer 204 and Runs on memory.
[0112]
【The invention's effect】
According to the texture image generation device of the present invention, a known shape surface composed of a developable surface and a plane can be projected and developed as a projection surface, and a texture image can be automatically generated by pasting the texture of the photographed image on the development plane. Therefore, it is possible to generate a texture image with high quality and low storage capacity.
[0113]
Further, according to the texture image generation apparatus of the present invention, it is possible to select an appropriate projection plane according to the shape of the three-dimensional object, and even if the three-dimensional object is complicated, the projection plane is optimized for each object part. Can be selected.
[0114]
Moreover, according to the texture image generation apparatus of this invention, it can be confirmed whether the projection center point in a projection process is appropriate, and an appropriate texture image can be produced | generated. Further, according to the texture image generation device of the present invention, when the projection surface is a combination of a developable surface and a flat surface, the development boundary line in the development process can be used as the boundary ridge line of the projection formation surface. Thus, a texture image with less distortion can be obtained.
[0115]
Further, according to the texture image generation apparatus of the present invention, it is possible to select an image with the least distortion when writing an image on a development plane, and to write an image by adjusting shape distortion by affine transformation. The texture image quality can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of development of a cylindrical surface
FIG. 2 is a diagram showing examples of combinations of developable surfaces
FIG. 3 is a diagram showing a concept of projection processing using a projection surface.
FIG. 4 is a diagram showing a basic flow of texture image generation in the texture image generation apparatus of the present invention.
FIG. 5 is a schematic configuration diagram of a texture image generation apparatus according to the first embodiment of the present invention.
FIG. 6 is a data structure example handled by the texture image generation apparatus according to the first embodiment of the present invention.
FIG. 7 is a diagram for explaining the formation of a convex hull.
FIG. 8 is a schematic configuration diagram of a texture image generation device according to a second embodiment of the present invention.
FIG. 9 is a flowchart showing processing for assigning a projection plane to each object part;
FIG. 10 is a diagram showing an example of an inappropriate projection center point
FIG. 11 is a flowchart showing processing steps for confirming whether or not the projection center point is proper by the projection center point appropriateness confirmation unit 36 according to the second embodiment of the present invention.
FIG. 12 is a schematic configuration diagram of a texture image generation apparatus according to a third embodiment of the present invention.
FIG. 13 is a diagram for explaining projection adjustment by the developable surface projection adjustment unit 37a and the plane projection adjustment unit 37b according to the third embodiment of the present invention.
FIG. 14 is a diagram for explaining projection adjustment by the developable surface projection adjustment unit 37c according to the third embodiment of the present invention.
FIG. 15 is a diagram illustrating adjustment of the development boundary line by the developable surface development boundary line adjustment unit according to the third embodiment of the present invention.
FIG. 16 is a schematic configuration diagram of a texture image generation device according to a fourth embodiment of the present invention.
FIG. 17 is a flowchart showing processing steps of the affine transformation unit 62 according to the fourth embodiment of the present invention.
FIG. 18 shows an example of a recording medium.
FIG. 19 is a flowchart showing conventional texture image generation processing steps;
FIG. 20 is a diagram showing the concept of conventional 3D image data generation based on feature points
FIG. 21 is a flowchart showing a conventional three-dimensional image reproduction processing step on a computer screen.
FIG. 22 is a diagram for explaining a conventional method of storing texture images to be pasted on each surface by arranging them on a plane.
[Explanation of symbols]
10 Input section
20 Feature point extraction unit
21 Feature point specification part
30, 30a, 30b Projection unit
31 Feature point placement section
32 Projection plane generator
33 Projection center point designation part
34 Projection processing unit
35 Projection plane adjustment unit
36 Projection center point appropriateness confirmation section
37, 37a Projection adjustment unit
40, 40a Dividing part
41 Development boundary adjustment part
42 Expandable surface boundary adjustment part
50 Development department
60, 60a Image writing unit
61 Image selection section
62 Affine transformation unit
70 Output section
100 data
101 Image information area
102 Feature point information area
103 Projection information area
104 Projection plane information area
105 Other information area
106 header
200 Recording medium such as hard disk at line destination
201 Portable recording media such as CD-ROM and flexible disk
202 CD-ROM
203 Flexible disk
204 Computer
205 Recording medium such as RAM / hard disk on computer

Claims (14)

3次元オブジェクトから抽出した特徴点のデータと撮影された3次元オブジェクトの外表面の2次元画像データとを基に3次元画像データのテクスチャ画像を生成するテクスチャ画像生成装置であって、
入力部と、投影部と、分割部と、展開部と、画像書き込み部とを備え、
前記入力部は、3次元オブジェクトの特徴点のデータと外表面の2次元撮影画像データの入力を受け付け、
前記投影部は、前記入力された3次元オブジェクトの特徴点を、可展体面である既知形状面であって前記特徴点を包含する投影面に投影して投影点を求め、
前記分割部は、前記投影面を前記特徴点の投影点により小面に分割し、
前記展開部は、前記投影面を平面に展開して前記小面からなる展開平面を生成し、
前記画像書き込み部は、前記展開平面上の各小面に対して、対応する特徴点が撮影された前記3次元オブジェクトの外表面の撮影画像を書き込むことによりテクスチャ画像を生成し、
前記投影部が、前記画像書き込み部による前記展開平面上の各小面への前記3次元オブジェクトの外表面の撮影画像の書き込みをモニタし、前記展開平面上の各小面と、対応する特徴点が撮影された撮影画像との対応が正しく得られているか確認する投影中心点適正確認部を備えたことを特徴とするテクスチャ画像生成装置。
A texture image generation device that generates a texture image of 3D image data based on feature point data extracted from a 3D object and 2D image data of an outer surface of a captured 3D object,
An input unit, a projecting unit, a dividing unit, a developing unit, and an image writing unit;
The input unit accepts input of feature point data of a three-dimensional object and two-dimensional photographed image data of an outer surface,
The projection unit projects a feature point of the input three-dimensional object onto a projection plane that is a known shape surface that is a developable surface and includes the feature point, and obtains a projection point.
The dividing unit divides the projection surface into small surfaces by projection points of the feature points,
The development unit develops the projection plane into a plane to generate a development plane composed of the facets,
The image writing unit generates a texture image by writing a photographed image of the outer surface of the three-dimensional object in which a corresponding feature point is photographed for each facet on the development plane ,
The projection unit monitors writing of a photographed image of the outer surface of the three-dimensional object to each facet on the development plane by the image writing unit, and corresponding feature points on each facet on the development plane A texture image generation apparatus, comprising: a projection center point appropriateness confirmation unit that confirms whether or not the correspondence with the captured image obtained is correctly obtained .
前記投影部は投影面調整部を備え、前記投影面調整部が、前記投影部が生成する投影面の種類とサイズを、前記特徴点により形成される3次元オブジェクトの形状に合わせるように調整することにより、前記投影面の形状と前記特徴点により形成される3次元オブジェクトとの形状の歪みを最小化する請求項1に記載のテクスチャ画像生成装置。  The projection unit includes a projection plane adjustment unit, and the projection plane adjustment unit adjusts the type and size of the projection plane generated by the projection unit to match the shape of the three-dimensional object formed by the feature points. The texture image generating apparatus according to claim 1, wherein the distortion of the shape of the projection plane and the shape of the three-dimensional object formed by the feature points is minimized. 前記投影部が、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面の相異なる可展面および平面をまたがる越境面がある場合に、可展面あるいは平面を調整する投影調整部を備え、Projection in which the projecting unit adjusts the developable surface or the plane when there is a transboundary surface that straddles different developable surfaces and planes of the projection surface among the projection forming surfaces formed by the projection processing of the feature points It has an adjustment part,
前記分割部が、投影形成面の境界稜線を展開境界線とする展開境界線調整部を備えた、請求項1または2に記載のテクスチャ画像生成装置。  The texture image generation device according to claim 1, wherein the division unit includes a development boundary adjustment unit that uses a boundary ridge line of the projection forming surface as a development boundary.
前記投影部が、投影中心点の情報を入力する投影中心点指定部を備え、前記投影中心点指定部からの指定に基づいて前記投影中心点を定める請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。The projection portion is provided with a projection center point designation unit for inputting information of the projection center point, in any one of claims 1 to 3 for determining the projection center point based on the designation from said projection center point designation unit The texture image generation device described. 前記3次元オブジェクトの特徴点をグループに分ける特徴点グループ情報が付され、前記投影部が、前記特徴点グループ情報に従い、それぞれの特徴点のグループに対して投影処理を行う請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。The feature point group information for adding the feature points of the three-dimensional object into groups is attached, and the projection unit performs a projection process on each group of feature points according to the feature point group information . The texture image generation device according to any one of the above. 前記投影部が、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面上の可展面および平面にまたがって投影される越境面がある場合に、前記越境面を形成する特徴点を投影した際に、特徴点のすべてが可展面上に投影されるように可展面を調整する可展面投影調整部を備え、前記越境面の特徴点の投影点のうち、前記可展面上にある投影点を可展面境界投影点とし、前記平面上にある投影点を平面境界投影点とし、前記可展面投影調整部は、前記投影中心点から前記平面境界投影点を通る投影線を延長して前記可展面の延長面と交わる点を可展面調整投影点として求め、
前記分割部は、前記可展面の境界稜線を前記可展面境界投影点と前記可展面調整投影点とを順に結ぶ線とし、前記平面の境界稜線を前記平面境界投影点を順に結ぶ線として前記可展面と平面を分割する請求項に記載のテクスチャ画像生成装置。
The projection unit forms the transboundary surface when there is a transboundary surface projected across a developable surface and a plane on the projection surface among the projection formation surfaces formed by the projection processing of the feature points. When projecting the feature points, it comprises a developable surface projection adjustment unit that adjusts the developable surface so that all of the feature points are projected onto the developable surface, and among the projected points of the feature points of the transboundary surface, The projection point on the developable surface is set as a developable surface boundary projection point, the projection point on the plane is set as a plane boundary projection point, and the developable surface projection adjustment unit is configured to project the plane boundary projection from the projection center point. Obtain a point that intersects the extended surface of the developable surface by extending the projection line passing through the point as a developable surface adjustment projection point,
The dividing unit sets a boundary ridge line of the developable surface as a line connecting the developable surface boundary projection point and the developable surface adjustment projection point in order, and a line connecting the plane boundary ridge line in order with the plane boundary projection point The texture image generation apparatus according to claim 3 , wherein the developable surface and the plane are divided as follows.
前記投影部が、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面上の可展面および平面にまたがって投影される越境面がある場合に、前記越境面を形成する特徴点を投影した際に、特徴点のすべてが平面上に投影されるように平面を調整する平面投影調整部を備え、前記越境面の特徴点の投影点のうち、前記可展面上にある投影点を可展面境界投影点とし、前記平面上にある投影点を平面境界投影点とし、前記平面投影調整部は、前記投影中心点から前記可展面境界投影点を通る投影線を延長して前記平面の延長面と交わる点を平面調整投影点として求め、
前記分割部は、前記平面の境界稜線を前記平面境界投影点と前記平面調整投影点とを順に結ぶ線とし、前記可展面の境界稜線を前記可展面境界投影点を順に結ぶ線として前記可展面と平面を分割する請求項に記載のテクスチャ画像生成装置。
The projection unit forms the transboundary surface when there is a transboundary surface projected across a developable surface and a plane on the projection surface among the projection formation surfaces formed by the projection processing of the feature points. A plane projection adjustment unit that adjusts the plane so that all of the feature points are projected onto the plane when the feature points are projected, and among the projected points of the feature points on the cross-border plane, A projection point is defined as a developable boundary projection point, a projection point on the plane is defined as a plane boundary projection point, and the plane projection adjustment unit calculates a projection line passing through the developable boundary projection point from the projection center point. Find a point that extends and intersects the extended surface of the plane as a plane adjustment projection point,
The dividing unit uses the boundary ridge line of the plane as a line connecting the plane boundary projection point and the plane adjustment projection point in order, and the boundary ridge line of the developable surface as a line connecting the developable surface boundary projection point in order. The texture image generation device according to claim 3 , wherein the developable surface and the plane are divided.
前記投影部が、前記特徴点の投影処理によって形成される投影形成面のうち、前記投影面上の第一の可展面と第二の可展面にまたがって投影される越境面がある場合に、前記越境面を形成する特徴点を投影した際に、特徴点のすべてが前記第一の可展面上に投影されるように可展面を調整する可展面投影調整部を備え、前記越境面の特徴点の投影点のうち、前記一の可展面上にある投影点を第一の可展面境界投影点とし、前記第二の可展面上にある投影点を第二の可展面境界投影点とし、前記可展面投影調整部は、前記投影中心点から前記第二の可展面境界投影点を通る投影線を延長して前記第一の可展面の延長面と交わる点を可展面調整投影点として求め、
前記分割部は、前記第一の可展面の境界稜線を前記第一の可展面境界投影点と前記可展面調整投影点とを順に結ぶ線とし、前記第二の可展面の境界稜線を前記第二の可展面境界投影点を順に結ぶ線として前記第一の可展面と第二の可展面を分割する請求項に記載のテクスチャ画像生成装置。
The projection unit has a transboundary surface projected across the first developable surface and the second developable surface on the projection surface among the projection formation surfaces formed by the projection processing of the feature points. In addition, when projecting the feature points that form the transboundary surface, a developable surface projection adjustment unit that adjusts the developable surface so that all of the feature points are projected onto the first developable surface, Among the projection points of the feature points on the transboundary surface, the projection point on the one developable surface is set as the first developable surface boundary projection point, and the projection point on the second developable surface is the second The developable surface boundary projection point, and the developable surface projection adjustment unit extends a projection line passing through the second developable surface boundary projection point from the projection center point to extend the first developable surface. Find the point that intersects the surface as the developable surface adjustment projection point,
The dividing unit is configured such that a boundary ridge line of the first developable surface is a line that sequentially connects the first developable surface boundary projection point and the developable surface adjustment projection point, and a boundary of the second developable surface The texture image generation device according to claim 3 , wherein the first developable surface and the second developable surface are divided by using a ridge line as a line connecting the second developable surface boundary projection points in order.
前記展開部は、前記可展面の平面への展開処理において、特徴点の投影点を結ぶ稜線に沿って切断・展開する請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。The texture image generation device according to any one of claims 1 to 3, wherein the developing unit cuts and develops along a ridge line connecting the projection points of the feature points in the development processing of the developable surface into a plane. 前記分割部は、前記投影面の分割処理において、前記特徴点の投影点を頂点とする凸包を生成し、前記凸包を構成する小面をもって前記投影面を分割した小面と近似して扱う請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。In the dividing process of the projection surface, the dividing unit generates a convex hull having the projection point of the feature point as an apex, and approximates the small surface obtained by dividing the projection surface with the small surface constituting the convex hull. The texture image generation device according to any one of claims 1 to 3 to be handled. 前記画像書き込み部は、前記展開平面への前記3次元オブジェクトの撮影画像を書き込む処理において、書き込むそれぞれの小面の撮影画像のデータとして、書き込む小面の面積が最も大きく撮影されている画像データを用いる請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。In the process of writing the photographed image of the three-dimensional object on the development plane, the image writing unit uses image data captured with the largest facet area to be written as data of each facet to be written. The texture image generation device according to any one of claims 1 to 3 to be used. 前記画像書き込み部は、前記展開平面への前記3次元オブジェクトの撮影画像を書き込む処理において、書き込むそれぞれの小面の撮影画像のデータとして、書き込む小面を最も近い視点から撮影した画像データを用いる請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。The image writing unit uses image data obtained by photographing a facet to be written from the closest viewpoint as data of a photographed image of each facet to be written in the process of writing the photographed image of the three-dimensional object on the development plane. Item 4. The texture image generation device according to any one of Items 1 to 3 . 前記画像書き込み部は、前記展開平面への前記3次元オブジェクトの撮影画像を書き込む処理において、書き込むそれぞれの小面の撮影画像のデータの形状を、展開平面上の対応する小面の形状に合うようにアフィン変換して書き込む請求項1〜3のいずれか一項に記載のテクスチャ画像生成装置。In the process of writing the captured image of the three-dimensional object to the development plane, the image writing unit matches the shape of the captured image data of each facet to be written with the shape of the corresponding facet on the development plane. The texture image generation device according to any one of claims 1 to 3, wherein the texture image is written by affine transformation. 3次元オブジェクトから抽出した特徴点のデータと3次元オブジェクトの外表面の画像データとを基に3次元画像データのテクスチャ画像を生成するテクスチャ画像生成装置を実現する処理プログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記処理プログラムは、3次元オブジェクトの特徴点のデータと外表面の撮影画像データの入力を受け付ける入力処理ステップと、前記入力された3次元オブジェクトの特徴点を、可展体面である既知形状面であって前記特徴点を包含する投影面に投影して投影点を求める投影処理ステップと、前記投影処理ステップにより投影した投影面を前記特徴点の投影点により小面に分割する分割処理ステップと、前記投影面を平面に展開して前記小面からなる展開平面を生成する展開処理ステップと、前記展開平面上の各小面に対して、対応する特徴点が撮影された前記3次元オブジェクトの外表面の撮影画像を書き込む画像書き込み処理ステップとをコンピュータに実行させることによりテクスチャ画像を生成し、
前記投影処理ステップにおいて、前記画像書き込み処理ステップによる前記展開平面上の各小面への前記3次元オブジェクトの外表面の撮影画像の書き込みをモニタし、前記展開平面上の各小面と、対応する特徴点が撮影された撮影画像との対応が正しく得られているか確認する投影中心点適正確認処理ステップを前記コンピュータに実行させることを特徴とする処理プログラムを記録したことを特徴とする記録媒体。
A computer-readable recording of a processing program for realizing a texture image generation device that generates a texture image of 3D image data based on feature point data extracted from a 3D object and image data of the outer surface of the 3D object A recording medium,
The processing program includes an input processing step for receiving input of feature point data of a three-dimensional object and photographed image data of an outer surface, and inputting the input feature point of the three-dimensional object on a known shape surface that is a developable surface. A projection processing step for obtaining a projection point by projecting on a projection plane including the feature point, and a division processing step for dividing the projection plane projected by the projection processing step into a small surface by the projection point of the feature point; A development processing step of developing the projection plane into a plane to generate a development plane composed of the small faces; A texture image is generated by causing a computer to execute an image writing processing step of writing a photographed image of the surface ,
In the projection processing step, the writing of the photographed image of the outer surface of the three-dimensional object to each small surface on the development plane by the image writing processing step is monitored and corresponds to each small surface on the development plane. A recording medium having recorded therein a processing program for causing the computer to execute a projection center point appropriateness confirmation processing step for confirming whether correspondence with a photographed image obtained by photographing a feature point is correctly obtained .
JP18235098A 1998-06-29 1998-06-29 Texture image generator Expired - Fee Related JP3672739B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18235098A JP3672739B2 (en) 1998-06-29 1998-06-29 Texture image generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18235098A JP3672739B2 (en) 1998-06-29 1998-06-29 Texture image generator

Publications (2)

Publication Number Publication Date
JP2000020735A JP2000020735A (en) 2000-01-21
JP3672739B2 true JP3672739B2 (en) 2005-07-20

Family

ID=16116784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18235098A Expired - Fee Related JP3672739B2 (en) 1998-06-29 1998-06-29 Texture image generator

Country Status (1)

Country Link
JP (1) JP3672739B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002203254A (en) * 2000-08-30 2002-07-19 Usc Corp Curved surface image transforming method and recording medium with the curved surface image transforming method recorded thereon
CN100578525C (en) * 2002-07-10 2010-01-06 哈曼贝克自动系统股份有限公司 System and methodfor generating three-dimensional electronic models of objects
JP4653606B2 (en) * 2005-05-23 2011-03-16 株式会社東芝 Image recognition apparatus, method and program
JP2010123007A (en) * 2008-11-21 2010-06-03 Casio Computer Co Ltd Image processor

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03214274A (en) * 1990-01-18 1991-09-19 Nec Corp Image display system
JP3075851B2 (en) * 1992-08-13 2000-08-14 富士通株式会社 Map setting method
JP3268666B2 (en) * 1992-12-08 2002-03-25 大日本印刷株式会社 Computer graphics production equipment
JPH09134449A (en) * 1995-11-09 1997-05-20 Ainesu:Kk Texture mapping method for three-dimensional model
JPH09138859A (en) * 1995-11-15 1997-05-27 Matsushita Electric Ind Co Ltd Picture synthesis device

Also Published As

Publication number Publication date
JP2000020735A (en) 2000-01-21

Similar Documents

Publication Publication Date Title
US6515658B1 (en) 3D shape generation apparatus
US20190371045A1 (en) Dynamic local temporal-consistent textured mesh compression
KR101956098B1 (en) Virtual exhibition space system and providing method using 2.5 dimensional image
US6597368B1 (en) Morphing image processing system using polygon reduction processing
JP2005310160A (en) Apparatus and method for reconstituting three-dimensional graphics data
JP2006503355A (en) 3D image processing
JP3278623B2 (en) Map three-dimensionalization system, map three-dimensionalization method, and storage medium storing map three-dimensionalization program
JP4403421B2 (en) Image processing apparatus and image processing method
JP2000348213A (en) Three-dimensional image generating device, three- dimensional image generating and display device, and method thereof and recording medium
JPH10111953A (en) Image processing method, device therefor and recording medium
US6856312B1 (en) Method for generating three-dimensional form data and apparatus therefor
KR20140126120A (en) Method for digital hologram synthesis and apparatus therefor
US10559060B2 (en) Method and apparatus for real time image distortion compensation in immersive theater system
JP3672739B2 (en) Texture image generator
EP3185171B1 (en) 3d object localization with descriptor
JP2021192244A (en) Positional information generating method, related apparatus, and computer program product
JP2019159904A (en) Texture mapping device and program for texture mapping
KR101769013B1 (en) Visualization method for 3-dimension model using 3-dimension object model merging based on space tile
KR102455843B1 (en) Apparatus for reconstructing image and method using the same
US6630932B1 (en) Method and system for efficient simplification of tetrahedral meshes used in 3D volumetric representations
Matsuyama Exploitation of 3D video technologies
Chen et al. Research and application of immersive virtual reality system based on 3D geographic information system
JP2002203237A (en) Curved image conversion method and recording medium with the curved image conversion method recorded thereon
JP5719271B2 (en) Image processing method, image processing apparatus, and image processing program
KR100647323B1 (en) Apparatus and method for processing 3-dimesional object using perturbation function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050420

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees