JP7455546B2 - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP7455546B2 JP7455546B2 JP2019190258A JP2019190258A JP7455546B2 JP 7455546 B2 JP7455546 B2 JP 7455546B2 JP 2019190258 A JP2019190258 A JP 2019190258A JP 2019190258 A JP2019190258 A JP 2019190258A JP 7455546 B2 JP7455546 B2 JP 7455546B2
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- viewpoint
- area
- processing apparatus
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 52
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000000034 method Methods 0.000 claims description 36
- 238000013507 mapping Methods 0.000 claims description 10
- 239000000470 constituent Substances 0.000 claims description 9
- 239000012634 fragment Substances 0.000 description 98
- 230000008569 process Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000002542 deteriorative effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.
従来、三次元空間内のオブジェクトを描画するために、オブジェクトの三次元形状を表すデータへオブジェクト表面の色を表すテクスチャデータをマッピングするテクスチャマッピングが行われている。テクスチャマッピングには、テクスチャデータを二次元平面に展開し、画像形式で保存したテクスチャマップが用いられる。 Conventionally, in order to draw an object in a three-dimensional space, texture mapping has been performed in which texture data representing the color of the object's surface is mapped to data representing the three-dimensional shape of the object. For texture mapping, a texture map is used in which texture data is expanded onto a two-dimensional plane and saved in an image format.
特許文献1は、オブジェクトの三次元形状を表すポリゴンメッシュモデルを構成する三角形のポリゴンメッシュを射影した三角形の面積が最も大きくなる視点を選択し、その視点のテクスチャデータを利用してテクスチャマップを生成することを開示している。この技術では、テクスチャデータが割り当てられる三角形を直角二等辺三角形に変形し、それらをテクスチャマップ上に敷き詰めている。 Patent Document 1 selects a viewpoint from which the area of a triangle projected from a polygon mesh of triangles that constitutes a polygon mesh model representing a three-dimensional shape of an object is the largest, and generates a texture map using texture data from that viewpoint. Discloses that. In this technique, a triangle to which texture data is assigned is transformed into a right-angled isosceles triangle, and these triangles are laid out on a texture map.
しかしながら、特許文献1の方法では、テクスチャデータが割り当てられる三角形が、直角二等辺三角形に変形されてしまう。そのため、そのテクスチャデータによるテクスチャマップを利用してテクスチャマッピングを行い、オブジェクトを描画すると、オブジェクトの画質が低下してしまう可能性が生じる。 However, in the method of Patent Document 1, the triangle to which texture data is assigned is transformed into a right isosceles triangle. Therefore, if texture mapping is performed using a texture map based on the texture data to draw an object, there is a possibility that the image quality of the object will deteriorate.
本発明はこのような問題に鑑みてなされたものであり、描画したオブジェクトの画質が低下しないように、テクスチャマップを生成することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to generate a texture map so that the image quality of a drawn object does not deteriorate.
本発明の一実施形態において、オブジェクトの三次元形状データに対応する、少なくとも前記オブジェクトの色を表すテクスチャマップを生成する画像処理装置は、前記三次元形状データを構成する構成要素に対して、前記オブジェクトに対する複数の視点の中から1つの視点を選択し、同じ視点が選択されかつ当該構成要素の直接的および間接的に隣接する複数の構成要素を1つのグループとしてまとめ、前記複数の構成要素をグループに分類するグループ化手段と、前記グループに属する複数の構成要素を前記選択された視点へ射影した写像を、前記グループに対応する領域として二次元マップ上に設定する設定手段と、選択された視点の画像から、前記領域に応じた画素値を決定する決定手段と、決定された前記領域に応じた画素値に基づいてテクスチャマップを生成する生成手段と、を有する。 In one embodiment of the present invention, an image processing device that generates a texture map that corresponds to three-dimensional shape data of an object and represents at least a color of the object, the One viewpoint is selected from among a plurality of viewpoints for an object, and a plurality of components for which the same viewpoint is selected and that are directly and indirectly adjacent to the component are grouped together, and the plurality of components are combined into one group. a grouping means for classifying into groups; a setting means for setting a mapping obtained by projecting a plurality of components belonging to the group onto the selected viewpoint on a two-dimensional map as an area corresponding to the group; The image forming apparatus includes determining means for determining pixel values corresponding to the region from the viewpoint image, and generating means for generating a texture map based on the determined pixel values corresponding to the region.
本発明によれば、描画したオブジェクトの画質が低下しないように、テクスチャマップを生成することができる。 According to the present invention, a texture map can be generated without deteriorating the image quality of a drawn object.
以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、以下の実施形態は本発明を限定するものではない。また、以下の実施形態で説明されている特徴の組み合わせの全てが本発明に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings. Note that the following embodiments do not limit the present invention. Furthermore, not all combinations of features described in the embodiments below are essential to the present invention. Note that the same configurations will be described using the same reference numerals.
<第一の実施形態>
第一の実施形態では、三次元空間内のオブジェクトを取り囲むようにして配置された複数の撮像装置で撮像された画像と、オブジェクトの三次元形状を表すポリゴンメッシュとを入力として、テクスチャ付きのポリゴンメッシュモデルを生成する方法を説明する。ポリゴンメッシュモデルは、オブジェクトの三次元形状を表現するデータ(すなわち、三次元形状データ)である。ポリゴンメッシュのテクスチャは、テクスチャマップ上にテクスチャの画素値(色情報)を記述することで表現される。画素値が記述され、画像形式で保存されたテクスチャマップを、テクスチャ画像ともいう。なお、複数の撮像装置間の位置関係はキャリブレーション済みであり、それぞれのキャリブレーションパラメータが事前に記憶されているものとする。
<First embodiment>
In the first embodiment, images captured by a plurality of imaging devices arranged to surround an object in a three-dimensional space and a polygon mesh representing the three-dimensional shape of the object are input, and textured polygons are Explain how to generate a mesh model. A polygon mesh model is data that expresses the three-dimensional shape of an object (ie, three-dimensional shape data). The texture of a polygon mesh is expressed by describing pixel values (color information) of the texture on a texture map. A texture map in which pixel values are described and saved in an image format is also called a texture image. Note that it is assumed that the positional relationship between the plurality of imaging devices has been calibrated, and that the respective calibration parameters are stored in advance.
図1は、本実施形態における画像処理装置の機能ブロック図である。本実施形態における画像処理装置は、視点設定部100、モデル取得部101、グループ化部102、断片形成部103、配置部104、及びテクスチャ値決定部105を有する。
FIG. 1 is a functional block diagram of an image processing apparatus in this embodiment. The image processing apparatus in this embodiment includes a
視点設定部100は、各撮像装置の視点のキャリブレーションパラメータを不図示の記憶部から取得する。
The
モデル取得部101は、オブジェクトの三次元形状を表すポリゴンメッシュデータを不図示の記憶部から取得する。
The
グループ化部102は、取得したキャリブレーションパラメータを用いて、ポリゴンメッシュを構成する複数のポリゴンを複数のグループに分類し、各グループに属するポリゴンのインデックスリストを生成する。本実施形態では、ポリゴンのグループをポリゴン島と呼ぶ。
The
断片形成部103は、ポリゴン島のテクスチャマップ上での大きさと形を定義する断片(フラグメントとも呼ぶ)を、ポリゴン島毎に形成する。 The fragment forming unit 103 forms, for each polygon island, a fragment (also called a fragment) that defines the size and shape of the polygon island on the texture map.
配置部104は、ポリゴン島毎に形成された各断片をテクスチャマップ上に配置し、ポリゴンの頂点に対応するテクスチャ座標(テクスチャマップ上の二次元位置)を算出し、テクスチャ座標情報を含むポリゴンメッシュデータを不図示の記憶部に記憶する。
The
テクスチャ値決定部105は、不図示の記憶部から各撮像装置の視点に対応する撮像画像を取得し、各ポリゴン島の表面色を表す色情報をテクスチャマップ上に記述し、不図示の記憶部に画像データとして保存する。
The texture
このように、本実施形態におけるテクスチャ付きのポリゴンメッシュモデルは、テクスチャ座標情報を含むポリゴンメッシュデータとテクスチャマップの画像データとによって記述される。 In this way, the textured polygon mesh model in this embodiment is described by polygon mesh data including texture coordinate information and image data of a texture map.
次に、図2を用いて、本実施形態における画像処理のフローを説明する。図2のフローチャートで示される一連の処理は、画像処理装置のCPUがROMまたはHDDに格納されている制御プログラムをRAMに展開して実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。フローチャートの説明における記号「S」は、当該フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。 Next, the flow of image processing in this embodiment will be explained using FIG. 2. The series of processes shown in the flowchart of FIG. 2 is performed by the CPU of the image processing device loading a control program stored in the ROM or HDD into the RAM and executing it. Alternatively, some or all of the functions of the steps in the flowchart may be realized by hardware such as an ASIC or an electronic circuit. The symbol "S" in the description of the flowchart means a "step" in the flowchart. The same applies to other flowcharts.
まず、S200において、視点設定部100が、各撮像装置の視点のキャリブレーションパラメータを設定する。
First, in S200, the
S201において、モデル取得部101が、オブジェクトのポリゴンメッシュデータを取得する。
In S201, the
S202において、グループ化部102が、ポリゴン毎に、ポリゴンを最も高画質に撮像した視点を選択し、同じ視点が選択されかつ隣接するポリゴン同士を一つのグループに統合する。詳細は、図3を参照して後述する。グループ化部102は、グループ毎のポリゴン(すなわち、ポリゴン島)のインデックスリストを出力する。
In S202, the
S203において、断片形成部103が、各ポリゴン島に属するポリゴンを、選択した視点に射影し、その写像である各ポリゴン島の二次元の断片を形成する。後述するように、形成した断片の形や大きさにしたがって、各ポリゴン島のテクスチャの色情報が記述される。断片情報は、写像の外接矩形(具体的には、外接矩形の左上の画素位置と、幅及び高さ)と、断片マップ(外接矩形内の写像と重なる画素のマップ)を保持する。 In S203, the fragment forming unit 103 projects the polygons belonging to each polygon island onto the selected viewpoint, and forms a two-dimensional fragment of each polygon island that is the mapping. As will be described later, the color information of the texture of each polygon island is described according to the shape and size of the formed fragment. The fragment information holds a circumscribed rectangle of the mapping (specifically, the upper left pixel position, width, and height of the circumscribed rectangle) and a fragment map (a map of pixels that overlap with the mapping within the circumscribed rectangle).
S204において、配置部104が、全ての断片を一つのテクスチャマップ上に配置し、配置先の断片の外接矩形の左上の座標と、断片に対となるポリゴン島に含まれるポリゴンの頂点に対応するテクスチャマップ上のテクスチャ座標を算出する。すなわち、配置部104は、全ての断片を二次元マップ上に設定する。詳細は、図4を参照して後述する。
In S204, the
S205において、テクスチャ値決定部105は、撮像画像を読込み、選択した視点における断片に重なる画素の画素値をテクスチャマップ上にコピーすることで、各断片に対応するテクスチャマップ上のテクセルの画素値を決定する。なお、テクスチャマップの画素値(例えば、色情報)の決定方法は、これに限らず、選択した視点以外の視点の撮像画像の画素値を混ぜたり、遮蔽判定によって選択した視点の画素値を使わない等のその他の方法でもよい。
In S205, the texture
次に、図5~図7を用いて、上記の処理フローを模式的に説明する。 Next, the above processing flow will be schematically explained using FIGS. 5 to 7.
図5は、三次元空間内の立方体オブジェクトの形状を表すポリゴンメッシュ503と、それを取り囲むように配置された3つの撮像装置の視点500~502を表す。ここでは、簡単のためにポリゴンメッシュ503を構成する複数のポリゴンのうち、ポリゴンF0~F3のテクスチャを生成する処理を説明する。ポリゴンF0~F3は、頂点V0~V5によって構成される。
FIG. 5 shows a
図6は、上述した3つの視点からポリゴンメッシュ503を撮像した画像と、各画像の2次元空間に射影されたポリゴン島の断片を表す。画像600~602は、3つの視点500~502のそれぞれから撮像された画像を示す。この例では、ポリゴンF0とポリゴンF1が同一のグループに分類されて同一のポリゴン島に所属し、視点500から撮像された画像の2次元空間603に射影された断片610を形成している。また、ポリゴンF2とポリゴンF3が同一のグループに分類されて同一のポリゴン島に所属し、視点502から撮像された画像の2次元空間605に射影された断片611を形成している。断片610は、頂点C0~C3に囲まれた領域で表される。頂点C0~C3はそれぞれ、ポリゴンメッシュ503の頂点V0~V4に対応する射影位置(テクスチャ座標)を示す。また、断片611は、頂点C4~C7に囲まれた領域で表される。頂点C4~C7はそれぞれ、ポリゴンメッシュ503の頂点V1~V5に対応する射影位置を示す。なお、視点501から撮像された画像はポリゴンF0~F3に対して選択されなかったため、当該画像の2次元空間604に断片は形成されていない。
FIG. 6 shows images of the
図7は、上述した断片をテクスチャマップ上に配置して生成されたテクスチャ付きポリゴンメッシュデータの例を示す。図7(a)は、ポリゴンメッシュ503の頂点V0~V5の頂点座標を記述したテーブルを示す。図7(B)は、断片610及び611の頂点C0~C7のテクスチャ座標を記述したテーブルを示す。図7(C)は、ポリゴンメッシュ503のポリゴン情報を記述したテーブルを示し、ポリゴンメッシュ503を構成するポリゴンF0~F3の頂点V0~V5と、断片610及び611の頂点C0~C7との対応関係が記述される。図7(D)は、テクスチャマップを画像データとして記述したものである。
FIG. 7 shows an example of textured polygon mesh data generated by arranging the above-described fragments on a texture map. FIG. 7A shows a table that describes the vertex coordinates of vertices V0 to V5 of the
次に、図3のフローチャートを参照して、ポリゴンメッシュを構成するポリゴンのグループ化処理(S202)の詳細な処理フローを説明する。 Next, a detailed process flow of the grouping process (S202) of polygons forming a polygon mesh will be described with reference to the flowchart of FIG.
まず、S300において、グループ化部102は、ポリゴンメッシュを構成するポリゴン毎に(すなわち、オブジェクトの三次元形状を構成する構成要素毎に)、最も解像度が高い視点を選択する。具体的には、各ポリゴンの写像が画角内にあり、表面が見える視点(つまり、面法線とポリゴンから視点位置への方向ベクトルの内積が正になる視点)のうち、ポリゴンの写像の面積が最大となる視点を選択する。ただし、視点の選択方法はこれに限らず、例えば面に対して最も正対した視点を選択したり、方向と面積の両方を考慮したり、その他画角の中心近くに射影される視点を選択するなど、他の方法を用いてもよい。
First, in S300, the
S301において、グループ化部102は、ポリゴンメッシュのトポロジを解析し、各ポリゴンについて、同じ視点が選択され、かつ頂点を共有する隣接ポリゴンを求める。
In S301, the
その後、後述するS302~S304の処理を、S305の判定処理により全てのポリゴンがいずれかのグループに所属するまで繰り返し、グループ化処理を終了する。 Thereafter, the processes of S302 to S304, which will be described later, are repeated until all polygons belong to one of the groups according to the determination process of S305, and the grouping process ends.
S302において、グループ化部102は、どのグループにも所属していない任意のポリゴンを起点として、同じ視点が選択されかつ直接又は間接的に隣接する、どのグループにも所属していないポリゴンを全て検出し、1つのグループにまとめる。起点となったポリゴンと、検出されたポリゴンが、1つのポリゴングループを構成する。なお、間接的に隣接するポリゴンとは、直接的に隣接するポリゴンに、さらに隣接するポリゴンのことをいう。すなわち、対象のポリゴンの近くにある複数のポリゴンを1つのグループにまとめる。
In S302, the
S303において、グループ化部102は、ポリゴングループを、選択した視点に投影し、デプスマップを作成する。
In S303, the
S304において、グループ化部102は、デプスマップを用いた遮蔽判定により、その他のポリゴンに隠れたポリゴンをグループから除外し、そのグループの作成を完了する。遮蔽判定処理を行うことで、テクスチャマップのテクセルに複数のポリゴンが重なって対応づくことを防ぐことができる。
In S304, the
このように、本実施形態では、ポリゴンメッシュを構成するポリゴンがグループ化され、ポリゴン島が形成される。 In this manner, in this embodiment, polygons forming a polygon mesh are grouped to form polygon islands.
続いて、図4のフローチャートを参照して、ポリゴン島の断片配置処理(S204)の詳細な処理フローを説明する。 Next, the detailed process flow of the polygon island fragment placement process (S204) will be described with reference to the flowchart of FIG.
まず、S400において、配置部104は、ポリゴン島の断片を、外接矩形の面積の降順にソートし、テクスチャマップの初期サイズを設定する。テクスチャマップのサイズは、横縦で断片の外接矩形の画素数の最大値を求め、それぞれ最大値以上の2の冪数とする。
First, in S400, the
S401において、配置部104は、設定されたテクスチャマップのサイズに従って、テクスチャマップ上への断片の配置を管理する配置済みマップのデータ領域を確保し、0(未配置を表す)で初期化する。配置済みマップのサイズは、テクスチャマップと同じサイズとする。
In S401, the
その後、配置部104は、後述するS402~S404の処理を、S405の判定処理により全ての断片をテクスチャマップ上に配置するまで繰り返し、断片配置処理を終了する。
After that, the
S402において、配置部104は、テクスチャマップ上で断片の配置可能な場所を探索する。具体的には、配置部104は、配置済みマップを左上からラスタ順に走査し、断片マップと配置済みマップとを照らし合わせて、配置済みマップにおける配置済みの画素と断片マップの重なりの有無を判定する。配置済みの画素と断片マップの重なりが無ければ(断片マップに対応する配置済みマップの値が全て0であれば)配置成功とし、走査を終了する。
In S402, the
S403において、配置部104は、断片配置の成否を判断し、成功していればS404に進み、失敗していればS407に進む。
In S403, the
S407において、配置部104は、テクスチャマップのサイズを縦横2倍にして、S401に戻り、配置処理をやり直す。
In S407, the
S404において、配置部104は、断片にラスタ位置を登録し、断片マップと重なる配置済みマップの領域の値を1(配置済みを表す)にする。
In S404, the
S405において、配置部104は、全ての断片が配置されたかどうか判定し、未処理の断片があればS402に戻り、次の断片を処理する。一方、全ての断片の処理が完了していれば、S408に進む。
In S405, the
S408において、配置部104は、断片の配置に応じて各ポリゴンにテクスチャマップ上のテクスチャ座標を付与する。具体的には、選択視点におけるテクスチャ座標に、選択視点とテクスチャマップにおける断片の外接矩形の左上の画素位置の差分を足すことで算出する。
In S408, the
図10は、本実施形態における断片配置処理を模式的に説明する図である。ここでは、図10(a)に示す各ポリゴンの断片1001、1002、1003、及び1004を、図10(b)に示すように、テクスチャマップ1100上に配置する過程を説明する。
FIG. 10 is a diagram schematically explaining fragment placement processing in this embodiment. Here, a process of arranging each
まず、断片1001がテクスチャマップ1100上に配置される。次いで、断片1002が、配置済みの断片1001に重ならないようにテクスチャマップ1100上に配置される。次いで、断片1003が、配置済みの断片1001及び1002に重ならないように配置される。最後に、断片1004が、配置済みの断片1001~1003に重ならないように配置される。断片は、面積の降順にソートされて処理されるので、面積の大きい断片から順番に配置される。また、各断片は、形状及び大きさを維持したまま配置される。
First,
図10(c)は、断片1004をテクスチャマップ1100上に配置する際の、配置済みマップ1200を用いた重なり判定の過程を示す。図示されたように、断片1004は、配置済みマップ1200を左上からラスタ順に走査し、他の断片が配置済みの領域(黒で塗られた領域)と重ならない領域を探索する。
FIG. 10C shows the process of determining overlap using the placed
このように、本実施形態における断片配置処理では、各ポリゴンの断片をテクスチャマップ上に配置し、各ポリゴンにテクスチャマップ上のテクスチャ座標を付与する。 In this way, in the fragment placement process in this embodiment, each polygon fragment is placed on the texture map, and texture coordinates on the texture map are given to each polygon.
以上説明したように、ポリゴンメッシュと複数視点の撮像画像から、テクスチャ付きのポリゴンメッシュデータが生成される。本実施形態では、同一の視点が選択され、かつ隣接したポリゴンを1つのグループにまとめて断片を形成し、テクスチャマップ上に配置する。また、形成された断片は、形状及び大きさを維持したまま、テクスチャマップ上に配置される。本実施形態によると、描画したオブジェクトの画質が低下しないようにすることができる。また、その際に生成されるテクスチャ画像(すなわち、テクスチャマップ)の画素数を低減することができる。 As described above, textured polygon mesh data is generated from a polygon mesh and captured images from multiple viewpoints. In this embodiment, the same viewpoint is selected and adjacent polygons are grouped together to form fragments, and the fragments are placed on the texture map. Furthermore, the formed fragments are placed on the texture map while maintaining their shape and size. According to this embodiment, it is possible to prevent the image quality of a drawn object from deteriorating. Furthermore, the number of pixels of the texture image (ie, texture map) generated at this time can be reduced.
(ハードウェア構成)
図8を参照して、本実施形態における画像処理装置のハードウェア構成について説明する。画像処理装置800は、CPU801、ROM802、RAM803、補助記憶装置804、表示部805、操作部806、通信I/F807、及びバス808を有する。
(Hardware configuration)
Referring to FIG. 8, the hardware configuration of the image processing apparatus in this embodiment will be described. The
CPU801は、ROM802やRAM803に格納されているコンピュータプログラムやデータを用いて画像処理装置800の全体を制御することで、図1に示す各機能を実現する。なお、画像処理装置800がCPU801と異なる1又は複数の専用のハードウェアまたはGPU(Graphics Processing Unit)を有し、CPU801による処理の少なくとも一部を専用のハードウェアまたはGPUが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM802は、変更を必要としないプログラムなどを格納する。RAM803は、補助記憶装置804から供給されるプログラムやデータ、及び通信I/F807を介して外部から供給されるデータなどを一時記憶する。補助記憶装置804は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
The
表示部805は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像処理装置800を操作するためのGUI(Graphical User Interface)などを表示する。操作部806は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU801に入力する。
The
通信I/F807は、画像処理装置800の外部の装置との通信に用いられる。例えば、画像処理装置800が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F807に接続される。画像処理装置800が外部の装置と無線通信する機能を有する場合には、通信I/F807はアンテナを備える。バス808は、画像処理装置800の各部をつないで情報を伝達する。
A communication I/
図8では、表示部805と操作部806が画像処理装置800の内部に存在するものとするが、表示部805と操作部806との少なくとも一方が画像処理装置800の外部に別の装置として存在していてもよい。この場合、CPU801が、表示部805を制御する表示制御部、及び操作部806を制御する操作制御部として動作してもよい。
In FIG. 8, it is assumed that the
<第二の実施形態>
第一の実施形態では、ポリゴンメッシュの全てのポリゴンの断片を、テクスチャマップ上で重ならないように配置する方法を説明した。しかし、ポリゴンメッシュのテクスチャには、繰り返しパタンや、ほとんど変化の無い領域が複数存在することもある。そこで、本実施形態では、テクスチャマップ上でのポリゴンの断片の重なりを許し、複数の断片に同一のテクスチャ領域を利用することで、テクスチャ画像の画素数を更に低減する方法を説明する。
<Second embodiment>
In the first embodiment, a method has been described in which all polygon fragments of a polygon mesh are arranged so that they do not overlap on the texture map. However, polygon mesh textures may have repeated patterns or multiple areas with little change. Therefore, in this embodiment, a method will be described in which the number of pixels of a texture image is further reduced by allowing polygon fragments to overlap on a texture map and using the same texture area for a plurality of fragments.
本実施形態は、第一の実施形態と比較して、配置部104とテクスチャ値決定部105の処理が異なる。本実施形態では、配置部104が、断片の配置と共に、テクスチャマップの画素値の決定を行う。
This embodiment differs from the first embodiment in the processing of the
図9は、本実施形態における断片配置処理の詳細な処理フローを示す。ここでは、図4に示した処理フローと異なる部分を主に説明する。図9のS900、S903、S905、S907、及びS908の処理は、図4のS400、S403、S405、S407、及びS408の処理と同様であるため、説明は省略する。 FIG. 9 shows a detailed processing flow of fragment placement processing in this embodiment. Here, parts that are different from the processing flow shown in FIG. 4 will be mainly explained. The processes in S900, S903, S905, S907, and S908 in FIG. 9 are the same as the processes in S400, S403, S405, S407, and S408 in FIG. 4, so the description thereof will be omitted.
本実施形態では、S901において、配置部104は、テクスチャマップと配置済みマップの両方のデータ領域を確保し、初期化を行う。
In this embodiment, in S901, the
S902において、配置部104は、図4のS402と同様に断片の配置可能な場所を探索するが、本実施形態では、断片が配置可能かどうかの判定方法が異なる。ここでは、断片マップに重なる視点画像の画素値とテクスチャマップ上の画素値の比較を行う。画素値の差が所定の閾値より小さい場合、配置済みマップの値が1(配置済みを表す)の領域があったとしても、断片はその領域に配置可能であると判定する。画素値の差は、断片マップにおける画素値の二乗差分の平均を用いる。配置済みマップの値が0(未配置を表す)の画素は、画素値の差の計算対象から除外する。なお、画素値の差はこれに限らず、例えば差の絶対値の最大値を用いてもよいし、差の絶対値の和を用いてもよい。
In S902, the
S904において、配置部104は、断片にテクスチャマップ上のラスタ位置を登録する。次いで、配置部104は、配置済みマップの値が0(未配置を表す)の画素に対して、画素値の決定を行う。最後に、配置部104は、断片マップと重なる配置済みマップの領域の値を1(配置済みを表す)に設定する。このように、本実施形態では、二次元マップ上で断片が設定済みの領域において、画素値の差が所定の閾値より小さい場合は、新たに設定する断片を当該設定済みの領域に重ねて設定することができる。
In S904, the
図11は、本実施形態における断片配置処理を模式的に説明する図である。ここでは、図10と同様に、図11(a)に示す各ポリゴンの断片1001、1002、1003、及び1004を、図11(b)に示すように、テクスチャマップ1100上に配置する過程を説明する。なお、断片1001と断片1004は、類似のテクスチャを有する。
FIG. 11 is a diagram schematically explaining fragment placement processing in this embodiment. Here, similarly to FIG. 10, a process of arranging each
断片1001~1003は、第一の実施形態と同様に、順次、配置済みの断片に重ならないようにテクスチャマップ1100上に配置される。一方、断片1004は、断片1001に類似のテクスチャを有するため、テクスチャマップ1100上で断片1001と重なるように配置される。
Similar to the first embodiment, the
図11(c)は、断片1004をテクスチャマップ1100上に配置する際の、配置済みマップ1200を用いた重なり判定の過程を示す。図示されたように、断片1004は、配置済みマップ1200を左上からラスタ順に走査し、他の断片が配置済みの領域(黒で塗られた領域)であっても、画素値の差が所定の閾値より小さい場合、配置可能であると判定する。
FIG. 11C shows the process of determining overlap using the placed
以上説明したように、本実施形態によると、テクスチャの類似度の高いポリゴン島間で、テクスチャマップの同じ領域を共有することができ、第一の実施形態と比較してテクスチャ画像の画素数をさらに小さくすることができる。本構成は、テクスチャを形成する対象に地面が含まれる場合など、面積が大きく単純なテクスチャを持つオブジェクトに対して有効に作用する。 As explained above, according to this embodiment, the same region of the texture map can be shared between polygon islands with high texture similarity, and the number of pixels of the texture image can be further reduced compared to the first embodiment. Can be made smaller. This configuration works effectively for objects with large areas and simple textures, such as when the ground is included in the object forming the texture.
ここまで、オブジェクトの三次元形状のデータ表現の例として、ポリゴンを構成要素とするポリゴンメッシュを用いたが、三次元形状のデータ表現はこれに限定されない。例えば、頂点を構成要素とする点群データや、ボクセルを構成要素とするボリュームデータ等のオブジェクトの表面の形を表現できるものであれば適用可能である。 Up to this point, a polygon mesh having polygons as constituent elements has been used as an example of the data representation of the three-dimensional shape of the object, but the data representation of the three-dimensional shape is not limited to this. For example, it is applicable to any data that can express the shape of the surface of an object, such as point cloud data whose constituent elements are vertices or volume data whose constituent elements are voxels.
また、テクスチャマップには、法線情報を記述して異方性テクスチャを表現したり、深度情報を記述してテクスチャマップに三次元情報を持たせたり、高さ情報を記述してオブジェクト表面に凹凸を付与したりするなど、その他の情報を記述してもよい。 In addition, in a texture map, normal information can be written to express an anisotropic texture, depth information can be written to give the texture map three-dimensional information, and height information can be written to express an anisotropic texture on the object surface. Other information such as adding unevenness may also be written.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 視点設定部
101 モデル取得部
102 グループ化部
103 断片形成部
104 配置部
105 テクスチャ値決定部
100
Claims (14)
前記三次元形状データを構成する構成要素に対して、前記オブジェクトに対する複数の視点の中から1つの視点を選択し、同じ視点が選択されかつ当該構成要素の直接的および間接的に隣接する複数の構成要素を1つのグループとしてまとめ、前記複数の構成要素をグループに分類するグループ化手段と、
前記グループに属する複数の構成要素を前記選択された視点へ射影した写像を、前記グループに対応する領域として二次元マップ上に設定する設定手段と、
選択された視点の画像から、前記領域に応じた画素値を決定する決定手段と、
決定された前記領域に応じた画素値に基づいてテクスチャマップを生成する生成手段と、
を有することを特徴とする画像処理装置。 An image processing device that generates a texture map corresponding to three-dimensional shape data of an object and representing at least a color of the object,
For the component constituting the three-dimensional shape data, one viewpoint is selected from among a plurality of viewpoints for the object, and the same viewpoint is selected and a plurality of directly and indirectly adjacent viewpoints of the component are selected. grouping means for grouping the constituent elements into one group and classifying the plurality of constituent elements into groups;
a setting means for setting a mapping obtained by projecting a plurality of components belonging to the group onto the selected viewpoint on a two-dimensional map as an area corresponding to the group;
determining means for determining a pixel value according to the area from the image of the selected viewpoint;
generation means for generating a texture map based on pixel values corresponding to the determined area;
An image processing device comprising:
前記三次元形状データを構成する構成要素に対して、前記オブジェクトに対する複数の視点の中から1つの視点を選択し、同じ視点が選択されかつ当該構成要素の直接的および間接的に隣接する複数の構成要素を1つのグループとしてまとめ、前記複数の構成要素をグループに分類するグループ化ステップと、
前記グループに属する複数の構成要素を前記選択された視点へ射影した写像を、前記グループに対応する領域として二次元マップ上に設定する設定ステップと、
選択された視点の画像から、前記領域に応じた画素値を決定する決定ステップと、
決定された前記領域に応じた画素値に基づいてテクスチャマップを生成する生成ステップと、
を含むことを特徴とする画像処理装置。 An image processing method for generating a texture map corresponding to three-dimensional shape data of an object and representing at least a color of the object, the method comprising:
For the component constituting the three-dimensional shape data, one viewpoint is selected from among a plurality of viewpoints for the object, and the same viewpoint is selected and a plurality of directly and indirectly adjacent viewpoints of the component are selected. a grouping step of grouping the components into one group and classifying the plurality of components into groups;
a setting step of setting a mapping obtained by projecting a plurality of components belonging to the group onto the selected viewpoint on a two-dimensional map as an area corresponding to the group;
a determining step of determining a pixel value according to the area from the image of the selected viewpoint;
a generation step of generating a texture map based on pixel values corresponding to the determined area;
An image processing device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190258A JP7455546B2 (en) | 2019-10-17 | 2019-10-17 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190258A JP7455546B2 (en) | 2019-10-17 | 2019-10-17 | Image processing device, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021064334A JP2021064334A (en) | 2021-04-22 |
JP2021064334A5 JP2021064334A5 (en) | 2022-10-26 |
JP7455546B2 true JP7455546B2 (en) | 2024-03-26 |
Family
ID=75486388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019190258A Active JP7455546B2 (en) | 2019-10-17 | 2019-10-17 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7455546B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229171A (en) | 2013-05-24 | 2014-12-08 | 国立大学法人 千葉大学 | Creation method of texture map including shape information of object |
JP2019046378A (en) | 2017-09-06 | 2019-03-22 | キヤノン株式会社 | Image processing device, image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06103385A (en) * | 1992-09-21 | 1994-04-15 | Matsushita Electric Ind Co Ltd | Texture mapping processor |
JPH09282485A (en) * | 1996-04-15 | 1997-10-31 | Sony Corp | Image processing method |
JP3630934B2 (en) * | 1997-08-29 | 2005-03-23 | 三洋電機株式会社 | Texture recording method |
-
2019
- 2019-10-17 JP JP2019190258A patent/JP7455546B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014229171A (en) | 2013-05-24 | 2014-12-08 | 国立大学法人 千葉大学 | Creation method of texture map including shape information of object |
JP2019046378A (en) | 2017-09-06 | 2019-03-22 | キヤノン株式会社 | Image processing device, image processing method, and program |
Non-Patent Citations (1)
Title |
---|
佐藤 寛幸 ほか3名,自由なカメラワークによって撮影された多視点画像系列を用いるテクスチャマッピング手法,電子情報通信学会論文誌 ,2002年05月01日,第J85-D-II巻, 第5号,p.907~917 |
Also Published As
Publication number | Publication date |
---|---|
JP2021064334A (en) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6563048B2 (en) | Tilt adjustment of texture mapping for multiple rendering targets with different resolutions depending on screen position | |
KR101923562B1 (en) | Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters | |
US8059119B2 (en) | Method for detecting border tiles or border pixels of a primitive for tile-based rendering | |
US7884825B2 (en) | Drawing method, image generating device, and electronic information apparatus | |
US20130300740A1 (en) | System and Method for Displaying Data Having Spatial Coordinates | |
WO2013069215A1 (en) | Image processing device, image processing method and image file data structure | |
JP2009545827A (en) | Graphic system using pixel mask | |
KR101507776B1 (en) | methof for rendering outline in three dimesion map | |
US20190108657A1 (en) | Using Signed Distance Fields in Multicolored Vector Approximation | |
CN111937039B (en) | Method and apparatus for facilitating visualization and manipulation of 3D objects across multiple devices | |
KR20120104071A (en) | 3d image visual effect processing method | |
JP3892016B2 (en) | Image processing apparatus and image processing method | |
KR102713170B1 (en) | Geometry-aware augmented reality effects using real-time depth maps | |
KR101769013B1 (en) | Visualization method for 3-dimension model using 3-dimension object model merging based on space tile | |
US10347034B2 (en) | Out-of-core point rendering with dynamic shapes | |
CN114375464A (en) | Ray tracing dynamic cells in virtual space using bounding volume representations | |
CN112734900A (en) | Baking method, baking device, baking equipment and computer-readable storage medium of shadow map | |
JP7455546B2 (en) | Image processing device, image processing method, and program | |
US20040012602A1 (en) | System and method for image-based rendering with object proxies | |
EP4386685A1 (en) | Method for 3d visualization of sensor data | |
KR100914915B1 (en) | A low cost view-volume clipping method and an apparatus therefor | |
WO2012114386A1 (en) | Image vectorization device, image vectorization method, and image vectorization program | |
JP6106293B2 (en) | Image processing apparatus, image processing system, and image processing method | |
JP2022171068A (en) | Data processing apparatus, data processing method, and program | |
JP2003123082A (en) | Device and method for image processing and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221017 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231024 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240313 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7455546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |