JP7455546B2 - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP7455546B2
JP7455546B2 JP2019190258A JP2019190258A JP7455546B2 JP 7455546 B2 JP7455546 B2 JP 7455546B2 JP 2019190258 A JP2019190258 A JP 2019190258A JP 2019190258 A JP2019190258 A JP 2019190258A JP 7455546 B2 JP7455546 B2 JP 7455546B2
Authority
JP
Japan
Prior art keywords
image processing
viewpoint
area
processing apparatus
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019190258A
Other languages
Japanese (ja)
Other versions
JP2021064334A5 (en
JP2021064334A (en
Inventor
智一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019190258A priority Critical patent/JP7455546B2/en
Publication of JP2021064334A publication Critical patent/JP2021064334A/en
Publication of JP2021064334A5 publication Critical patent/JP2021064334A5/ja
Application granted granted Critical
Publication of JP7455546B2 publication Critical patent/JP7455546B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program.

従来、三次元空間内のオブジェクトを描画するために、オブジェクトの三次元形状を表すデータへオブジェクト表面の色を表すテクスチャデータをマッピングするテクスチャマッピングが行われている。テクスチャマッピングには、テクスチャデータを二次元平面に展開し、画像形式で保存したテクスチャマップが用いられる。 Conventionally, in order to draw an object in a three-dimensional space, texture mapping has been performed in which texture data representing the color of the object's surface is mapped to data representing the three-dimensional shape of the object. For texture mapping, a texture map is used in which texture data is expanded onto a two-dimensional plane and saved in an image format.

特許文献1は、オブジェクトの三次元形状を表すポリゴンメッシュモデルを構成する三角形のポリゴンメッシュを射影した三角形の面積が最も大きくなる視点を選択し、その視点のテクスチャデータを利用してテクスチャマップを生成することを開示している。この技術では、テクスチャデータが割り当てられる三角形を直角二等辺三角形に変形し、それらをテクスチャマップ上に敷き詰めている。 Patent Document 1 selects a viewpoint from which the area of a triangle projected from a polygon mesh of triangles that constitutes a polygon mesh model representing a three-dimensional shape of an object is the largest, and generates a texture map using texture data from that viewpoint. Discloses that. In this technique, a triangle to which texture data is assigned is transformed into a right-angled isosceles triangle, and these triangles are laid out on a texture map.

特開2004-227095号公報Japanese Patent Application Publication No. 2004-227095

しかしながら、特許文献1の方法では、テクスチャデータが割り当てられる三角形が、直角二等辺三角形に変形されてしまう。そのため、そのテクスチャデータによるテクスチャマップを利用してテクスチャマッピングを行い、オブジェクトを描画すると、オブジェクトの画質が低下してしまう可能性が生じる。 However, in the method of Patent Document 1, the triangle to which texture data is assigned is transformed into a right isosceles triangle. Therefore, if texture mapping is performed using a texture map based on the texture data to draw an object, there is a possibility that the image quality of the object will deteriorate.

本発明はこのような問題に鑑みてなされたものであり、描画したオブジェクトの画質が低下しないように、テクスチャマップを生成することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to generate a texture map so that the image quality of a drawn object does not deteriorate.

本発明の一実施形態において、オブジェクトの三次元形状データに対応する、少なくとも前記オブジェクトの色を表すテクスチャマップを生成する画像処理装置は、前記三次元形状データを構成する構成要素に対して、前記オブジェクトに対する複数の視点の中から1つの視点を選択し、同じ視点が選択されかつ当該構成要素の直接的および間接的に隣接する複数の構成要素を1つのグループとしてまとめ、前記複数の構成要素をグループに分類するグループ化手段と、前記グループに属する複数の構成要素を前記選択された視点へ射影した写像を、前記グループに対応する領域として二次元マップ上に設定する設定手段と、選択された視点の画像から、前記領域に応じた画素値を決定する決定手段と、決定された前記領域に応じた画素値に基づいてテクスチャマップを生成する生成手段と、を有する。 In one embodiment of the present invention, an image processing device that generates a texture map that corresponds to three-dimensional shape data of an object and represents at least a color of the object, the One viewpoint is selected from among a plurality of viewpoints for an object, and a plurality of components for which the same viewpoint is selected and that are directly and indirectly adjacent to the component are grouped together, and the plurality of components are combined into one group. a grouping means for classifying into groups; a setting means for setting a mapping obtained by projecting a plurality of components belonging to the group onto the selected viewpoint on a two-dimensional map as an area corresponding to the group; The image forming apparatus includes determining means for determining pixel values corresponding to the region from the viewpoint image, and generating means for generating a texture map based on the determined pixel values corresponding to the region.

本発明によれば、描画したオブジェクトの画質が低下しないように、テクスチャマップを生成することができる。 According to the present invention, a texture map can be generated without deteriorating the image quality of a drawn object.

第一の実施形態における画像処理装置の機能ブロック図である。FIG. 1 is a functional block diagram of an image processing device in a first embodiment. 第一の実施形態における画像処理のフローチャートである。It is a flowchart of image processing in the first embodiment. 第一の実施形態におけるグループ化処理のフローチャートである。It is a flowchart of grouping processing in a first embodiment. 第一の実施形態における断片配置処理フローチャートである。It is a fragment arrangement processing flowchart in a first embodiment. 第一の実施形態における三次元空間内のオブジェクトと撮像視点とを表す図である。FIG. 3 is a diagram showing objects in a three-dimensional space and imaging viewpoints in the first embodiment. 第一の実施形態における撮像画像とポリゴン島の断片を表す図である。FIG. 3 is a diagram showing a captured image and a fragment of a polygon island in the first embodiment. 第一の実施形態におけるテクスチャ付きポリゴンメッシュデータを示す図である。FIG. 3 is a diagram showing textured polygon mesh data in the first embodiment. 第一の実施形態における画像処理装置のハードウェア構成図である。FIG. 1 is a hardware configuration diagram of an image processing device in a first embodiment. 第二の実施形態における断片配置処理のフローチャートである。It is a flowchart of fragment arrangement processing in a second embodiment. 第一の実施形態における断片配置処理を模式的に説明する図である。FIG. 3 is a diagram schematically explaining fragment placement processing in the first embodiment. 第二の実施形態における断片配置処理を模式的に説明する図である。FIG. 7 is a diagram schematically illustrating fragment placement processing in the second embodiment.

以下、本発明の実施形態について、図面を参照して詳細に説明する。なお、以下の実施形態は本発明を限定するものではない。また、以下の実施形態で説明されている特徴の組み合わせの全てが本発明に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings. Note that the following embodiments do not limit the present invention. Furthermore, not all combinations of features described in the embodiments below are essential to the present invention. Note that the same configurations will be described using the same reference numerals.

<第一の実施形態>
第一の実施形態では、三次元空間内のオブジェクトを取り囲むようにして配置された複数の撮像装置で撮像された画像と、オブジェクトの三次元形状を表すポリゴンメッシュとを入力として、テクスチャ付きのポリゴンメッシュモデルを生成する方法を説明する。ポリゴンメッシュモデルは、オブジェクトの三次元形状を表現するデータ(すなわち、三次元形状データ)である。ポリゴンメッシュのテクスチャは、テクスチャマップ上にテクスチャの画素値(色情報)を記述することで表現される。画素値が記述され、画像形式で保存されたテクスチャマップを、テクスチャ画像ともいう。なお、複数の撮像装置間の位置関係はキャリブレーション済みであり、それぞれのキャリブレーションパラメータが事前に記憶されているものとする。
<First embodiment>
In the first embodiment, images captured by a plurality of imaging devices arranged to surround an object in a three-dimensional space and a polygon mesh representing the three-dimensional shape of the object are input, and textured polygons are Explain how to generate a mesh model. A polygon mesh model is data that expresses the three-dimensional shape of an object (ie, three-dimensional shape data). The texture of a polygon mesh is expressed by describing pixel values (color information) of the texture on a texture map. A texture map in which pixel values are described and saved in an image format is also called a texture image. Note that it is assumed that the positional relationship between the plurality of imaging devices has been calibrated, and that the respective calibration parameters are stored in advance.

図1は、本実施形態における画像処理装置の機能ブロック図である。本実施形態における画像処理装置は、視点設定部100、モデル取得部101、グループ化部102、断片形成部103、配置部104、及びテクスチャ値決定部105を有する。 FIG. 1 is a functional block diagram of an image processing apparatus in this embodiment. The image processing apparatus in this embodiment includes a viewpoint setting section 100, a model acquisition section 101, a grouping section 102, a fragment forming section 103, a placement section 104, and a texture value determining section 105.

視点設定部100は、各撮像装置の視点のキャリブレーションパラメータを不図示の記憶部から取得する。 The viewpoint setting unit 100 acquires the calibration parameters of the viewpoint of each imaging device from a storage unit (not shown).

モデル取得部101は、オブジェクトの三次元形状を表すポリゴンメッシュデータを不図示の記憶部から取得する。 The model acquisition unit 101 acquires polygon mesh data representing the three-dimensional shape of an object from a storage unit (not shown).

グループ化部102は、取得したキャリブレーションパラメータを用いて、ポリゴンメッシュを構成する複数のポリゴンを複数のグループに分類し、各グループに属するポリゴンのインデックスリストを生成する。本実施形態では、ポリゴンのグループをポリゴン島と呼ぶ。 The grouping unit 102 classifies a plurality of polygons forming a polygon mesh into a plurality of groups using the acquired calibration parameters, and generates an index list of polygons belonging to each group. In this embodiment, a group of polygons is called a polygon island.

断片形成部103は、ポリゴン島のテクスチャマップ上での大きさと形を定義する断片(フラグメントとも呼ぶ)を、ポリゴン島毎に形成する。 The fragment forming unit 103 forms, for each polygon island, a fragment (also called a fragment) that defines the size and shape of the polygon island on the texture map.

配置部104は、ポリゴン島毎に形成された各断片をテクスチャマップ上に配置し、ポリゴンの頂点に対応するテクスチャ座標(テクスチャマップ上の二次元位置)を算出し、テクスチャ座標情報を含むポリゴンメッシュデータを不図示の記憶部に記憶する。 The placement unit 104 places each fragment formed for each polygon island on a texture map, calculates texture coordinates (two-dimensional positions on the texture map) corresponding to the vertices of the polygon, and creates a polygon mesh containing texture coordinate information. The data is stored in a storage unit (not shown).

テクスチャ値決定部105は、不図示の記憶部から各撮像装置の視点に対応する撮像画像を取得し、各ポリゴン島の表面色を表す色情報をテクスチャマップ上に記述し、不図示の記憶部に画像データとして保存する。 The texture value determining unit 105 acquires captured images corresponding to the viewpoints of each imaging device from a storage unit (not shown), writes color information representing the surface color of each polygon island on a texture map, and stores the image in a storage unit (not shown). Save it as image data.

このように、本実施形態におけるテクスチャ付きのポリゴンメッシュモデルは、テクスチャ座標情報を含むポリゴンメッシュデータとテクスチャマップの画像データとによって記述される。 In this way, the textured polygon mesh model in this embodiment is described by polygon mesh data including texture coordinate information and image data of a texture map.

次に、図2を用いて、本実施形態における画像処理のフローを説明する。図2のフローチャートで示される一連の処理は、画像処理装置のCPUがROMまたはHDDに格納されている制御プログラムをRAMに展開して実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。フローチャートの説明における記号「S」は、当該フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。 Next, the flow of image processing in this embodiment will be explained using FIG. 2. The series of processes shown in the flowchart of FIG. 2 is performed by the CPU of the image processing device loading a control program stored in the ROM or HDD into the RAM and executing it. Alternatively, some or all of the functions of the steps in the flowchart may be realized by hardware such as an ASIC or an electronic circuit. The symbol "S" in the description of the flowchart means a "step" in the flowchart. The same applies to other flowcharts.

まず、S200において、視点設定部100が、各撮像装置の視点のキャリブレーションパラメータを設定する。 First, in S200, the viewpoint setting unit 100 sets viewpoint calibration parameters for each imaging device.

S201において、モデル取得部101が、オブジェクトのポリゴンメッシュデータを取得する。 In S201, the model acquisition unit 101 acquires polygon mesh data of the object.

S202において、グループ化部102が、ポリゴン毎に、ポリゴンを最も高画質に撮像した視点を選択し、同じ視点が選択されかつ隣接するポリゴン同士を一つのグループに統合する。詳細は、図3を参照して後述する。グループ化部102は、グループ毎のポリゴン(すなわち、ポリゴン島)のインデックスリストを出力する。 In S202, the grouping unit 102 selects, for each polygon, the viewpoint that images the polygon with the highest image quality, and integrates adjacent polygons from which the same viewpoint is selected into one group. Details will be described later with reference to FIG. The grouping unit 102 outputs an index list of polygons (that is, polygon islands) for each group.

S203において、断片形成部103が、各ポリゴン島に属するポリゴンを、選択した視点に射影し、その写像である各ポリゴン島の二次元の断片を形成する。後述するように、形成した断片の形や大きさにしたがって、各ポリゴン島のテクスチャの色情報が記述される。断片情報は、写像の外接矩形(具体的には、外接矩形の左上の画素位置と、幅及び高さ)と、断片マップ(外接矩形内の写像と重なる画素のマップ)を保持する。 In S203, the fragment forming unit 103 projects the polygons belonging to each polygon island onto the selected viewpoint, and forms a two-dimensional fragment of each polygon island that is the mapping. As will be described later, the color information of the texture of each polygon island is described according to the shape and size of the formed fragment. The fragment information holds a circumscribed rectangle of the mapping (specifically, the upper left pixel position, width, and height of the circumscribed rectangle) and a fragment map (a map of pixels that overlap with the mapping within the circumscribed rectangle).

S204において、配置部104が、全ての断片を一つのテクスチャマップ上に配置し、配置先の断片の外接矩形の左上の座標と、断片に対となるポリゴン島に含まれるポリゴンの頂点に対応するテクスチャマップ上のテクスチャ座標を算出する。すなわち、配置部104は、全ての断片を二次元マップ上に設定する。詳細は、図4を参照して後述する。 In S204, the placement unit 104 places all the fragments on one texture map, and makes the coordinates of the upper left of the circumscribed rectangle of the fragment to be placed correspond to the vertices of the polygon included in the polygon island paired with the fragment. Calculate texture coordinates on the texture map. That is, the arrangement unit 104 sets all the fragments on the two-dimensional map. Details will be described later with reference to FIG.

S205において、テクスチャ値決定部105は、撮像画像を読込み、選択した視点における断片に重なる画素の画素値をテクスチャマップ上にコピーすることで、各断片に対応するテクスチャマップ上のテクセルの画素値を決定する。なお、テクスチャマップの画素値(例えば、色情報)の決定方法は、これに限らず、選択した視点以外の視点の撮像画像の画素値を混ぜたり、遮蔽判定によって選択した視点の画素値を使わない等のその他の方法でもよい。 In S205, the texture value determination unit 105 reads the captured image and copies the pixel values of pixels that overlap the fragments at the selected viewpoint onto the texture map, thereby determining the pixel values of the texels on the texture map corresponding to each fragment. decide. Note that the method for determining the pixel values (for example, color information) of the texture map is not limited to this, and may include mixing the pixel values of captured images from viewpoints other than the selected viewpoint, or using the pixel values of the viewpoint selected by occlusion determination. Other methods, such as not being used, may also be used.

次に、図5~図7を用いて、上記の処理フローを模式的に説明する。 Next, the above processing flow will be schematically explained using FIGS. 5 to 7.

図5は、三次元空間内の立方体オブジェクトの形状を表すポリゴンメッシュ503と、それを取り囲むように配置された3つの撮像装置の視点500~502を表す。ここでは、簡単のためにポリゴンメッシュ503を構成する複数のポリゴンのうち、ポリゴンF0~F3のテクスチャを生成する処理を説明する。ポリゴンF0~F3は、頂点V0~V5によって構成される。 FIG. 5 shows a polygon mesh 503 representing the shape of a cubic object in three-dimensional space, and viewpoints 500 to 502 of three imaging devices arranged to surround it. Here, for the sake of simplicity, a process for generating textures for polygons F0 to F3 among a plurality of polygons forming the polygon mesh 503 will be described. Polygons F0 to F3 are composed of vertices V0 to V5.

図6は、上述した3つの視点からポリゴンメッシュ503を撮像した画像と、各画像の2次元空間に射影されたポリゴン島の断片を表す。画像600~602は、3つの視点500~502のそれぞれから撮像された画像を示す。この例では、ポリゴンF0とポリゴンF1が同一のグループに分類されて同一のポリゴン島に所属し、視点500から撮像された画像の2次元空間603に射影された断片610を形成している。また、ポリゴンF2とポリゴンF3が同一のグループに分類されて同一のポリゴン島に所属し、視点502から撮像された画像の2次元空間605に射影された断片611を形成している。断片610は、頂点C0~C3に囲まれた領域で表される。頂点C0~C3はそれぞれ、ポリゴンメッシュ503の頂点V0~V4に対応する射影位置(テクスチャ座標)を示す。また、断片611は、頂点C4~C7に囲まれた領域で表される。頂点C4~C7はそれぞれ、ポリゴンメッシュ503の頂点V1~V5に対応する射影位置を示す。なお、視点501から撮像された画像はポリゴンF0~F3に対して選択されなかったため、当該画像の2次元空間604に断片は形成されていない。 FIG. 6 shows images of the polygon mesh 503 captured from the three viewpoints described above, and fragments of the polygon island projected onto the two-dimensional space of each image. Images 600-602 show images taken from each of three viewpoints 500-502. In this example, polygon F0 and polygon F1 are classified into the same group and belong to the same polygon island, and form a fragment 610 projected onto the two-dimensional space 603 of the image captured from the viewpoint 500. Furthermore, polygons F2 and F3 are classified into the same group and belong to the same polygon island, and form a fragment 611 projected onto the two-dimensional space 605 of the image captured from the viewpoint 502. Fragment 610 is represented by a region surrounded by vertices C0 to C3. Vertices C0 to C3 indicate projection positions (texture coordinates) corresponding to vertices V0 to V4 of polygon mesh 503, respectively. Further, the fragment 611 is represented by an area surrounded by vertices C4 to C7. Vertices C4 to C7 indicate projection positions corresponding to vertices V1 to V5 of polygon mesh 503, respectively. Note that since the image captured from the viewpoint 501 was not selected for the polygons F0 to F3, no fragment is formed in the two-dimensional space 604 of the image.

図7は、上述した断片をテクスチャマップ上に配置して生成されたテクスチャ付きポリゴンメッシュデータの例を示す。図7(a)は、ポリゴンメッシュ503の頂点V0~V5の頂点座標を記述したテーブルを示す。図7(B)は、断片610及び611の頂点C0~C7のテクスチャ座標を記述したテーブルを示す。図7(C)は、ポリゴンメッシュ503のポリゴン情報を記述したテーブルを示し、ポリゴンメッシュ503を構成するポリゴンF0~F3の頂点V0~V5と、断片610及び611の頂点C0~C7との対応関係が記述される。図7(D)は、テクスチャマップを画像データとして記述したものである。 FIG. 7 shows an example of textured polygon mesh data generated by arranging the above-described fragments on a texture map. FIG. 7A shows a table that describes the vertex coordinates of vertices V0 to V5 of the polygon mesh 503. FIG. 7B shows a table that describes the texture coordinates of vertices C0 to C7 of fragments 610 and 611. FIG. 7C shows a table that describes polygon information of the polygon mesh 503, and shows the correspondence between vertices V0 to V5 of polygons F0 to F3 constituting the polygon mesh 503 and vertices C0 to C7 of fragments 610 and 611. is described. FIG. 7(D) shows a texture map described as image data.

次に、図3のフローチャートを参照して、ポリゴンメッシュを構成するポリゴンのグループ化処理(S202)の詳細な処理フローを説明する。 Next, a detailed process flow of the grouping process (S202) of polygons forming a polygon mesh will be described with reference to the flowchart of FIG.

まず、S300において、グループ化部102は、ポリゴンメッシュを構成するポリゴン毎に(すなわち、オブジェクトの三次元形状を構成する構成要素毎に)、最も解像度が高い視点を選択する。具体的には、各ポリゴンの写像が画角内にあり、表面が見える視点(つまり、面法線とポリゴンから視点位置への方向ベクトルの内積が正になる視点)のうち、ポリゴンの写像の面積が最大となる視点を選択する。ただし、視点の選択方法はこれに限らず、例えば面に対して最も正対した視点を選択したり、方向と面積の両方を考慮したり、その他画角の中心近くに射影される視点を選択するなど、他の方法を用いてもよい。 First, in S300, the grouping unit 102 selects the viewpoint with the highest resolution for each polygon that makes up the polygon mesh (that is, for each component that makes up the three-dimensional shape of the object). Specifically, among the viewpoints where the mapping of each polygon is within the angle of view and the surface is visible (that is, the viewpoint where the inner product of the surface normal and the direction vector from the polygon to the viewpoint position is positive), Select the viewpoint with the largest area. However, the method of selecting the viewpoint is not limited to this, for example, selecting the viewpoint that is most directly facing the surface, considering both direction and area, or selecting a viewpoint that is projected near the center of the angle of view. Other methods may also be used, such as

S301において、グループ化部102は、ポリゴンメッシュのトポロジを解析し、各ポリゴンについて、同じ視点が選択され、かつ頂点を共有する隣接ポリゴンを求める。 In S301, the grouping unit 102 analyzes the topology of the polygon mesh, and for each polygon, determines adjacent polygons that have the same viewpoint and share a vertex.

その後、後述するS302~S304の処理を、S305の判定処理により全てのポリゴンがいずれかのグループに所属するまで繰り返し、グループ化処理を終了する。 Thereafter, the processes of S302 to S304, which will be described later, are repeated until all polygons belong to one of the groups according to the determination process of S305, and the grouping process ends.

S302において、グループ化部102は、どのグループにも所属していない任意のポリゴンを起点として、同じ視点が選択されかつ直接又は間接的に隣接する、どのグループにも所属していないポリゴンを全て検出し、1つのグループにまとめる。起点となったポリゴンと、検出されたポリゴンが、1つのポリゴングループを構成する。なお、間接的に隣接するポリゴンとは、直接的に隣接するポリゴンに、さらに隣接するポリゴンのことをいう。すなわち、対象のポリゴンの近くにある複数のポリゴンを1つのグループにまとめる。 In S302, the grouping unit 102 uses an arbitrary polygon that does not belong to any group as a starting point to detect all polygons that do not belong to any group and that are directly or indirectly adjacent to each other and that have the same viewpoint selected. and combine them into one group. The starting polygon and the detected polygons constitute one polygon group. Note that an indirectly adjacent polygon refers to a polygon that is further adjacent to a directly adjacent polygon. That is, a plurality of polygons near the target polygon are grouped into one group.

S303において、グループ化部102は、ポリゴングループを、選択した視点に投影し、デプスマップを作成する。 In S303, the grouping unit 102 projects the polygon group to the selected viewpoint and creates a depth map.

S304において、グループ化部102は、デプスマップを用いた遮蔽判定により、その他のポリゴンに隠れたポリゴンをグループから除外し、そのグループの作成を完了する。遮蔽判定処理を行うことで、テクスチャマップのテクセルに複数のポリゴンが重なって対応づくことを防ぐことができる。 In S304, the grouping unit 102 excludes polygons hidden behind other polygons from the group by occlusion determination using the depth map, and completes the creation of the group. By performing the occlusion determination process, it is possible to prevent multiple polygons from overlapping and corresponding to texels of the texture map.

このように、本実施形態では、ポリゴンメッシュを構成するポリゴンがグループ化され、ポリゴン島が形成される。 In this manner, in this embodiment, polygons forming a polygon mesh are grouped to form polygon islands.

続いて、図4のフローチャートを参照して、ポリゴン島の断片配置処理(S204)の詳細な処理フローを説明する。 Next, the detailed process flow of the polygon island fragment placement process (S204) will be described with reference to the flowchart of FIG.

まず、S400において、配置部104は、ポリゴン島の断片を、外接矩形の面積の降順にソートし、テクスチャマップの初期サイズを設定する。テクスチャマップのサイズは、横縦で断片の外接矩形の画素数の最大値を求め、それぞれ最大値以上の2の冪数とする。 First, in S400, the placement unit 104 sorts the polygon island fragments in descending order of the area of the circumscribed rectangle, and sets the initial size of the texture map. The size of the texture map is determined by determining the maximum number of pixels in the circumscribed rectangle of the fragment in horizontal and vertical directions, and each is set to a power of 2 that is greater than or equal to the maximum value.

S401において、配置部104は、設定されたテクスチャマップのサイズに従って、テクスチャマップ上への断片の配置を管理する配置済みマップのデータ領域を確保し、0(未配置を表す)で初期化する。配置済みマップのサイズは、テクスチャマップと同じサイズとする。 In S401, the placement unit 104 secures a data area for a placed map that manages the placement of fragments on the texture map according to the set size of the texture map, and initializes it to 0 (representing unplaced). The size of the placed map is the same as the texture map.

その後、配置部104は、後述するS402~S404の処理を、S405の判定処理により全ての断片をテクスチャマップ上に配置するまで繰り返し、断片配置処理を終了する。 After that, the placement unit 104 repeats the processes of S402 to S404, which will be described later, until all the fragments are placed on the texture map by the determination process of S405, and ends the fragment placement process.

S402において、配置部104は、テクスチャマップ上で断片の配置可能な場所を探索する。具体的には、配置部104は、配置済みマップを左上からラスタ順に走査し、断片マップと配置済みマップとを照らし合わせて、配置済みマップにおける配置済みの画素と断片マップの重なりの有無を判定する。配置済みの画素と断片マップの重なりが無ければ(断片マップに対応する配置済みマップの値が全て0であれば)配置成功とし、走査を終了する。 In S402, the placement unit 104 searches for a location on the texture map where the fragment can be placed. Specifically, the placement unit 104 scans the placed map in raster order from the top left, compares the fragment map with the placed map, and determines whether or not the placed pixels in the placed map overlap with the fragment map. do. If there is no overlap between the placed pixel and the fragment map (if all the values of the placed map corresponding to the fragment map are 0), the placement is determined to be successful, and the scanning ends.

S403において、配置部104は、断片配置の成否を判断し、成功していればS404に進み、失敗していればS407に進む。 In S403, the placement unit 104 determines the success or failure of fragment placement, and if successful, the process proceeds to S404; if unsuccessful, the process proceeds to S407.

S407において、配置部104は、テクスチャマップのサイズを縦横2倍にして、S401に戻り、配置処理をやり直す。 In S407, the placement unit 104 doubles the size of the texture map in the vertical and horizontal directions, returns to S401, and redoes the placement process.

S404において、配置部104は、断片にラスタ位置を登録し、断片マップと重なる配置済みマップの領域の値を1(配置済みを表す)にする。 In S404, the placement unit 104 registers the raster position in the fragment, and sets the value of the area of the placed map that overlaps with the fragment map to 1 (representing placement).

S405において、配置部104は、全ての断片が配置されたかどうか判定し、未処理の断片があればS402に戻り、次の断片を処理する。一方、全ての断片の処理が完了していれば、S408に進む。 In S405, the arrangement unit 104 determines whether all the fragments have been arranged, and if there are any unprocessed fragments, the process returns to S402 and processes the next fragment. On the other hand, if processing of all fragments has been completed, the process advances to S408.

S408において、配置部104は、断片の配置に応じて各ポリゴンにテクスチャマップ上のテクスチャ座標を付与する。具体的には、選択視点におけるテクスチャ座標に、選択視点とテクスチャマップにおける断片の外接矩形の左上の画素位置の差分を足すことで算出する。 In S408, the arrangement unit 104 assigns texture coordinates on the texture map to each polygon according to the arrangement of the fragments. Specifically, it is calculated by adding the difference between the upper left pixel position of the circumscribed rectangle of the fragment in the selected viewpoint and the texture map to the texture coordinates in the selected viewpoint.

図10は、本実施形態における断片配置処理を模式的に説明する図である。ここでは、図10(a)に示す各ポリゴンの断片1001、1002、1003、及び1004を、図10(b)に示すように、テクスチャマップ1100上に配置する過程を説明する。 FIG. 10 is a diagram schematically explaining fragment placement processing in this embodiment. Here, a process of arranging each polygon fragment 1001, 1002, 1003, and 1004 shown in FIG. 10(a) on a texture map 1100 as shown in FIG. 10(b) will be described.

まず、断片1001がテクスチャマップ1100上に配置される。次いで、断片1002が、配置済みの断片1001に重ならないようにテクスチャマップ1100上に配置される。次いで、断片1003が、配置済みの断片1001及び1002に重ならないように配置される。最後に、断片1004が、配置済みの断片1001~1003に重ならないように配置される。断片は、面積の降順にソートされて処理されるので、面積の大きい断片から順番に配置される。また、各断片は、形状及び大きさを維持したまま配置される。 First, fragment 1001 is placed on texture map 1100. Next, the fragment 1002 is placed on the texture map 1100 so as not to overlap the placed fragment 1001. Next, fragment 1003 is arranged so as not to overlap the already arranged fragments 1001 and 1002. Finally, fragment 1004 is arranged so as not to overlap the already arranged fragments 1001 to 1003. The fragments are sorted and processed in descending order of area, so the fragments are arranged in descending order of area. Moreover, each fragment is arranged while maintaining its shape and size.

図10(c)は、断片1004をテクスチャマップ1100上に配置する際の、配置済みマップ1200を用いた重なり判定の過程を示す。図示されたように、断片1004は、配置済みマップ1200を左上からラスタ順に走査し、他の断片が配置済みの領域(黒で塗られた領域)と重ならない領域を探索する。 FIG. 10C shows the process of determining overlap using the placed map 1200 when placing the fragment 1004 on the texture map 1100. As illustrated, the fragment 1004 scans the placed map 1200 in raster order from the top left, searching for an area that does not overlap with the area where other fragments have been placed (areas shaded in black).

このように、本実施形態における断片配置処理では、各ポリゴンの断片をテクスチャマップ上に配置し、各ポリゴンにテクスチャマップ上のテクスチャ座標を付与する。 In this way, in the fragment placement process in this embodiment, each polygon fragment is placed on the texture map, and texture coordinates on the texture map are given to each polygon.

以上説明したように、ポリゴンメッシュと複数視点の撮像画像から、テクスチャ付きのポリゴンメッシュデータが生成される。本実施形態では、同一の視点が選択され、かつ隣接したポリゴンを1つのグループにまとめて断片を形成し、テクスチャマップ上に配置する。また、形成された断片は、形状及び大きさを維持したまま、テクスチャマップ上に配置される。本実施形態によると、描画したオブジェクトの画質が低下しないようにすることができる。また、その際に生成されるテクスチャ画像(すなわち、テクスチャマップ)の画素数を低減することができる。 As described above, textured polygon mesh data is generated from a polygon mesh and captured images from multiple viewpoints. In this embodiment, the same viewpoint is selected and adjacent polygons are grouped together to form fragments, and the fragments are placed on the texture map. Furthermore, the formed fragments are placed on the texture map while maintaining their shape and size. According to this embodiment, it is possible to prevent the image quality of a drawn object from deteriorating. Furthermore, the number of pixels of the texture image (ie, texture map) generated at this time can be reduced.

(ハードウェア構成)
図8を参照して、本実施形態における画像処理装置のハードウェア構成について説明する。画像処理装置800は、CPU801、ROM802、RAM803、補助記憶装置804、表示部805、操作部806、通信I/F807、及びバス808を有する。
(Hardware configuration)
Referring to FIG. 8, the hardware configuration of the image processing apparatus in this embodiment will be described. The image processing device 800 includes a CPU 801 , a ROM 802 , a RAM 803 , an auxiliary storage device 804 , a display section 805 , an operation section 806 , a communication I/F 807 , and a bus 808 .

CPU801は、ROM802やRAM803に格納されているコンピュータプログラムやデータを用いて画像処理装置800の全体を制御することで、図1に示す各機能を実現する。なお、画像処理装置800がCPU801と異なる1又は複数の専用のハードウェアまたはGPU(Graphics Processing Unit)を有し、CPU801による処理の少なくとも一部を専用のハードウェアまたはGPUが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM802は、変更を必要としないプログラムなどを格納する。RAM803は、補助記憶装置804から供給されるプログラムやデータ、及び通信I/F807を介して外部から供給されるデータなどを一時記憶する。補助記憶装置804は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。 The CPU 801 implements each function shown in FIG. 1 by controlling the entire image processing apparatus 800 using computer programs and data stored in the ROM 802 and RAM 803. Note that the image processing apparatus 800 may include one or more dedicated hardware or GPUs (Graphics Processing Units) different from the CPU 801, and at least part of the processing by the CPU 801 may be executed by the dedicated hardware or GPU. Examples of specialized hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). The ROM 802 stores programs that do not require modification. The RAM 803 temporarily stores programs and data supplied from the auxiliary storage device 804, data supplied from the outside via the communication I/F 807, and the like. The auxiliary storage device 804 is composed of, for example, a hard disk drive, and stores various data such as image data and audio data.

表示部805は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像処理装置800を操作するためのGUI(Graphical User Interface)などを表示する。操作部806は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU801に入力する。 The display unit 805 is configured with, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for a user to operate the image processing apparatus 800. The operation unit 806 includes, for example, a keyboard, a mouse, a joystick, a touch panel, etc., and inputs various instructions to the CPU 801 in response to user operations.

通信I/F807は、画像処理装置800の外部の装置との通信に用いられる。例えば、画像処理装置800が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F807に接続される。画像処理装置800が外部の装置と無線通信する機能を有する場合には、通信I/F807はアンテナを備える。バス808は、画像処理装置800の各部をつないで情報を伝達する。 A communication I/F 807 is used for communication with an external device of the image processing apparatus 800. For example, when the image processing apparatus 800 is connected to an external device by wire, a communication cable is connected to the communication I/F 807. When the image processing device 800 has a function of wirelessly communicating with an external device, the communication I/F 807 includes an antenna. A bus 808 connects each part of the image processing apparatus 800 and transmits information.

図8では、表示部805と操作部806が画像処理装置800の内部に存在するものとするが、表示部805と操作部806との少なくとも一方が画像処理装置800の外部に別の装置として存在していてもよい。この場合、CPU801が、表示部805を制御する表示制御部、及び操作部806を制御する操作制御部として動作してもよい。 In FIG. 8, it is assumed that the display section 805 and the operation section 806 exist inside the image processing apparatus 800, but at least one of the display section 805 and the operation section 806 exists outside the image processing apparatus 800 as a separate device. You may do so. In this case, the CPU 801 may operate as a display control unit that controls the display unit 805 and an operation control unit that controls the operation unit 806.

<第二の実施形態>
第一の実施形態では、ポリゴンメッシュの全てのポリゴンの断片を、テクスチャマップ上で重ならないように配置する方法を説明した。しかし、ポリゴンメッシュのテクスチャには、繰り返しパタンや、ほとんど変化の無い領域が複数存在することもある。そこで、本実施形態では、テクスチャマップ上でのポリゴンの断片の重なりを許し、複数の断片に同一のテクスチャ領域を利用することで、テクスチャ画像の画素数を更に低減する方法を説明する。
<Second embodiment>
In the first embodiment, a method has been described in which all polygon fragments of a polygon mesh are arranged so that they do not overlap on the texture map. However, polygon mesh textures may have repeated patterns or multiple areas with little change. Therefore, in this embodiment, a method will be described in which the number of pixels of a texture image is further reduced by allowing polygon fragments to overlap on a texture map and using the same texture area for a plurality of fragments.

本実施形態は、第一の実施形態と比較して、配置部104とテクスチャ値決定部105の処理が異なる。本実施形態では、配置部104が、断片の配置と共に、テクスチャマップの画素値の決定を行う。 This embodiment differs from the first embodiment in the processing of the placement unit 104 and texture value determination unit 105. In this embodiment, the arrangement unit 104 arranges the fragments and determines the pixel values of the texture map.

図9は、本実施形態における断片配置処理の詳細な処理フローを示す。ここでは、図4に示した処理フローと異なる部分を主に説明する。図9のS900、S903、S905、S907、及びS908の処理は、図4のS400、S403、S405、S407、及びS408の処理と同様であるため、説明は省略する。 FIG. 9 shows a detailed processing flow of fragment placement processing in this embodiment. Here, parts that are different from the processing flow shown in FIG. 4 will be mainly explained. The processes in S900, S903, S905, S907, and S908 in FIG. 9 are the same as the processes in S400, S403, S405, S407, and S408 in FIG. 4, so the description thereof will be omitted.

本実施形態では、S901において、配置部104は、テクスチャマップと配置済みマップの両方のデータ領域を確保し、初期化を行う。 In this embodiment, in S901, the placement unit 104 secures data areas for both the texture map and the placed map, and initializes them.

S902において、配置部104は、図4のS402と同様に断片の配置可能な場所を探索するが、本実施形態では、断片が配置可能かどうかの判定方法が異なる。ここでは、断片マップに重なる視点画像の画素値とテクスチャマップ上の画素値の比較を行う。画素値の差が所定の閾値より小さい場合、配置済みマップの値が1(配置済みを表す)の領域があったとしても、断片はその領域に配置可能であると判定する。画素値の差は、断片マップにおける画素値の二乗差分の平均を用いる。配置済みマップの値が0(未配置を表す)の画素は、画素値の差の計算対象から除外する。なお、画素値の差はこれに限らず、例えば差の絶対値の最大値を用いてもよいし、差の絶対値の和を用いてもよい。 In S902, the placement unit 104 searches for a place where a fragment can be placed, similar to S402 in FIG. 4, but in this embodiment, the method for determining whether a fragment can be placed is different. Here, the pixel values of the viewpoint image overlapping the fragment map and the pixel values on the texture map are compared. If the difference in pixel values is smaller than a predetermined threshold, it is determined that the fragment can be placed in that area even if there is an area where the value of the placed map is 1 (indicating placed). As the difference in pixel values, the average of squared differences in pixel values in the fragment map is used. Pixels whose value in the placed map is 0 (indicating that they are not placed) are excluded from the calculation of the pixel value difference. Note that the difference in pixel values is not limited to this, and for example, the maximum value of the absolute values of the differences may be used, or the sum of the absolute values of the differences may be used.

S904において、配置部104は、断片にテクスチャマップ上のラスタ位置を登録する。次いで、配置部104は、配置済みマップの値が0(未配置を表す)の画素に対して、画素値の決定を行う。最後に、配置部104は、断片マップと重なる配置済みマップの領域の値を1(配置済みを表す)に設定する。このように、本実施形態では、二次元マップ上で断片が設定済みの領域において、画素値の差が所定の閾値より小さい場合は、新たに設定する断片を当該設定済みの領域に重ねて設定することができる。 In S904, the arrangement unit 104 registers the raster position on the texture map in the fragment. Next, the placement unit 104 determines pixel values for pixels whose value in the placed map is 0 (indicating that the pixel is not placed). Finally, the placement unit 104 sets the value of the area of the placed map that overlaps the fragment map to 1 (representing placement). In this way, in this embodiment, if the difference in pixel values is smaller than a predetermined threshold in an area where fragments have already been set on the two-dimensional map, a newly set fragment is set overlapping the area where fragments have already been set. can do.

図11は、本実施形態における断片配置処理を模式的に説明する図である。ここでは、図10と同様に、図11(a)に示す各ポリゴンの断片1001、1002、1003、及び1004を、図11(b)に示すように、テクスチャマップ1100上に配置する過程を説明する。なお、断片1001と断片1004は、類似のテクスチャを有する。 FIG. 11 is a diagram schematically explaining fragment placement processing in this embodiment. Here, similarly to FIG. 10, a process of arranging each polygon fragment 1001, 1002, 1003, and 1004 shown in FIG. 11(a) on a texture map 1100 as shown in FIG. 11(b) will be explained. do. Note that the fragment 1001 and the fragment 1004 have similar textures.

断片1001~1003は、第一の実施形態と同様に、順次、配置済みの断片に重ならないようにテクスチャマップ1100上に配置される。一方、断片1004は、断片1001に類似のテクスチャを有するため、テクスチャマップ1100上で断片1001と重なるように配置される。 Similar to the first embodiment, the fragments 1001 to 1003 are sequentially arranged on the texture map 1100 so as not to overlap the already arranged fragments. On the other hand, since fragment 1004 has a similar texture to fragment 1001, it is arranged so as to overlap fragment 1001 on texture map 1100.

図11(c)は、断片1004をテクスチャマップ1100上に配置する際の、配置済みマップ1200を用いた重なり判定の過程を示す。図示されたように、断片1004は、配置済みマップ1200を左上からラスタ順に走査し、他の断片が配置済みの領域(黒で塗られた領域)であっても、画素値の差が所定の閾値より小さい場合、配置可能であると判定する。 FIG. 11C shows the process of determining overlap using the placed map 1200 when placing the fragment 1004 on the texture map 1100. As shown in the figure, the fragment 1004 scans the placed map 1200 in raster order from the upper left, and even if the other fragments are placed in an area (area painted in black), the difference in pixel values is If it is smaller than the threshold, it is determined that placement is possible.

以上説明したように、本実施形態によると、テクスチャの類似度の高いポリゴン島間で、テクスチャマップの同じ領域を共有することができ、第一の実施形態と比較してテクスチャ画像の画素数をさらに小さくすることができる。本構成は、テクスチャを形成する対象に地面が含まれる場合など、面積が大きく単純なテクスチャを持つオブジェクトに対して有効に作用する。 As explained above, according to this embodiment, the same region of the texture map can be shared between polygon islands with high texture similarity, and the number of pixels of the texture image can be further reduced compared to the first embodiment. Can be made smaller. This configuration works effectively for objects with large areas and simple textures, such as when the ground is included in the object forming the texture.

ここまで、オブジェクトの三次元形状のデータ表現の例として、ポリゴンを構成要素とするポリゴンメッシュを用いたが、三次元形状のデータ表現はこれに限定されない。例えば、頂点を構成要素とする点群データや、ボクセルを構成要素とするボリュームデータ等のオブジェクトの表面の形を表現できるものであれば適用可能である。 Up to this point, a polygon mesh having polygons as constituent elements has been used as an example of the data representation of the three-dimensional shape of the object, but the data representation of the three-dimensional shape is not limited to this. For example, it is applicable to any data that can express the shape of the surface of an object, such as point cloud data whose constituent elements are vertices or volume data whose constituent elements are voxels.

また、テクスチャマップには、法線情報を記述して異方性テクスチャを表現したり、深度情報を記述してテクスチャマップに三次元情報を持たせたり、高さ情報を記述してオブジェクト表面に凹凸を付与したりするなど、その他の情報を記述してもよい。 In addition, in a texture map, normal information can be written to express an anisotropic texture, depth information can be written to give the texture map three-dimensional information, and height information can be written to express an anisotropic texture on the object surface. Other information such as adding unevenness may also be written.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 視点設定部
101 モデル取得部
102 グループ化部
103 断片形成部
104 配置部
105 テクスチャ値決定部
100 viewpoint setting section 101 model acquisition section 102 grouping section 103 fragment forming section 104 arrangement section 105 texture value determining section

Claims (14)

オブジェクトの三次元形状データに対応する、少なくとも前記オブジェクトの色を表すテクスチャマップを生成する画像処理装置であって、
前記三次元形状データを構成する構成要素に対して、前記オブジェクトに対する複数の視点の中から1つの視点を選択し、同じ視点が選択されかつ当該構成要素の直接的および間接的に隣接する複数の構成要素を1つのグループとしてまとめ、前記複数の構成要素をグループに分類するグループ化手段と、
前記グループに属する複数の構成要素を前記選択された視点へ射影した写像を、前記グループに対応する領域として二次元マップ上に設定する設定手段と、
選択された視点の画像から、前記領域に応じた画素値を決定する決定手段と、
決定された前記領域に応じた画素値に基づいてテクスチャマップを生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing device that generates a texture map corresponding to three-dimensional shape data of an object and representing at least a color of the object,
For the component constituting the three-dimensional shape data, one viewpoint is selected from among a plurality of viewpoints for the object, and the same viewpoint is selected and a plurality of directly and indirectly adjacent viewpoints of the component are selected. grouping means for grouping the constituent elements into one group and classifying the plurality of constituent elements into groups;
a setting means for setting a mapping obtained by projecting a plurality of components belonging to the group onto the selected viewpoint on a two-dimensional map as an area corresponding to the group;
determining means for determining a pixel value according to the area from the image of the selected viewpoint;
generation means for generating a texture map based on pixel values corresponding to the determined area;
An image processing device comprising:
前記グループ化手段は、前記複数の視点からの画像における前記構成要素の解像度に応じて、前記1つの視点を選択することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the grouping means selects the one viewpoint according to resolutions of the constituent elements in images from the plurality of viewpoints. 前記設定手段は、前記領域を前記領域の面積の順に基づいて、互いに重ならないようにして、前記二次元マップ上に設定することを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the setting means sets the areas on the two-dimensional map based on the order of area of the areas so that they do not overlap with each other. 前記設定手段は、前記領域を前記領域の面積の順に基づいて、前記二次元マップ上に設定し、前記領域に対応する選択された視点の画像の画素値と前記テクスチャマップの画素値との差が所定の閾値より小さい場合は、新たに設定する領域を設定済みの領域に重ねて設定することを特徴とする請求項1または2に記載の画像処理装置。 The setting means sets the regions on the two-dimensional map based on the order of the area of the regions, and calculates the difference between the pixel value of the image of the selected viewpoint corresponding to the region and the pixel value of the texture map. 3. The image processing apparatus according to claim 1, wherein if the area is smaller than a predetermined threshold value, the newly set area is set to overlap the already set area. 前記グループ化手段は、前記1つのグループに分類された前記複数の構成要素のうち、他の構成要素に遮蔽された構成要素を該グループから除外することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 4, wherein the grouping means excludes from the group a component that is occluded by another component among the plurality of components classified into the one group. The image processing device according to item 1. 前記オブジェクトの前記三次元形状データは、ポリゴンを前記構成要素とするポリゴンメッシュで表現されることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, wherein the three-dimensional shape data of the object is expressed as a polygon mesh whose constituent elements are polygons. 前記オブジェクトの前記三次元形状データは、頂点を前記構成要素とする点群で表現されることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the three-dimensional shape data of the object is expressed by a point group having vertices as the constituent elements. 前記オブジェクトの前記三次元形状データは、ボクセルを前記構成要素とするボリュームデータで表現されることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 6. The image processing apparatus according to claim 1, wherein the three-dimensional shape data of the object is expressed as volume data having voxels as the constituent elements. 前記テクスチャマップは、前記選択された視点に対する深度情報を含むことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the texture map includes depth information for the selected viewpoint. 前記テクスチャマップは、前記オブジェクトの表面の凹凸を表す高さ情報を含むことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the texture map includes height information representing unevenness on the surface of the object. 前記テクスチャマップは、異方性テクスチャを表現するための法線情報を含むことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the texture map includes normal information for expressing an anisotropic texture. 前記設定手段は、前記グループに対応する領域の総面積に応じた二次元マップを生成することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 12. The image processing apparatus according to claim 1, wherein the setting means generates a two-dimensional map according to a total area of regions corresponding to the group. コンピュータを請求項1乃至12のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 12. オブジェクトの三次元形状データに対応する、少なくとも前記オブジェクトの色を表すテクスチャマップを生成する画像処理方法であって、
前記三次元形状データを構成する構成要素に対して、前記オブジェクトに対する複数の視点の中から1つの視点を選択し、同じ視点が選択されかつ当該構成要素の直接的および間接的に隣接する複数の構成要素を1つのグループとしてまとめ、前記複数の構成要素をグループに分類するグループ化ステップと、
前記グループに属する複数の構成要素を前記選択された視点へ射影した写像を、前記グループに対応する領域として二次元マップ上に設定する設定ステップと、
選択された視点の画像から、前記領域に応じた画素値を決定する決定ステップと、
決定された前記領域に応じた画素値に基づいてテクスチャマップを生成する生成ステップと、
を含むことを特徴とする画像処理装置。
An image processing method for generating a texture map corresponding to three-dimensional shape data of an object and representing at least a color of the object, the method comprising:
For the component constituting the three-dimensional shape data, one viewpoint is selected from among a plurality of viewpoints for the object, and the same viewpoint is selected and a plurality of directly and indirectly adjacent viewpoints of the component are selected. a grouping step of grouping the components into one group and classifying the plurality of components into groups;
a setting step of setting a mapping obtained by projecting a plurality of components belonging to the group onto the selected viewpoint on a two-dimensional map as an area corresponding to the group;
a determining step of determining a pixel value according to the area from the image of the selected viewpoint;
a generation step of generating a texture map based on pixel values corresponding to the determined area;
An image processing device comprising:
JP2019190258A 2019-10-17 2019-10-17 Image processing device, image processing method, and program Active JP7455546B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019190258A JP7455546B2 (en) 2019-10-17 2019-10-17 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190258A JP7455546B2 (en) 2019-10-17 2019-10-17 Image processing device, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2021064334A JP2021064334A (en) 2021-04-22
JP2021064334A5 JP2021064334A5 (en) 2022-10-26
JP7455546B2 true JP7455546B2 (en) 2024-03-26

Family

ID=75486388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190258A Active JP7455546B2 (en) 2019-10-17 2019-10-17 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7455546B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229171A (en) 2013-05-24 2014-12-08 国立大学法人 千葉大学 Creation method of texture map including shape information of object
JP2019046378A (en) 2017-09-06 2019-03-22 キヤノン株式会社 Image processing device, image processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229171A (en) 2013-05-24 2014-12-08 国立大学法人 千葉大学 Creation method of texture map including shape information of object
JP2019046378A (en) 2017-09-06 2019-03-22 キヤノン株式会社 Image processing device, image processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐藤 寛幸 ほか3名,自由なカメラワークによって撮影された多視点画像系列を用いるテクスチャマッピング手法,電子情報通信学会論文誌 ,2002年05月01日,第J85-D-II巻, 第5号,p.907~917

Also Published As

Publication number Publication date
JP2021064334A (en) 2021-04-22

Similar Documents

Publication Publication Date Title
KR101923562B1 (en) Method for efficient re-rendering objects to vary viewports and under varying rendering and rasterization parameters
KR102101626B1 (en) Gradient adjustment for texture mapping for multiple render targets with resolution that varies by screen location
US8059119B2 (en) Method for detecting border tiles or border pixels of a primitive for tile-based rendering
US7884825B2 (en) Drawing method, image generating device, and electronic information apparatus
JP5866177B2 (en) Image processing apparatus and image processing method
WO2012037157A2 (en) System and method for displaying data having spatial coordinates
US10403005B2 (en) Using signed distance fields in multicolored vector approximation
KR20120104071A (en) 3d image visual effect processing method
KR101507776B1 (en) methof for rendering outline in three dimesion map
JP3892016B2 (en) Image processing apparatus and image processing method
CN114375464A (en) Ray tracing dynamic cells in virtual space using bounding volume representations
KR101769013B1 (en) Visualization method for 3-dimension model using 3-dimension object model merging based on space tile
CN111937039A (en) Method and apparatus for facilitating 3D object visualization and manipulation across multiple devices
US10347034B2 (en) Out-of-core point rendering with dynamic shapes
CN112734900A (en) Baking method, baking device, baking equipment and computer-readable storage medium of shadow map
JP7455546B2 (en) Image processing device, image processing method, and program
US20040012602A1 (en) System and method for image-based rendering with object proxies
US20230206567A1 (en) Geometry-aware augmented reality effects with real-time depth map
EP4386685A1 (en) Method for 3d visualization of sensor data
JP4042377B2 (en) Image processing apparatus, image processing method, and computer program
CN117557711B (en) Method, device, computer equipment and storage medium for determining visual field
KR100914915B1 (en) A low cost view-volume clipping method and an apparatus therefor
AU2023274149A1 (en) Method for 3D visualization of sensor data
WO2012114386A1 (en) Image vectorization device, image vectorization method, and image vectorization program
JP6106293B2 (en) Image processing apparatus, image processing system, and image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R151 Written notification of patent or utility model registration

Ref document number: 7455546

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151