JP6025615B2 - Image drawing device - Google Patents

Image drawing device Download PDF

Info

Publication number
JP6025615B2
JP6025615B2 JP2013041880A JP2013041880A JP6025615B2 JP 6025615 B2 JP6025615 B2 JP 6025615B2 JP 2013041880 A JP2013041880 A JP 2013041880A JP 2013041880 A JP2013041880 A JP 2013041880A JP 6025615 B2 JP6025615 B2 JP 6025615B2
Authority
JP
Japan
Prior art keywords
viewpoint
model
contour
unit
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013041880A
Other languages
Japanese (ja)
Other versions
JP2014170388A (en
Inventor
智史 櫻井
智史 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013041880A priority Critical patent/JP6025615B2/en
Publication of JP2014170388A publication Critical patent/JP2014170388A/en
Application granted granted Critical
Publication of JP6025615B2 publication Critical patent/JP6025615B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ポリゴンモデルを用いて2次元または3次元形状を表現する画像描画装置に関するものである。   The present invention relates to an image drawing apparatus that expresses a two-dimensional or three-dimensional shape using a polygon model.

コンピュータグラフィックスにおいて、2次元または3次元形状を表現する方法として、ポリゴンモデルが広く用いられている。ポリゴンモデルは、主に3角形を単位形状とし、その組み合わせで形状を表現する。   In computer graphics, a polygon model is widely used as a method of expressing a two-dimensional or three-dimensional shape. In the polygon model, a triangle is mainly used as a unit shape, and the shape is expressed by a combination thereof.

カーナビなどで使用される3次元都市モデルは、3角形などのポリゴンで表現されることが多いが、各建物を数百ポリゴン以上で表現した場合、広範囲を俯瞰した際に視界内に含まれるポリゴン数は数十万以上と非常に多くなる。一方で、ポリゴンモデルの描画時間は、描画するポリゴン数に依存するため、モデルが大量のポリゴンから構成される場合、描画時間は長くなる。
このような場合、描画時間を短縮するために、LOD(Level Of Detail)技術が一般的に用いられている。LOD技術とは、描画するポリゴン数を少なく保つことで、描画速度を向上させる技術である。例えば、あらかじめ各モデルを簡略化したモデルを用意し、視点とモデルの位置関係などに応じて、重要度の低いモデルを簡略化したモデルに置き換えることなどで実現される。
3D city models used in car navigation systems are often represented by polygons such as triangles, but if each building is represented by several hundred polygons or more, the polygons that are included in the field of view when viewing a wide area The number is very large, hundreds of thousands. On the other hand, since the drawing time of the polygon model depends on the number of polygons to be drawn, when the model is composed of a large number of polygons, the drawing time becomes long.
In such a case, LOD (Level Of Detail) technology is generally used to shorten the drawing time. The LOD technique is a technique for improving the drawing speed by keeping the number of polygons to be drawn small. For example, it is realized by preparing a simplified model of each model in advance and replacing a less important model with a simplified model according to the positional relationship between the viewpoint and the model.

3次元都市モデルの描画に対してLOD技術を適用する場合、3次元都市モデルに含まれる建物の数は非常に多いため、それぞれの建物を簡略化したモデルを、手動で作成することは困難であり、自動で生成する必要がある。例えば、非特許文献1では、簡略化されたモデルを生成するため、まず、各建物を鉛直方向と水平2方向の計3方向から平行投影で見たときのシルエットの輪郭を直線近似する。そして、水平方向の輪郭を用いて、鉛直方向の輪郭を分割しつつ高さ情報を与える。さらに、分割された各領域を柱体としてポリゴン化することで、簡略化されたモデルを生成する。また、シルエットの解像度や、上記直線近似の最大誤差を制御することで、異なる詳細度のモデルを容易に生成できる。   When the LOD technology is applied to the drawing of the 3D city model, since the number of buildings included in the 3D city model is very large, it is difficult to manually create a model in which each building is simplified. Yes, it must be generated automatically. For example, in Non-Patent Document 1, in order to generate a simplified model, first, the outline of a silhouette when a building is viewed in parallel projection from a total of three directions, ie, a vertical direction and two horizontal directions, is linearly approximated. Then, using the horizontal contour, height information is given while dividing the vertical contour. Furthermore, a simplified model is generated by polygonizing each divided area as a column. In addition, by controlling the resolution of the silhouette and the maximum error of the linear approximation, it is possible to easily generate models with different levels of detail.

Tsai,F.,Lin,W.J., and Chen,L.C., Multi− Resolusion representation of digital terrain and building models.Advances in Geo−Spacial Information Science,2012.Tsai, F.A. Lin, W .; J. et al. , And Chen, L .; C. , Multi-Resolution representation of digital terrain and building models. Advances in Geo-Spacial Information Science, 2012.

しかしながら、非特許文献1では、建物の向きや形に関係なく決められた3方向からシルエットを生成するため、特に建物の壁面が水平方向に対して斜めである場合、簡略化されたモデルの形状が元の建物形状と大きく異なってしまう。また、鉛直方向の輪郭を不必要に多く分割してしまうことがあることや、接する柱体同士がそれぞれ壁面を持つことから、不要なポリゴンが含まれてしまう。さらには、生成したモデルに対して使用するテクスチャを生成する手段について述べられていない。   However, in Non-Patent Document 1, since a silhouette is generated from three directions determined regardless of the direction and shape of the building, a simplified model shape is obtained particularly when the wall surface of the building is oblique to the horizontal direction. Is very different from the original building shape. Further, unnecessary polygons may be included because the vertical outline may be divided unnecessarily many times, and the columns that contact each other have wall surfaces. Furthermore, no means for generating a texture to be used for the generated model is described.

この発明は、上記のような課題を解決するためになされたもので、従来技術を用いて生成したモデルが持つポリゴン数と同じポリゴン数で構成されるモデルを生成した場合に、従来技術を用いたものよりも元のモデル形状により近いモデルを得ること、また、生成したモデルに適用するテクスチャを自動生成すること、さらにそれらモデルとテクスチャを用いて3次元建物群を高速に描画することができる画像描画装置を得ることを目的とする。   The present invention has been made to solve the above-described problems. When a model configured with the same number of polygons as that of a model generated using the conventional technique is generated, the conventional technique is used. It is possible to obtain a model closer to the original model shape than the original model, to automatically generate a texture to be applied to the generated model, and to draw a three-dimensional building group at high speed using those models and textures An object is to obtain an image drawing apparatus.

この発明に係る画像描画装置は、テクスチャを持った建物モデル群データを入力とし、各建物のオリジナルモデルに対して3つ以上の視点を決定する視点決定部と、視点決定部で決定された各視点を用いてオリジナルモデルを投影し、シルエットを生成するモデル投影部と、モデル投影部で生成されたシルエットの輪郭を線分の集合として生成する輪郭生成部と、輪郭生成部で生成された輪郭のうち1つを、他の輪郭を用いて分割し、高さを与える輪郭分割部と、輪郭分割部で分割された輪郭の一部を結合する輪郭結合部と、輪郭結合部で結合処理された輪郭から3次元ポリゴンモデルを生成する輪郭ポリゴン化部と、輪郭ポリゴン化部で生成された3次元ポリゴンモデルから、描画に不必要なポリゴンを削除するポリゴン削減部と、ポリゴン削減部で描画に不必要なポリゴンが削除された3次元ポリゴンモデルに適用するテクスチャを生成し、オリジナルモデル及びテクスチャ、並びに、ポリゴン削減部で描画に不必要なポリゴンが削除された3次元ポリゴンモデル及び生成したテクスチャを記憶部に記録するテクスチャ生成部と、記憶部に記録されたオリジナルモデルと、3次元ポリゴンモデルと、それぞれに対応するテクスチャとを読み出し、入力情報に応じて描画するオリジナルモデルもしくは3次元ポリゴンモデルを決定する描画対象決定部と、描画対象決定部で決定されたオリジナルモデルもしくは3次元ポリゴンモデルと、それに対応するテクスチャとで画像を描画する描画部とを備えるものである。   The image drawing apparatus according to the present invention receives building model group data having a texture and inputs a viewpoint determining unit that determines three or more viewpoints with respect to the original model of each building, and each determined by the viewpoint determining unit A model projection unit that projects an original model using a viewpoint to generate a silhouette, a contour generation unit that generates a contour outline of the silhouette generated by the model projection unit as a set of line segments, and a contour generated by the contour generation unit One of the two is divided using another contour, and a contour dividing unit that gives height, a contour combining unit that combines a part of the contour divided by the contour dividing unit, and a combination processing by the contour combining unit A contour polygon generating unit for generating a three-dimensional polygon model from the contour, a polygon reducing unit for deleting polygons unnecessary for drawing from the three-dimensional polygon model generated by the contour polygon converting unit, Generate a texture to be applied to the 3D polygon model from which polygons unnecessary for drawing are deleted by the reduction unit, and the original model and texture, as well as the 3D polygon model from which polygons unnecessary for drawing by the polygon reduction unit are deleted A texture generation unit that records the generated texture in the storage unit, an original model that is recorded in the storage unit, a three-dimensional polygon model, and a texture corresponding to each of the original model that is drawn according to input information or The image processing apparatus includes a drawing target determining unit that determines a three-dimensional polygon model, and a drawing unit that draws an image using the original model or the three-dimensional polygon model determined by the drawing target determining unit, and a texture corresponding to the original model.

この発明によれば、従来技術を用いて生成したモデルが持つポリゴン数と同じポリゴン数で構成されるモデルを生成した場合に、従来技術を用いたものよりも元のモデル形状により近いモデルを得ること、また、生成したモデルに適用するテクスチャを自動生成すること、さらにそれらモデルとテクスチャを用いて3次元建物群を高速に描画することができる。   According to the present invention, when a model composed of the same number of polygons as a model generated using the conventional technique is generated, a model closer to the original model shape than that using the conventional technique is obtained. In addition, it is possible to automatically generate a texture to be applied to the generated model, and to draw a three-dimensional building group at high speed using the model and the texture.

この発明の実施の形態1に係る画像描画装置を示す構成図である。It is a block diagram which shows the image drawing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る画像描画装置で簡略化するモデルの例を示す図である。It is a figure which shows the example of the model simplified with the image drawing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る画像描画装置の視点決定部で決定される視点を示す図である。It is a figure which shows the viewpoint determined by the viewpoint determination part of the image drawing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る画像描画装置のモデル投影部が生成するシルエット画像および輪郭生成部が生成する輪郭を示す図である。It is a figure which shows the outline which the silhouette image which the model projection part of the image drawing apparatus concerning Embodiment 1 of this invention produces | generates, and the outline production | generation part produce | generate. この発明の実施の形態1に係る画像描画装置の輪郭分割部が主輪郭を分割する様子を示す図である。It is a figure which shows a mode that the outline division part of the image drawing apparatus which concerns on Embodiment 1 of this invention divides | segments a main outline. この発明の実施の形態1に係る画像描画装置の輪郭結合部において輪郭の結合条件を示す図である。It is a figure which shows the coupling | bonding conditions of an outline in the outline coupling | bond part of the image drawing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る画像描画装置の輪郭結合部において主輪郭のうち結合可能なものを全て結合した状態を示す図である。It is a figure which shows the state which couple | bonded all what can be combined among the main outlines in the outline coupling | bond part of the image drawing apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る画像描画装置のテクスチャ生成部が生成するテクスチャ画像を示す図である。It is a figure which shows the texture image which the texture generation part of the image drawing apparatus which concerns on Embodiment 1 of this invention produces | generates. この発明の実施の形態1に係る画像描画装置により生成される簡易化されたモデルを示す図である。It is a figure which shows the simplified model produced | generated by the image drawing apparatus which concerns on Embodiment 1 of this invention.

実施の形態1.
図1は、この発明の実施の形態1に係る画像描画装置の構成を示す図である。画像描画装置は、前処理部1、実行時処理部2、記憶装置3、画像出力装置4を備える。前処理部1は、テクスチャマッピングされた建物モデル群データを入力とし、複数の詳細度で簡略化された建物モデル群データを作成する。また、該入力された建物モデル群データと該複数の詳細度で簡略化された建物モデル群データとを記憶装置3に出力する。記憶装置3は、前処理部1から出力されたこれら建物モデル群データを記憶する。実行時処理部2は、記憶装置3に記憶されている建物モデル群データを読み出し、例えば縮尺などで数値化されて示される視点位置などの入力情報に応じて、適切な詳細度の建物モデル群を描画して画像出力装置4に出力する。画像出力装置4は、実行時処理部2から出力された建物モデル群をモニターなどの画像表示装置(図示せず)に出力する。なお、前処理部1に入力される建物モデル群データとして、3次元の建物モデル群データ、特に例えばテクスチャを持ったポリゴンで構成された3次元建物モデル群データなどが考えられる。
Embodiment 1 FIG.
FIG. 1 is a diagram showing a configuration of an image drawing apparatus according to Embodiment 1 of the present invention. The image drawing apparatus includes a preprocessing unit 1, a runtime processing unit 2, a storage device 3, and an image output device 4. The pre-processing unit 1 receives building model group data subjected to texture mapping, and creates building model group data simplified with a plurality of details. Further, the input building model group data and the building model group data simplified with the plurality of details are output to the storage device 3. The storage device 3 stores the building model group data output from the preprocessing unit 1. The execution time processing unit 2 reads out the building model group data stored in the storage device 3 and, for example, the building model group having an appropriate level of detail according to input information such as a viewpoint position that is expressed in a scale or the like. Is output to the image output device 4. The image output device 4 outputs the building model group output from the runtime processing unit 2 to an image display device (not shown) such as a monitor. Note that the building model group data input to the preprocessing unit 1 may be three-dimensional building model group data, particularly, for example, three-dimensional building model group data composed of polygons having a texture.

前処理部1は、視点決定部11、モデル投影部12、輪郭生成部13、輪郭分割部14、輪郭結合部15、輪郭ポリゴン化部16、ポリゴン削減部17、テクスチャ生成部18を備える。
視点決定部11は、データとして入力された建物モデル群内の各モデルに対して、2つ以上の視点を決定する。モデル投影部12は、視点決定部11で決定した視点を用いて各モデルを平行投影で描画することで、シルエット画像を生成する。輪郭生成部13は、モデル投影部12が生成したシルエット画像に含まれるシルエットの輪郭を線分の集合として生成する。輪郭分割部14は、輪郭生成部13が生成した輪郭のうち1つを、他の輪郭を用いて分割し、高さ情報を付与する。輪郭結合部15は、輪郭分割部14が分割した輪郭の内、条件に応じて一部を結合する。輪郭ポリゴン化部16は、輪郭結合部15が結合処理した輪郭から3次元ポリゴンモデルを生成する。ポリゴン削減部17は、輪郭ポリゴン化部16が生成した3次元ポリゴンモデルから、描画に不必要なポリゴンを削除する。テクスチャ生成部18は、テクスチャ画像のデータを生成し、視点決定部11に入力された建物モデル群データとテクスチャ、ポリゴン削減部17が削減処理した3次元ポリゴンモデルのデータと共に記憶装置3に出力する。
The preprocessing unit 1 includes a viewpoint determination unit 11, a model projection unit 12, a contour generation unit 13, a contour division unit 14, a contour combination unit 15, a contour polygonization unit 16, a polygon reduction unit 17, and a texture generation unit 18.
The viewpoint determination unit 11 determines two or more viewpoints for each model in the building model group input as data. The model projection unit 12 generates a silhouette image by drawing each model by parallel projection using the viewpoint determined by the viewpoint determination unit 11. The contour generation unit 13 generates the contour of the silhouette included in the silhouette image generated by the model projection unit 12 as a set of line segments. The contour dividing unit 14 divides one of the contours generated by the contour generating unit 13 using another contour, and gives height information. The contour combining unit 15 combines a part of the contours divided by the contour dividing unit 14 according to conditions. The contour polygonizing unit 16 generates a three-dimensional polygon model from the contours processed by the contour combining unit 15. The polygon reduction unit 17 deletes polygons unnecessary for drawing from the three-dimensional polygon model generated by the contour polygon conversion unit 16. The texture generation unit 18 generates texture image data, and outputs it to the storage device 3 together with the building model group data and texture input to the viewpoint determination unit 11 and the data of the 3D polygon model reduced by the polygon reduction unit 17. .

また、実行時処理部2は、描画対象決定部21、描画部22を備える。描画対象決定部21は、記憶装置3に記憶されている建物モデル群データを読み出し、視点位置などの入力情報に応じて描画する建物モデル群を決定する。描画部22は、描画対象決定部21が決定した建物モデル群を描画して、画像出力装置4に出力する。   The runtime processing unit 2 includes a drawing target determining unit 21 and a drawing unit 22. The drawing target determination unit 21 reads out building model group data stored in the storage device 3 and determines a building model group to be drawn according to input information such as a viewpoint position. The drawing unit 22 draws the building model group determined by the drawing target determination unit 21 and outputs it to the image output device 4.

次に、この発明の実施の形態1に係る画像描画装置の動作について説明する。
図2、3を用いて、前処理部1を構成する視点決定部11の動作について説明する。図2に、簡略化するモデルの一例を示す。図2に示されるモデルは、視点決定部11に入力される建物モデル群データをそのまま表示装置にて表示した場合の詳細度のモデルであり、簡略化前のモデル、つまりオリジナルモデルである。
視点決定部11では、データとして入力された建物モデル群内の各モデルに対して、モデルのシルエットを生成するために使用する2つ以上の視点を決定する。以降、決定する視点のうち1つを主視点、それ以外をサブ視点と呼ぶこととする。主視点は、モデルを見下ろすように決定され、サブ視点は主視点以外の視点として1つ以上決定される。
Next, the operation of the image drawing apparatus according to Embodiment 1 of the present invention will be described.
The operation of the viewpoint determination unit 11 constituting the preprocessing unit 1 will be described with reference to FIGS. FIG. 2 shows an example of a model to be simplified. The model shown in FIG. 2 is a model of detail when the building model group data input to the viewpoint determination unit 11 is displayed as it is on the display device, and is a model before simplification, that is, an original model.
The viewpoint determination unit 11 determines two or more viewpoints to be used for generating a model silhouette for each model in the building model group input as data. Hereinafter, one of the determined viewpoints is called a main viewpoint, and the other viewpoints are called sub-viewpoints. The main viewpoint is determined so as to look down on the model, and one or more sub viewpoints are determined as viewpoints other than the main viewpoint.

これらの視点を決定する方法として、例えば、主視点の位置と視線方向は、モデルのバウンディングボックスの中心を鉛直上方から見る視点とできる。また、主視点の向きを次のように決定できる。まず、一時的に東方向を主視点の右手方向として、モデルのシルエット画像とその輪郭を主視点からの平行投影により生成する。この際、シルエット画像(輪郭)のXY座標軸として、主視点の右手方向(東方向)を例えばX軸方向とし、主視点の上方向(北方向)をY軸方向とする2次元直交座標系を設定する。そして、輪郭を構成する各微小線分のベクトル(ベクトルの向きは、微小線分の2つの端点のうち、どちらを始点にしても構わない)において、設定したX、Y軸方向のベクトルであり大きさが等しいベクトル(例えばX、Y軸の単位ベクトル)それぞれとの内積を算出し、算出した2つの内積値のうち絶対値が小さいほうの値を選択する。さらに、各微小線分において選択したそれら絶対値の総和を算出する。   As a method for determining these viewpoints, for example, the position of the main viewpoint and the direction of the line of sight can be a viewpoint in which the center of the bounding box of the model is viewed from vertically above. In addition, the orientation of the main viewpoint can be determined as follows. First, a model silhouette image and its contour are generated by parallel projection from the main viewpoint, with the east direction temporarily being the right-hand direction of the main viewpoint. At this time, as a XY coordinate axis of the silhouette image (contour), a two-dimensional orthogonal coordinate system in which the right-hand direction (eastward direction) of the main viewpoint is, for example, the X-axis direction and the upper direction (north direction) of the main viewpoint is the Y-axis direction. Set. Then, in the vector of each minute line segment constituting the outline (the direction of the vector may be any one of the two end points of the minute line segment, whichever is the starting point), it is a vector in the X and Y axis directions set. An inner product with each of vectors of equal magnitude (for example, X and Y axis unit vectors) is calculated, and a value having a smaller absolute value is selected from the two calculated inner product values. Further, the sum of the absolute values selected in each minute line segment is calculated.

次に、主視点の右手方向を、主視点の視線方向つまり鉛直方向を回転軸とし、視線方向に対して垂直な平面つまり水平面上で少量回転させる。このとき、上記で設定したXY座標軸も、主視点の右手方向に合わせて同様に少量回転させる。そして、該回転した主視点の向き、XY座標軸において、上記と同様に内積値の絶対値の総和を算出する処理を、主視点の右手方向およびXY座標軸が90度回転するまで繰り返す。すなわち、シルエット画像(輪郭)に対して複数の2次元直交座標系を設定し、それぞれの2次元直交座標系において、上記した内積値の絶対値の総和を算出する処理を行う。
最後に、主視点の右手方向およびXY座標軸が90度回転したときに、上記絶対値の総和が最小となったときの主視点の向きを求め、該主視点の向きを、主視点の向きとして決定する。すなわち、設定した複数の2次元直交座標系のうち、上記絶対値の総和が最小となる2次元直交座標系を求め、該2次元直交座標系のX軸方向を主視点の右手方向、Y軸方向を主視点の上方向とする。
なお、主視点の右手方向およびXY座標軸を少量回転させるときの回転軸の位置は任意であり、例えばモデルの重心を通る位置とすることができる。
Next, the right-hand direction of the main viewpoint is rotated a small amount on a plane perpendicular to the line-of-sight direction, that is, a horizontal plane, with the line-of-sight direction of the main viewpoint, that is, the vertical direction as the rotation axis. At this time, the XY coordinate axes set as described above are similarly rotated by a small amount in accordance with the right-hand direction of the main viewpoint. Then, the process of calculating the sum of the absolute values of the inner product values in the direction of the rotated main viewpoint and the XY coordinate axes is repeated until the right-hand direction of the main viewpoint and the XY coordinate axes rotate 90 degrees. In other words, a plurality of two-dimensional orthogonal coordinate systems are set for the silhouette image (contour), and in each of the two-dimensional orthogonal coordinate systems, processing for calculating the sum of the absolute values of the inner product values described above is performed.
Finally, when the right-hand direction of the main viewpoint and the XY coordinate axes are rotated by 90 degrees, the direction of the main viewpoint when the sum of the absolute values is minimized is obtained, and the direction of the main viewpoint is set as the direction of the main viewpoint. decide. That is, out of a plurality of set two-dimensional orthogonal coordinate systems, a two-dimensional orthogonal coordinate system that minimizes the sum of the absolute values is obtained, and the X-axis direction of the two-dimensional orthogonal coordinate system is the right-hand direction of the main viewpoint, the Y-axis The direction is the upward direction of the main viewpoint.
Note that the right-hand direction of the main viewpoint and the position of the rotation axis when rotating the XY coordinate axes by a small amount are arbitrary, and can be, for example, positions passing through the center of gravity of the model.

サブ視点の位置、視線方向および向きは、例えば、鉛直上方を上方向とし、主視点の右手方向(上記絶対値の総和が最小となったときのXY座標軸におけるX軸方向)を視線方向とする視点をサブ視点Aとでき、鉛直上方を上方向とし、主視点の上方向(上記絶対値の総和が最小となったときのXY座標軸におけるY軸方向)を視線方向とする視点をサブ視点Bとできる。   The position, line-of-sight direction, and orientation of the sub-viewpoint are, for example, upward in the vertical direction, and the right-hand direction of the main viewpoint (the X-axis direction in the XY coordinate axes when the sum of the absolute values is minimized). The viewpoint that can be set as the sub-viewpoint A, the upper direction being the vertical direction, and the upper direction of the main viewpoint (the Y-axis direction in the XY coordinate axes when the sum of the absolute values is minimized) is the sub-viewpoint B. And can.

さらに、サブ視点AおよびBの視線方向をそれぞれ水平方向に45度回転させたものをサブ視点D、Cとできる。図3は、以上のとおり生成した主視点とサブ視点を示している。この決定方法では、各視点の視線方向同士が直交または45度に交わるため、次に説明するモデル投影部12以降の各部での処理動作における計算を、容易にできる。
なお、モデル投影部12の動作で後述するように、視点決定部11で決定した視点は、平行投影に用いるので、視点の位置は無限遠となる。図3では、便宜的に各視点の位置を示している。
決定された各視点の情報は、モデル投影部12へ出力される。
Further, sub-viewpoints D and C can be obtained by rotating the viewing directions of sub-viewpoints A and B by 45 degrees in the horizontal direction. FIG. 3 shows the main viewpoint and the sub viewpoint generated as described above. In this determination method, the line-of-sight directions of the respective viewpoints intersect at right angles or at 45 degrees, so that the calculation in the processing operation in each unit after the model projection unit 12 described below can be easily performed.
As will be described later with reference to the operation of the model projection unit 12, the viewpoint determined by the viewpoint determination unit 11 is used for parallel projection, so the viewpoint position is at infinity. In FIG. 3, the position of each viewpoint is shown for convenience.
Information of each determined viewpoint is output to the model projection unit 12.

なお、主視点を決定する方法は、上記の方法に限らず、視線方向がモデルを見下ろす方向であって、そのときに平行投影により得られるモデルのシルエットの面積が、小さくなるように決定すれば、任意の方法でよい。例えば、ランダムに複数の主視点位置候補を設定し、シルエットの面積が最も小さくなるものを主視点として決定するなどの方法が考えられる。   Note that the method of determining the main viewpoint is not limited to the above method, and if the line-of-sight direction is a direction looking down on the model and the area of the silhouette of the model obtained by parallel projection at that time is determined to be small. Any method can be used. For example, a method is conceivable in which a plurality of main viewpoint position candidates are set at random, and the one with the smallest silhouette area is determined as the main viewpoint.

また、サブ視点を決定する方法は、後述するポリゴン削減部17で生成されるモデルのポリゴン数が少なく、かつ、該モデル形状と簡略化前の元のモデル形状との差が小さくなるように決定すれば任意の方法でよい。
例えば、主視点および2つ以上のサブ視点の各視点からの平行投影によるシルエットを交差させたボリュームを生成し、そのボリュームを最小化するように各視点を決定するなどしてもよい。つまり、異なる位置、視線方向を持つ複数の視点から構成される視点群を複数設定し、1つの視点群において、該視点群を構成する各視点からの平行投影によるモデルのシルエットを交差させたボリュームを求める処理を、設定した全ての視点群に対して行う。そして、ボリュームが最小となった視点群を選択し、該視点群を構成する各視点を、主視点およびサブ視点として決定してよい。
The method for determining the sub-viewpoint is determined so that the number of polygons of the model generated by the polygon reduction unit 17 to be described later is small and the difference between the model shape and the original model shape before simplification is small. Any method can be used.
For example, a volume that intersects silhouettes of parallel projections from each viewpoint of the main viewpoint and two or more sub-viewpoints may be generated, and each viewpoint may be determined so as to minimize the volume. That is, a volume in which a plurality of viewpoint groups composed of a plurality of viewpoints having different positions and line-of-sight directions are set, and in one viewpoint group, silhouettes of models by parallel projection from each viewpoint constituting the viewpoint group are intersected. For all the set viewpoints. Then, the viewpoint group with the smallest volume may be selected, and the viewpoints constituting the viewpoint group may be determined as the main viewpoint and the sub viewpoint.

さらに、サブ視点の数も任意であり、後述する輪郭ポリゴン化部16で生成したモデルの品質に応じて変化させてもよく、品質が低い場合にサブ視点を追加するなどしてもよい。サブ視点の数を増加させることで、生成されるモデルの品質を向上させることができる。
なお、モデルの品質の判断基準としては、例えば、視点決定部11に入力されたモデルと輪郭ポリゴン化部16で生成したモデルとのボリュームを比較して、差分の体積が小さいものほど品質が高いと判断するなどの方法を用いることができる。
Further, the number of sub-viewpoints is also arbitrary, and may be changed according to the quality of the model generated by the contour polygonizing unit 16 to be described later. If the quality is low, a sub-viewpoint may be added. By increasing the number of sub-viewpoints, the quality of the generated model can be improved.
For example, the quality of the model is determined by comparing the volume of the model input to the viewpoint determining unit 11 and the model generated by the contour polygonizing unit 16, and the smaller the difference volume, the higher the quality. Or the like can be used.

図4を用いて、前処理部1を構成するモデル投影部12の動作について説明する。モデル投影部12では、視点決定部11にて決定した視点から、モデルを2値画像として平行投影で描画し、シルエット画像を生成する。図4は、各視点から生成したシルエット画像を示している。図4(a)は主視点から生成したシルエット画像、(b)はサブ視点Aから生成したシルエット画像、(c)はサブ視点Bから生成したシルエット画像、(d)はサブ視点Cから生成したシルエット画像、(e)はサブ視点Dから生成したシルエット画像である。ただし、同図には、後述する輪郭生成部13が生成する輪郭も描かれている。また、同図では、各視点から生成したシルエット画像と輪郭について、該視点の右手方向をX軸方向とし、この方向に直交するY軸方向とで定められるXY座標を設定することができる。   The operation of the model projection unit 12 that constitutes the preprocessing unit 1 will be described with reference to FIG. The model projection unit 12 draws the model as a binary image by parallel projection from the viewpoint determined by the viewpoint determination unit 11 to generate a silhouette image. FIG. 4 shows silhouette images generated from each viewpoint. 4 (a) is a silhouette image generated from the main viewpoint, (b) is a silhouette image generated from the sub viewpoint A, (c) is a silhouette image generated from the sub viewpoint B, and (d) is generated from the sub viewpoint C. A silhouette image (e) is a silhouette image generated from the sub-viewpoint D. However, in the figure, the contour generated by the contour generation unit 13 described later is also drawn. In the same figure, with respect to the silhouette image and contour generated from each viewpoint, the right-hand direction of the viewpoint can be set as the X-axis direction, and XY coordinates determined by the Y-axis direction orthogonal to this direction can be set.

このときに生成するシルエット画像の解像度は、3次元空間内の長さLがPピクセルになるよう決定する。このとき、Lに対するPの比率P/Lを大きくすることで、生成されるモデルの詳細度は高くなり、反対に小さくすることで、モデルの詳細度は低くなる。そのため、P/Lは生成するモデルの詳細度を制御するパラメータとなる。
生成されたシルエット画像の情報は、輪郭生成部13へ出力される。
The resolution of the silhouette image generated at this time is determined so that the length L in the three-dimensional space is P pixel. At this time, by increasing the ratio P / L of P with respect to L, the level of detail of the generated model increases, and by decreasing it, the level of detail of the model decreases. Therefore, P / L is a parameter that controls the level of detail of the generated model.
Information on the generated silhouette image is output to the contour generation unit 13.

図4を用いて、前処理部1を構成する輪郭生成部13の動作について説明する。まず、主視点から生成したシルエットの輪郭を求める。そして、輪郭を誤差Eピクセル以下で最小数の線分の集合に近似する。なお、誤差Eが大きいほど最終的に生成されるモデルが荒く、元のモデルとの差が大きいものになる。これは、モデルの詳細度を制御するパラメータとなる。以降、この輪郭を主輪郭と呼ぶ。図4(a)に主輪郭を示す。また、主輪郭の各頂点に対して、高さ情報を付与する。この高さとは、主輪郭を構成している各頂点における、地面から主視点の視線方向と反対方向の距離のことである。 The operation of the contour generation unit 13 constituting the preprocessing unit 1 will be described with reference to FIG. First, the outline of the silhouette generated from the main viewpoint is obtained. Then, the contour is approximated to a set of a minimum number of line segments with an error E of 1 pixel or less. Note that the larger the error E, the rougher the model that is finally generated, and the greater the difference from the original model. This is a parameter that controls the level of detail of the model. Hereinafter, this contour is referred to as a main contour. FIG. 4A shows the main contour. Also, height information is given to each vertex of the main contour. This height is a distance in a direction opposite to the line-of-sight direction of the main viewpoint from the ground at each vertex constituting the main outline.

次に、各サブ視点から生成したシルエットに対し、以下の方法で輪郭を生成する。以降、この輪郭をサブ輪郭と呼ぶ。まず、上記の通り各サブ視点から生成したシルエットにおいて設定したXY座標において、シルエット画像のx=i(0≦i<画像幅−1、iは自然数)におけるピクセルの内、シルエットに含まれる最大のy座標をy(i)として求める。次に、求めた座標(i,y(i))をi=0から順に接続する。そして、接続された線分群を、誤差Eピクセル以下で最小数の線分群に近似する。ただし、近似する際には、x=0となる輪郭の端点からもう一方の端点に線分を辿ったとき、線分のx成分が0以上となるようにする。図4(b)〜(e)は、図3に示したサブ視点A〜Dから生成したサブ輪郭A〜Dをそれぞれ示している。生成された輪郭の情報は、輪郭分割部14へ出力される。 Next, a contour is generated by the following method for the silhouette generated from each sub-viewpoint. Hereinafter, this contour is referred to as a sub-contour. First, in the XY coordinates set in the silhouette generated from each sub-viewpoint as described above, the largest pixel included in the silhouette among x = i (0 ≦ i <image width−1, i is a natural number) of the silhouette image. The y coordinate is obtained as y (i). Next, the obtained coordinates (i, y (i)) are connected in order from i = 0. Then, the connected line segment group is approximated to the minimum number of line segment groups with an error E of 2 pixels or less. However, in the approximation, when the line segment is traced from the end point of the contour where x = 0 to the other end point, the x component of the line segment is set to 0 or more. 4B to 4E show sub-contours A to D generated from the sub-viewpoints A to D shown in FIG. The generated contour information is output to the contour dividing unit 14.

図5を用いて、前処理部1を構成する輪郭分割部14の動作について説明する。輪郭分割部14では、まず、サブ輪郭Aの各頂点を視線方向に延長した直線を生成し、主輪郭上に投影する。そして、投影された直線を用いて主輪郭を分割する。ここで、投影された直線と主輪郭との交点に生成された新たな頂点の高さには、その頂点につながる主輪郭上の2頂点の高さを線形補間した値と、交点における投影された直線の高さとを比較し、小さい方を採用する。なお、交点における投影された直線の高さとは、該交点を形成している投影された直線がサブ輪郭Aと交わる点における、y座標成分の値である。以降、同様に他のサブ輪郭B〜Dを用いて、主輪郭を分割する。図5(a)は、図4で生成したサブ輪郭AとBで主輪郭を分割する様子を示し、図5(b)は、図5(a)で示す状態からさらにサブ輪郭CとDで主輪郭を分割する様子を示す。
また、とあるサブ輪郭から投影した直線と他のサブ輪郭から投影した直線とが交わる場合、この交点(頂点)における高さは、投影され交わったそれぞれの直線の高さのうち、小さい方を採用する。
The operation of the contour dividing unit 14 constituting the preprocessing unit 1 will be described with reference to FIG. The contour dividing unit 14 first generates a straight line obtained by extending each vertex of the sub-contour A in the line-of-sight direction, and projects it onto the main contour. Then, the main contour is divided using the projected straight line. Here, the height of the new vertex generated at the intersection of the projected straight line and the main contour is calculated by linearly interpolating the heights of the two vertices on the main contour connected to the vertex, and the projection at the intersection. Compare the height of the straight line and use the smaller one. Note that the height of the projected straight line at the intersection is the value of the y coordinate component at the point where the projected straight line forming the intersection intersects the sub-contour A. Thereafter, the main contour is similarly divided using the other sub-contours B to D. 5A shows a state in which the main contour is divided by the sub-contours A and B generated in FIG. 4, and FIG. 5B further shows sub-contours C and D from the state shown in FIG. A state in which the main contour is divided is shown.
In addition, when a straight line projected from one sub-contour intersects with a straight line projected from another sub-contour, the height at this intersection (vertex) is the smaller of the heights of the projected and intersecting straight lines. adopt.

なお、図4で生成した主輪郭の元となった主視点の視線は鉛直方向であったため、主輪郭を構成している各頂点の高さは、地面からの鉛直方向の距離に一致しており、各サブ輪郭の視線は水平方向であるため、頂点から視線方向へ伸ばした直線も水平方向に一致しており、主輪郭を分割する際に、主輪郭と、サブ輪郭の各頂点を視線方向に延長して主輪郭上に投影した直線との交点と、該交点の高さを容易に計算することが可能である。さらに、サブ視点A、Bの視線方向を互いに垂直かつ主視点の視線方向に対して垂直に決定したため、上記直線は主輪郭を生成したシルエット画像のX軸方向またはY軸方向に平行となっている。同様に、サブ輪郭C、Dから伸ばした直線も水平方向に一致しており、主輪郭の元となったシルエット画像のX軸方向またはY軸方向に対して45度のため、主輪郭を分割する際に、主輪郭と、サブ輪郭の各頂点を視線方向に延長して主輪郭上に投影した直線との交点と、該交点の高さを容易に計算できる。
以上のように分割された主輪郭の情報は、輪郭結合部15へ出力される。
Note that since the line of sight of the main viewpoint that is the basis of the main contour generated in FIG. 4 is in the vertical direction, the height of each vertex constituting the main contour matches the distance in the vertical direction from the ground. Since the line of sight of each sub-contour is in the horizontal direction, the straight line extending from the apex to the line-of-sight also matches the horizontal direction. It is possible to easily calculate the intersection point with the straight line projected in the direction and projected onto the main contour, and the height of the intersection point. Further, since the viewing directions of the sub-viewpoints A and B are determined to be perpendicular to each other and perpendicular to the viewing direction of the main viewpoint, the straight line is parallel to the X-axis direction or the Y-axis direction of the silhouette image that generated the main contour. Yes. Similarly, the straight line extended from the sub-contours C and D also coincides with the horizontal direction and is 45 degrees with respect to the X-axis direction or the Y-axis direction of the silhouette image that is the origin of the main contour, so the main contour is divided. In this case, it is possible to easily calculate the intersection of the main contour and the straight line projected on the main contour by extending each vertex of the sub-contour in the viewing direction and the height of the intersection.
Information on the main contour divided as described above is output to the contour combining unit 15.

図6と図7を用いて、前処理部1を構成する輪郭結合部15の動作について説明する。輪郭結合部15では、分割された主輪郭を構成する線分の内、不要なものを検出して削除する。
例えば、図6(a)のように、分割されて互いに接している2つの輪郭C1とC2があった場合、頂点P0が線分L1側と線分L2側で同じ高さかつ、頂点P1が線分L3側と線分L4側で同じ高さであり、さらに線分L1と線分L2が同じ向き(線分同士が交わる角度が0度)かつ線分L3と線分L4が同じ向きである場合、線分L5を削除して輪郭C1とC2を結合できる。
The operation of the contour combining unit 15 constituting the preprocessing unit 1 will be described with reference to FIGS. 6 and 7. The contour coupling unit 15 detects and deletes unnecessary ones of the line segments constituting the divided main contour.
For example, as shown in FIG. 6A, when there are two contours C1 and C2 that are divided and touching each other, the vertex P0 has the same height on the line segment L1 side and the line segment L2 side, and the vertex P1 is The line segment L3 and the line segment L4 have the same height, the line segment L1 and the line segment L2 are in the same direction (the angle at which the line segments cross each other is 0 degrees), and the line segment L3 and the line segment L4 are in the same direction. In some cases, the contours C1 and C2 can be combined by deleting the line segment L5.

ここで、線分側の高さについて、図6(b)に示すような主輪郭とサブ輪郭が得られたモデルにおいて説明すると、頂点P0は、線分L1側でh0の高さを、線分L2側でh1の高さを持つ。同様に、頂点P1は、線分L3側でh0の高さを、線分L4側でh1の高さを持つ。この場合、頂点P0は、線分L1側と線分L2側で同じ高さでなく、同様に、頂点P1は、線分L3側と線分L4側で同じ高さでない。従って、この場合は輪郭を結合することはできない。
図7は、図5で示すように分割された主輪郭を構成する線分のうち、結合可能なものを全て結合した結果である。
分割された後に不要な線分が結合された主輪郭の情報は、輪郭ポリゴン化部16へ出力される。
Here, the height on the line segment side will be described in a model in which the main contour and the sub-contour as shown in FIG. 6B are obtained. The vertex P0 has a height h0 on the line segment L1 side. It has a height of h1 on the minute L2 side. Similarly, the vertex P1 has a height h0 on the line segment L3 side and a height h1 on the line segment L4 side. In this case, the vertex P0 is not the same height on the line segment L1 side and the line segment L2 side. Similarly, the vertex P1 is not the same height on the line segment L3 side and the line segment L4 side. Therefore, in this case, the contours cannot be combined.
FIG. 7 shows the result of combining all the connectable segments of the line segments constituting the main contour divided as shown in FIG.
Information on the main contour in which unnecessary line segments are combined after the division is output to the contour polygonization unit 16.

ただし、結合可能か否かの判定方法は任意であり、判定条件を緩めることでより多くの輪郭を結合するようにしてもよい。例えば、図6(a)に示すように分割されて互いに接している2つの輪郭C1とC2において、線分L1と線分L2、線分L3と線分L4がそれぞれ同じ向きであれば輪郭C1とC2を結合して1つの輪郭とするとともに、図6(c)に示すように分割されて互いに接している2つの輪郭C3とC4において、線分L5と線分L6、および線分L7と線分L8が、それぞれ同じ向き、つまり頂点P2および頂点P3における輪郭C3が為す内角と輪郭C4が為す内角との和が180度になるように頂点P2および線分P3の位置と高さを図6(d)に示すように変更したとき(なお、線分L7と線分L8はもともと同じ方向であるので、P3の変位は0である)、変更前後の頂点P2および頂点P3の位置の変位つまり変更前後の輪郭C3とC4の変形量が特定の閾値以下であれば、輪郭を変更させて結合するなどの方法としてもよい。   However, the method for determining whether or not the combination is possible is arbitrary, and more contours may be combined by loosening the determination condition. For example, as shown in FIG. 6A, in two contours C1 and C2 that are divided and in contact with each other, if the line segment L1 and the line segment L2, and the line segment L3 and the line segment L4 are in the same direction, the contour C1 And C2 are combined to form one contour, and the two segments C3 and C4 that are divided and in contact with each other as shown in FIG. 6C, line segment L5, line segment L6, and line segment L7 The positions and heights of the vertex P2 and the line segment P3 are shown so that the line segment L8 has the same orientation, that is, the sum of the inner angle formed by the contour C3 and the inner angle formed by the contour C4 at the vertex P2 and the vertex P3 is 180 degrees. When changed as shown in FIG. 6 (d) (note that line segment L7 and line segment L8 are originally in the same direction, so the displacement of P3 is 0), the displacement of the positions of vertex P2 and vertex P3 before and after the change That is, the contour C3 before and after the change If is less than a certain threshold amount of deformation of 4 may be a method such as binding by changing the contour.

前処理部1を構成する輪郭ポリゴン化部16の動作について説明する。輪郭ポリゴン化部16では、輪郭結合部15で生成された輪郭を、各頂点が持つ高さに合わせて地面から主視点の方向に持ちあげて、柱体とする。そして、各柱体の上面と側面を3角形の集合に分割し、3次元ポリゴンモデルとしてポリゴン化する。生成された3次元ポリゴンモデルの情報は、ポリゴン削減部17へ出力される。   The operation of the contour polygonizing unit 16 constituting the preprocessing unit 1 will be described. In the contour polygonizing unit 16, the contour generated by the contour combining unit 15 is lifted from the ground in the direction of the main viewpoint according to the height of each vertex to obtain a column. Then, the upper surface and the side surface of each column are divided into a set of triangles, which are polygonized as a three-dimensional polygon model. Information on the generated three-dimensional polygon model is output to the polygon reduction unit 17.

前処理部1を構成するポリゴン削減部17の動作について説明する。ポリゴン削減部17では、全ての隣り合う柱体同士を調べ、一方の柱体の壁面の1つがもう一方の柱体の壁面の1つに包含されている場合、包含される壁面を構成するポリゴンを、描画に不必要なポリゴンとして削除する。柱体で構成され、描画に不必要なポリゴンが削除された3次元ポリゴンモデルの情報は、テクスチャ生成部18へ出力される。
なお、上記した前処理部1を構成する各部での処理に平行して、視点決定部11に入力された簡略化前のテクスチャマッピングされた建物モデル群データについては、各部での処理が施されない状態で、順次各部への受け渡しも行われる。
The operation of the polygon reduction unit 17 constituting the preprocessing unit 1 will be described. The polygon reduction unit 17 examines all adjacent column bodies, and if one of the wall surfaces of one column body is included in one of the wall surfaces of the other column body, the polygon constituting the included wall surface Are deleted as polygons unnecessary for drawing. Information of a three-dimensional polygon model that is composed of a column and from which polygons unnecessary for drawing are deleted is output to the texture generation unit 18.
In parallel to the processing in each part constituting the pre-processing unit 1 described above, the processing in each part is not performed on the pre-simplified texture-mapped building model group data input to the viewpoint determination unit 11. In the state, delivery to each part is also performed sequentially.

図8、図9を用いて、前処理部1を構成するテクスチャ生成部18の動作について説明する。テクスチャ生成部18では、入力された簡略化前のテクスチャマッピングされたモデルをいくつかの方向から平行投影で描画して画像とすることで、簡略化したモデルである3次元ポリゴンモデルに適用するテクスチャ画像を生成する。例えば、鉛直上方と水平4方向の計5方向から簡略化前のテクスチャマッピングされたモデルを描画することなどでテクスチャ画像を生成できる。図8は、図3に示す主視点とサブ視点AとB、およびサブ視点AとBとを反対方向に向けた視点を用いて生成したテクスチャ画像である。図8(a)は主視点から生成したテクスチャ画像、(b)はサブ視点Aから生成したテクスチャ画像、(c)はサブ視点Aを反対方向に向けた視点から生成したテクスチャ画像、(d)はサブ視点Bから生成したテクスチャ画像、(e)はサブ視点Bを反対方向に向けた視点から生成したテクスチャ画像である。
図9は、上述したポリゴン削減部17までの処理によって生成した3次元ポリゴンモデル、つまり、簡略化したモデルに対して、テクスチャ生成部18で生成したテクスチャ画像をマッピングして描画した例である。
The operation of the texture generation unit 18 constituting the preprocessing unit 1 will be described with reference to FIGS. The texture generation unit 18 draws the inputted texture-mapped model before simplification by parallel projection from several directions into an image, thereby applying a texture to be applied to the simplified model 3D polygon model Generate an image. For example, a texture image can be generated by drawing a texture-mapped model before simplification from a total of five directions, vertically upward and four horizontal directions. FIG. 8 is a texture image generated using viewpoints in which the main viewpoint and sub-viewpoints A and B and sub-viewpoints A and B shown in FIG. 3 are directed in opposite directions. 8A is a texture image generated from the main viewpoint, FIG. 8B is a texture image generated from the sub viewpoint A, FIG. 8C is a texture image generated from a viewpoint in which the sub viewpoint A is directed in the opposite direction, and FIG. Is a texture image generated from the sub-viewpoint B, and (e) is a texture image generated from a viewpoint with the sub-viewpoint B directed in the opposite direction.
FIG. 9 shows an example in which the texture image generated by the texture generation unit 18 is mapped and drawn on the three-dimensional polygon model generated by the processing up to the polygon reduction unit 17 described above, that is, a simplified model.

なお、上記では、視点決定部11で決定される視点の数が、主視点1つサブ視点4つの計5つの視点である場合について説明した。視点の数が5つ以外、例えば3つの場合においては、元々のモデル形状の再現精度が、図9に示すような視点の数が5つの場合における精度よりも低くはなるが、従来技術を用いて同じポリゴン数で生成された場合のモデルよりも、元々のモデル形状により近いモデルを得ることができる。   In the above description, a case has been described in which the number of viewpoints determined by the viewpoint determination unit 11 is a total of five viewpoints, one main viewpoint and four sub viewpoints. When the number of viewpoints is other than five, for example, three, the accuracy of reproducing the original model shape is lower than the precision when the number of viewpoints is five as shown in FIG. Thus, a model closer to the original model shape can be obtained than a model generated with the same number of polygons.

最後に、テクスチャ生成部18は、ポリゴン削減部17までの処理によって生成した3次元ポリゴンモデルのデータとテクスチャのデータを、HDDなどで実現される記憶装置3に記録する。また、視点決定部11に入力された簡略化前のモデルとテクスチャのデータも同時に記憶装置3に記録する。   Finally, the texture generation unit 18 records the three-dimensional polygon model data and the texture data generated by the processing up to the polygon reduction unit 17 in the storage device 3 realized by an HDD or the like. The pre-simplification model and texture data input to the viewpoint determination unit 11 are also recorded in the storage device 3 at the same time.

実行時処理部2を構成する描画対象決定部21の動作について説明する。描画対象決定部21は、記憶装置3から、前処理部1の入力となったオリジナルのモデル群データと、前処理部1で用いるパラメータP/LとEとEとを変化させて前処理部1での処理を実行することで複数の詳細度で簡略化されたモデル群データと、それぞれに対応したテクスチャとを読み出す。そして、視点位置などの入力情報に応じて、描画するモデルを決定する。例えば、視点とモデルの距離に応じて、近距離つまり入力された縮尺が大きい場合などではオリジナルのモデルを使用し、遠距離つまり入力された縮尺が小さい場合などではより簡略化されたモデルを使用するなどの方法で決定できる。描画対象として決定した詳細度のモデル群データは、描画部22へ出力される。 The operation of the drawing target determining unit 21 constituting the runtime processing unit 2 will be described. Drawing object determination unit 21 from the storage device 3, front and front and original model group data which is an input of the processing unit 1, by changing the parameters P / L and E 1 and E 2 to be used in the preprocessing unit 1 By executing the processing in the processing unit 1, model group data simplified with a plurality of details and textures corresponding to the model group data are read out. Then, a model to be drawn is determined according to input information such as a viewpoint position. For example, depending on the distance between the viewpoint and the model, the original model is used when the input scale is short, i.e. the original scale is large, and the simplified model is used when the input distance is small, i.e. when the input scale is small. It can be determined by a method such as The model group data of the degree of detail determined as the drawing target is output to the drawing unit 22.

実行時処理部2を構成する描画部22の動作について説明する。描画部22では、描画対象決定部21で描画対象としたモデル群を対応するテクスチャを用いて描画し、画像出力装置4に出力する。モデルの描画方法は、一般的なポリゴン描画処理に準ずるため、省略する。   The operation of the drawing unit 22 constituting the runtime processing unit 2 will be described. The drawing unit 22 draws the model group which is the drawing target by the drawing target determining unit 21 using the corresponding texture and outputs the model group to the image output device 4. Since the drawing method of the model conforms to general polygon drawing processing, it is omitted.

以上のように、本発明の実施の形態1によれば、従来技術を用いて生成したモデルが持つポリゴン数と同じポリゴン数で構成されるモデルを生成した場合に、従来技術を用いたものよりも元のモデル形状により近いモデルを得ること、また、生成したモデルに適用するテクスチャを自動生成すること、さらにそれらモデルとテクスチャを用いて3次元建物群を高速に描画することができる。   As described above, according to the first embodiment of the present invention, when a model configured with the same number of polygons as a model generated using the conventional technique is generated, the model using the conventional technique is used. In addition, a model closer to the original model shape can be obtained, a texture to be applied to the generated model can be automatically generated, and a three-dimensional building group can be drawn at high speed using the model and the texture.

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.

1 前処理部、2 実行時処理部、3 記憶装置、4 画像出力装置、11 視点決定部、12 モデル投影部、13 輪郭生成部、14 輪郭分割部、15 輪郭結合部、16 輪郭ポリゴン化部、17 ポリゴン削減部、18 テクスチャ生成部、21 描画対象決定部、22 描画部。   DESCRIPTION OF SYMBOLS 1 Pre-processing part, 2 Runtime processing part, 3 Storage device, 4 Image output device, 11 Viewpoint determination part, 12 Model projection part, 13 Contour generation part, 14 Contour division part, 15 Contour combination part, 16 Contour polygonization part , 17 Polygon reduction unit, 18 Texture generation unit, 21 Drawing target determination unit, 22 Drawing unit.

Claims (9)

テクスチャを持った建物モデル群データを入力とし、各建物のオリジナルモデルに対して3つ以上の視点を決定する視点決定部と、
上記視点決定部で決定された各視点を用いて上記オリジナルモデルを投影し、シルエットを生成するモデル投影部と、
上記モデル投影部で生成されたシルエットの輪郭を線分の集合として生成する輪郭生成部と、
上記輪郭生成部で生成された輪郭のうち1つを、他の輪郭を用いて分割し、高さを与える輪郭分割部と、
上記輪郭分割部で分割された輪郭の一部を結合する輪郭結合部と、
上記輪郭結合部で結合処理された輪郭から3次元ポリゴンモデルを生成する輪郭ポリゴン化部と、
上記輪郭ポリゴン化部で生成された3次元ポリゴンモデルから、描画に不必要なポリゴンを削除するポリゴン削減部と、
上記ポリゴン削減部で描画に不必要なポリゴンが削除された3次元ポリゴンモデルに適用するテクスチャを生成し、上記オリジナルモデル及びテクスチャ、並びに、上記ポリゴン削減部で描画に不必要なポリゴンが削除された3次元ポリゴンモデル及び上記生成したテクスチャを記憶部に記録するテクスチャ生成部と、
上記記憶部に記録されたオリジナルモデルと、3次元ポリゴンモデルと、それぞれに対応するテクスチャとを読み出し、入力情報に応じて描画するオリジナルモデルもしくは3次元ポリゴンモデルを決定する描画対象決定部と、
上記描画対象決定部で決定されたオリジナルモデルもしくは3次元ポリゴンモデルと、それに対応するテクスチャとで画像を描画する描画部とを備えた画像描画装置。
A viewpoint determination unit that takes the building model group data having a texture as input and determines three or more viewpoints for the original model of each building;
A model projection unit that projects the original model using each viewpoint determined by the viewpoint determination unit and generates a silhouette;
An outline generation unit that generates an outline of the silhouette generated by the model projection unit as a set of line segments;
One of the contours generated by the contour generation unit is divided using another contour, and a contour division unit that gives a height;
A contour combining unit that combines a part of the contour divided by the contour dividing unit;
A contour polygonizing unit that generates a three-dimensional polygon model from the contours combined by the contour combining unit;
A polygon reduction unit that deletes polygons unnecessary for drawing from the three-dimensional polygon model generated by the contour polygon unit;
A texture to be applied to a 3D polygon model from which polygons unnecessary for drawing are deleted by the polygon reduction unit is generated, and polygons unnecessary for drawing are deleted by the original model and texture, and the polygon reduction unit. A texture generation unit for recording the three-dimensional polygon model and the generated texture in the storage unit;
A drawing target determining unit that reads the original model, the three-dimensional polygon model, and the texture corresponding to each of the original model and the three-dimensional polygon model to be drawn according to input information;
An image drawing apparatus comprising: an original model or a three-dimensional polygon model determined by the drawing target determining unit; and a drawing unit that draws an image with a texture corresponding to the original model or the three-dimensional polygon model.
上記視点決定部は、上記オリジナルモデルを鉛直上方から見る第1の視点と、上記オリジナルモデルを水平方向から見る第2、第3の視点を決定し、
上記第1の視点から生成される上記オリジナルモデルの輪郭に対して2次元直交座標系を複数設定して、上記第1の視点から生成されたオリジナルモデルの輪郭を構成する各線分のベクトルと上記2次元直交座標系のそれぞれの座標軸方向のベクトルとの内積値のうち絶対値が小さい方の値の総和を算出したときに該総和値が最小となる該2次元直交座標系の一方の座標軸と、上記第2の視点の視線方向は平行であり、
該2次元直交座標系の他方の座標軸と、上記第3の視点の視線方向は平行であることを特徴とする請求項1記載の画像描画装置。
The viewpoint determination unit determines a first viewpoint for viewing the original model from vertically above, and second and third viewpoints for viewing the original model from a horizontal direction,
A plurality of two-dimensional orthogonal coordinate systems are set with respect to the contour of the original model generated from the first viewpoint, the vectors of the line segments constituting the contour of the original model generated from the first viewpoint, and the above One of the coordinate axes of the two-dimensional orthogonal coordinate system that minimizes the total value when calculating the sum of the values of the smaller absolute values of the inner product values of the vectors in the direction of the respective coordinate axes of the two-dimensional orthogonal coordinate system; The line-of-sight direction of the second viewpoint is parallel,
2. The image drawing apparatus according to claim 1, wherein the other coordinate axis of the two-dimensional orthogonal coordinate system is parallel to the line-of-sight direction of the third viewpoint.
上記視点決定部は、上記第2の視点と上記第3の視点を、それぞれ水平方向に45度回転させた第4の視点と第5の視点とを決定することを特徴とする請求項2記載の画像描画装置。   3. The viewpoint determining unit determines a fourth viewpoint and a fifth viewpoint obtained by rotating the second viewpoint and the third viewpoint, respectively, by 45 degrees in the horizontal direction. Image drawing device. 上記視点決定部は、異なる位置、視線方向を持つ複数の視点から構成される視点群を複数設定し、上記複数設定した視点群において、視点群を構成する各視点から生成される上記オリジナルモデルのシルエットを用いて得られるボリュームが、最小となる該視点群を構成する各視点を、視点として決定することを特徴とする請求項1記載の画像描画装置。   The viewpoint determination unit sets a plurality of viewpoint groups composed of a plurality of viewpoints having different positions and line-of-sight directions, and in the plurality of set viewpoint groups, the original model generated from each viewpoint constituting the viewpoint group The image drawing apparatus according to claim 1, wherein each viewpoint that constitutes the viewpoint group in which the volume obtained using the silhouette is minimized is determined as a viewpoint. 上記視点決定部は、上記輪郭ポリゴン化部で生成される3次元ポリゴンモデルの品質に応じて、視点数を変化させることを特徴とする請求項1記載の画像描画装置。   2. The image drawing apparatus according to claim 1, wherein the viewpoint determination unit changes the number of viewpoints according to the quality of the three-dimensional polygon model generated by the contour polygon unit. 上記輪郭結合部は、隣り合う2つの輪郭において、上記隣り合う2つの輪郭が共有する頂点における一方の輪郭が為す内角ともう一方の輪郭が為す内角との和が180度である場合に上記隣り合う2つの輪郭を結合するとともに、
上記隣り合う2つの輪郭が共有する頂点における一方の輪郭が為す内角ともう一方の輪郭が為す内角との和が180度となるように上記共有する頂点を移動させた際の上記隣り合う2つの輪郭の変形量が特定の閾値以下であるかどうかを判定し、閾値以下であれば上記隣り合う2つの輪郭を変形させて結合することを特徴とする請求項1記載の画像描画装置。
In the two adjacent contours, the contour coupling unit is configured to determine whether the adjacent angle formed by one contour at the vertex shared by the two adjacent contours is 180 degrees when the sum of the inner angle formed by the other contour is 180 degrees. Combine two matching contours,
The two adjacent points when the shared vertex is moved so that the sum of the inner angle formed by one contour and the inner angle formed by the other contour at the vertex shared by the two adjacent contours is 180 degrees. 2. The image drawing apparatus according to claim 1, wherein it is determined whether or not a contour deformation amount is equal to or less than a specific threshold value. If the contour deformation amount is equal to or less than the threshold value, the two adjacent contours are deformed and combined.
上記ポリゴン削減部で削除されるポリゴンは、隣り合う柱体同士の向かい合った2つの壁面において、一方の壁面に包含されるもう一方の壁面を構成するポリゴンであることを特徴とする請求項1記載の画像描画装置。   2. The polygon that is deleted by the polygon reduction unit is a polygon that constitutes the other wall surface included in one of the two wall surfaces facing each other between adjacent column bodies. Image drawing device. 上記テクスチャ生成部は、上記オリジナルモデルの鉛直上方と、上記第2、第3の視点と、上記第2、第3の視点をそれぞれ水平方向に180度回転させた2つの視点とから、上記オリジナルモデルに対応するテクスチャでテクスチャマッピングされた上記オリジナルモデルを描画して、テクスチャを生成することを特徴とする請求項2記載の画像描画装置。   The texture generator generates the original model from vertically above the original model, the second and third viewpoints, and two viewpoints obtained by rotating the second and third viewpoints 180 degrees horizontally. 3. The image drawing apparatus according to claim 2, wherein a texture is generated by drawing the original model texture-mapped with a texture corresponding to the model. 上記描画対象決定部は、描画時に使用する縮尺に応じた詳細度の3次元ポリゴンモデルもしくはオリジナルモデルを描画するよう決定することを特徴とする請求項1記載の画像描画装置。   The image drawing apparatus according to claim 1, wherein the drawing target determining unit determines to draw a three-dimensional polygon model or an original model having a degree of detail corresponding to a scale used at the time of drawing.
JP2013041880A 2013-03-04 2013-03-04 Image drawing device Expired - Fee Related JP6025615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013041880A JP6025615B2 (en) 2013-03-04 2013-03-04 Image drawing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013041880A JP6025615B2 (en) 2013-03-04 2013-03-04 Image drawing device

Publications (2)

Publication Number Publication Date
JP2014170388A JP2014170388A (en) 2014-09-18
JP6025615B2 true JP6025615B2 (en) 2016-11-16

Family

ID=51692739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013041880A Expired - Fee Related JP6025615B2 (en) 2013-03-04 2013-03-04 Image drawing device

Country Status (1)

Country Link
JP (1) JP6025615B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312040B2 (en) 2019-06-28 2023-07-20 Biprogy株式会社 Texture mapping device and program for texture mapping

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329236A (en) * 1995-05-29 1996-12-13 Oki Electric Ind Co Ltd Method for simplifying outlike data
JP2000121360A (en) * 1997-12-05 2000-04-28 Wall:Kk Method for forming three-dimensional city map data base and equipment for measuring three-dimensional city map data base
JP3791186B2 (en) * 1998-05-22 2006-06-28 三菱電機株式会社 Landscape modeling device
JP2003216933A (en) * 2002-01-28 2003-07-31 Minolta Co Ltd Data processing device, storage medium and program
JP4085671B2 (en) * 2002-03-29 2008-05-14 コニカミノルタホールディングス株式会社 Data processing method, data processing program, and recording medium
US8860723B2 (en) * 2009-03-09 2014-10-14 Donya Labs Ab Bounded simplification of geometrical computer data
JP5223062B2 (en) * 2010-03-11 2013-06-26 株式会社ジオ技術研究所 3D map drawing system

Also Published As

Publication number Publication date
JP2014170388A (en) 2014-09-18

Similar Documents

Publication Publication Date Title
US8089480B2 (en) Method for meshing a curved surface
US6952204B2 (en) 3D computer modelling apparatus
US8860723B2 (en) Bounded simplification of geometrical computer data
US8368714B2 (en) Curved surface rendering system and method
US8994726B1 (en) Systems and methods for preparing a model of an environment for display
US10460510B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
US9367943B2 (en) Seamless fracture in a production pipeline
US20110267347A1 (en) Systems and methods for primitive intersection in ray tracing
US20160232259A1 (en) Apparatus and method for interactively extracting shapes from a point cloud
US20110158555A1 (en) Curved surface area calculation device and method
CN107808388B (en) Image processing method and device containing moving object and electronic equipment
Kada 3D building generalization based on half-space modeling
US8587586B2 (en) Electronic device and method for meshing curved surface
KR102443697B1 (en) Method and apparatus for performing a path stroke
KR101552828B1 (en) Method for Obtaining Polygon Information of Three-dimensional Object Model
US20180286111A1 (en) Cross determining program, cross determining method, and cross determining apparatus
KR20230005312A (en) Method and Apparatus for Generating Floor Plans
US10891780B2 (en) Methods and systems for viewing a three-dimensional (3D) virtual object
JP6025615B2 (en) Image drawing device
Wiemann et al. Automatic Map Creation For Environment Modelling In Robotic Simulators.
JP5400802B2 (en) Contact simulation method and apparatus using layered depth images
Kolhatkar et al. Real-time virtual viewpoint generation on the GPU for scene navigation
JP4017351B2 (en) 3D model generation apparatus and 3D model generation program
JP2941248B1 (en) A device that converts objects into primitives
JP7368950B2 (en) Method and apparatus for efficient building footprint identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161011

R150 Certificate of patent or registration of utility model

Ref document number: 6025615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees