JPH0997344A - Method and system for texture generation - Google Patents

Method and system for texture generation

Info

Publication number
JPH0997344A
JPH0997344A JP7253054A JP25305495A JPH0997344A JP H0997344 A JPH0997344 A JP H0997344A JP 7253054 A JP7253054 A JP 7253054A JP 25305495 A JP25305495 A JP 25305495A JP H0997344 A JPH0997344 A JP H0997344A
Authority
JP
Japan
Prior art keywords
image
dimensional shape
shape model
texture
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7253054A
Other languages
Japanese (ja)
Inventor
Masanori Watanabe
正規 渡辺
Shuichi Shiitani
秀一 椎谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7253054A priority Critical patent/JPH0997344A/en
Publication of JPH0997344A publication Critical patent/JPH0997344A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a texture of high quality by correctly positioning and composting plural two-dimensional images. SOLUTION: In the texture generation for three-dimensional computer graphics which combines a texture and a three-dimensional shape model together and displays a body on a screen in three dimensions, a 1st image G1 showing a body viewed from a 1st viewpoint and the three-dimensional shape model are positioned to show the body viewed from a 2nd viewpoint, and a 2nd image G3 including visual information on an overlap part in the body that part of the 1st image corresponds to and the three-dimensional shape model are positioned; and partial images G10 and G20 corresponding to a polygon Q4 corresponding to the overlap part are extracted from the 1st and 2nd images according to the positioning result of the overlap part of the three-dimensional model about the polygon Q4, and the 1st partial image G10 and 2nd partial image G20 are positioned so that corresponding pixels overlap each other by performing pattern matching in pixel unit.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、3次元コンピュー
タグラフィックスのためのテクスチャ生成方法、及びテ
クスチャ生成システムに関する。
TECHNICAL FIELD The present invention relates to a texture generation method and a texture generation system for three-dimensional computer graphics.

【0002】3次元コンピュータグラフィックスは、実
在する物体又は架空の物体をその3次元形状モデルに基
づいて画面上に立体的に表示する技術であり、任意の視
点から見た物体をリアルタイムで表示できるので、景観
シミュレーションやプレゼンテーションなどに応用され
ている。通常、物体は、3次元形状モデルと、模様や材
質感を表すテクスチャとによって表現される。
[0002] Three-dimensional computer graphics is a technique for stereoscopically displaying a real object or a fictitious object on a screen based on its three-dimensional shape model, and an object viewed from an arbitrary viewpoint can be displayed in real time. Therefore, it is applied to landscape simulations and presentations. Usually, an object is represented by a three-dimensional shape model and a texture that represents a pattern or a texture.

【0003】[0003]

【従来の技術】実在する物体をより写実的に表示するに
は、物体を撮影した実写画像を用いて3次元形状モデル
に貼り付けるテクスチャ(マッピングのための画像デー
タ)を生成すればよい。
2. Description of the Related Art In order to more realistically display an existing object, a texture (image data for mapping) to be attached to a three-dimensional shape model may be generated by using a photographed image of the object.

【0004】画面上で物体をその周囲の任意の位置から
眺めても写実性が得られるようにするには、少なくとも
物体の正面側から撮影した実写画像と背面側から撮影し
た実写画像とが必要である。建造物のように大きい物体
では、撮影位置の制約などにより例えば正面像の全体を
1つの写真に納めることができないという状況が発生す
る。すなわち、正面像を複数の部分に分けて撮影する必
要がある。
In order to obtain realism even when the object is viewed from any position around it on the screen, at least a real image taken from the front side and a real image taken from the back side of the object are required. Is. For a large object such as a building, there is a situation in which, for example, the entire front image cannot be fit in one photograph due to restrictions on the shooting position. That is, it is necessary to divide the front image into a plurality of parts and photograph them.

【0005】従来のテクスチャ生成システムは、複数の
実写画像を用いてテクスチャを生成する場合に、各実写
画像を個別に3次元形状モデルに対して位置決めし、そ
の位置決め情報に基づいて各実写画像の相対位置を決定
して画像合成を行うように構成されていた(特開平3−
138784号)。3次元形状モデルに対する位置決め
は、3次元形状モデルと実写画像とを同一画面内に表示
させた状態で、システムのオペレータが実写画像におけ
る特定の位置(例えば3次元形状モデルの頂点に対応す
る位置)を指定することによって行われていた。
In the conventional texture generation system, when a texture is generated using a plurality of photographed images, each photographed image is individually positioned with respect to the three-dimensional shape model, and each photographed image is registered based on the positioning information. It has been configured to determine the relative position and perform image composition (Japanese Patent Laid-Open No. Hei.
138784). The positioning with respect to the three-dimensional shape model is performed by a system operator in a specific position (for example, a position corresponding to a vertex of the three-dimensional shape model) in a state where the three-dimensional shape model and the real image are displayed on the same screen. Was done by specifying.

【0006】[0006]

【発明が解決しようとする課題】従来では、複数の実写
画像の合成に際して、3次元形状モデルを基準に各実写
画像の相対位置を決定していたので、3次元形状モデル
と物体の実際の立体構造との間にズレ(モデリングの誤
差)があると、実写画像の位置合わせにも誤差が生じ
た。そのために実写画像どうしの重なり部分で画像が乱
れ、テクスチャの写実性が損なわれるという問題があっ
た。
Conventionally, when synthesizing a plurality of photographed images, the relative position of each photographed image is determined on the basis of the three-dimensional shape model. If there was a deviation (modeling error) from the structure, an error occurred in the alignment of the photographed image. Therefore, there is a problem that the images are disturbed at the overlapping portions of the real shot images, and the realism of the texture is impaired.

【0007】本発明は、この問題に鑑みてなされたもの
で、複数の2次元画像を正しく位置合わせして合成し、
高品位のテクスチャを生成することを目的としている。
The present invention has been made in view of this problem, and a plurality of two-dimensional images are correctly aligned and synthesized,
It is intended to generate high quality textures.

【0008】[0008]

【課題を解決するための手段】複数の画像をそれぞれ3
次元形状モデルに対して位置決めすることによって、各
画像から物体上の特定の面に対応した部分(部分画像)
を合成の対象として抽出することが可能になる。各画像
から抽出した複数の部分画像に対して、画素値の一致す
る画素どうしを対応づけるパターンマッチングを行え
ば、部分画像どうしを正しく位置合わせすることができ
る。
[Means for Solving the Problems] Each of a plurality of images is set to three.
The part corresponding to a specific surface on the object (partial image) from each image by positioning with respect to the three-dimensional shape model
Can be extracted as a target of synthesis. By performing pattern matching in which the pixels having the same pixel value are associated with each other with respect to the plurality of partial images extracted from each image, the partial images can be correctly aligned.

【0009】請求項1の発明の方法は、テクスチャとポ
リゴン形式の3次元形状モデルとを組み合わせて物体を
画面上に立体的に表示する3次元コンピュータグラフィ
ックスのためのテクスチャ生成方法であって、第1の視
点からみた前記物体を示す第1画像と当該物体の3次元
形状モデルとを位置決めし、第2の視点からみた前記物
体を示し且つ当該物体の内の前記第1画像の一部が対応
する重複部分の視覚情報を含む第2画像と、前記3次元
形状モデルとを位置決めし、前記3次元モデルにおける
前記重複部分に対応したポリゴンに対する位置決め結果
に基づいて、前記第1画像及び第2画像の両方から前記
ポリゴンに対応した部分画像を抽出し、前記第1画像か
ら抽出した部分画像と前記第2画像から抽出した部分画
像とを、画素単位のパターンマッチングを行って対応す
る画素どうしが重なるように位置合わせすることによっ
て、前記ポリゴンに貼り付けるテクスチャを生成するも
のである。
The method according to the first aspect of the present invention is a texture generation method for three-dimensional computer graphics in which an object is stereoscopically displayed on a screen by combining a texture and a three-dimensional shape model in a polygon format. A first image showing the object viewed from a first viewpoint and a three-dimensional shape model of the object are positioned to show the object viewed from a second viewpoint and a part of the first image of the object is The second image including the visual information of the corresponding overlapping portion and the three-dimensional shape model are positioned, and the first image and the second image based on the positioning result for the polygon corresponding to the overlapping portion in the three-dimensional model. A partial image corresponding to the polygon is extracted from both of the images, and the partial image extracted from the first image and the partial image extracted from the second image are pixel by pixel. By aligning to the corresponding pixels overlap together by performing pattern matching, and generates a texture pasted on the polygon.

【0010】請求項2の発明の方法は、前記第1画像及
び第2画像の両方から前記ポリゴンに対応した部分画像
を抽出する際に、逆透視変換演算に基づいて互いに同一
の視点からみた2次元画像として抽出するものである。
According to a second aspect of the present invention, when extracting partial images corresponding to the polygons from both the first image and the second image, the two images viewed from the same viewpoint based on the inverse perspective transformation calculation are used. It is extracted as a three-dimensional image.

【0011】請求項3の発明のシステムは、物体の3次
元形状モデルに貼り付けるテクスチャを、前記物体の実
写画像に基づいて生成する機能を有した3次元コンピュ
ータグラフィックスのためのテクスチャ生成システムで
あって、前記実写画像を前記3次元形状モデルに対して
位置決めする手段と、前記3次元形状モデルの1つのポ
リゴンに貼り付けるテクスチャの生成に複数の前記実写
画像が必要な場合に、当該ポリゴンに対する位置決め結
果に基づいて画素単位のパターンマッチングを行って、
対応する画素どうしが重なるように当該複数の実写画像
の位置合わせをする手段と、位置合わせがなされた前記
複数の実写画像を合成して前記テクスチャを生成する手
段と、を有する。
According to a third aspect of the present invention, there is provided a texture generation system for three-dimensional computer graphics, which has a function of generating a texture to be attached to a three-dimensional shape model of an object based on a real image of the object. And a means for positioning the real photographed image with respect to the three-dimensional shape model, and when a plurality of the real photographed images are required to generate a texture to be attached to one polygon of the three-dimensional shape model, Perform pattern matching for each pixel based on the positioning result,
It has means for aligning the plurality of real shot images so that corresponding pixels overlap each other, and means for synthesizing the plurality of aligned real shot images to generate the texture.

【0012】請求項4の発明のシステムは、前記複数の
実写画像の位置合わせの結果に応じて、前記3次元形状
モデルを修正する機能を有する。
A system according to a fourth aspect of the present invention has a function of correcting the three-dimensional shape model in accordance with a result of alignment of the plurality of real shot images.

【0013】[0013]

【発明の実施の形態】図1は本発明に係るテクスチャ生
成システム1の構成図である。テクスチャ生成システム
1は、システム制御と画像データ処理とを担うCPU1
0、キーボード21、マウス22、画素単位の階調表示
が可能なディスプレイ30、ハードディスクに代表され
る媒体を備えたメモリ装置40、及びイメージリーダ5
0から構成されている。CPU10には、テクスチャ生
成のためのソフトウェアが組み込まれている。マウス2
2に代えてトラックボールなどの他のポインティングデ
バイスを用いてもよい。イメージリーダ50に代えてビ
デオカメラを用いて物体の画像情報をCPU10に入力
してもよい。光ディスクなどの記憶媒体から画像をCP
U10に供給することも可能である。
1 is a block diagram of a texture generation system 1 according to the present invention. The texture generation system 1 is a CPU 1 that is responsible for system control and image data processing.
0, a keyboard 21, a mouse 22, a display 30 capable of displaying gradation in pixel units, a memory device 40 including a medium represented by a hard disk, and an image reader 5.
0. The CPU 10 incorporates software for texture generation. Mouse 2
Instead of 2, another pointing device such as a trackball may be used. Instead of the image reader 50, a video camera may be used to input the image information of the object to the CPU 10. CP images from storage media such as optical disks
It is also possible to supply to U10.

【0014】図2はCPU10の機能ブロック図であ
る。CPU10は、イメージリーダ50が出力する画素
単位の画像データを取り込む画像入力部11、メモリ装
置40から3次元形状モデルを読み出す形状データ入力
部12、画像と3次元形状モデルとの位置関係及び複数
の画像間の位置関係を特定する位置決め部13、複数の
画像を合成してテクスチャ(データD14)を生成する
画像合成部14、生成されたテクスチャの出力制御を担
うテクスチャ出力部15、及び位置決め部13によって
修正された3次元形状モデルの出力制御を担う形状デー
タ出力部16を有している。テクスチャ及び3次元形状
モデルの出力とは、メモリ装置40への格納、又は他の
システム(例えばグラフィックシステム)への転送を意
味する。
FIG. 2 is a functional block diagram of the CPU 10. The CPU 10 includes an image input unit 11 that captures image data in pixel units output from the image reader 50, a shape data input unit 12 that reads a three-dimensional shape model from the memory device 40, a positional relationship between the image and the three-dimensional shape model, and a plurality of positions. A positioning unit 13 that specifies the positional relationship between images, an image combining unit 14 that combines a plurality of images to generate a texture (data D14), a texture output unit 15 that controls output of the generated texture, and a positioning unit 13. It has a shape data output unit 16 that controls the output of the three-dimensional shape model corrected by. The output of the texture and the 3D geometric model means storage in the memory device 40 or transfer to another system (for example, a graphic system).

【0015】位置決め部13は、オペレータの指示操作
に応じた処理を行う手動位置決め部131と、位置決め
の最適化のための処理などを担う自動位置決め部132
とから構成されている。
The positioning unit 13 includes a manual positioning unit 131 that performs a process according to an operator's instruction operation, and an automatic positioning unit 132 that performs a process for optimizing positioning.
It is composed of

【0016】図3は手動位置決め部131の動作を示す
フローチャート、図4は自動位置決め部132の動作を
示すフローチャートである。手動位置決め部131は、
画像入力部11が取り込んだ1つ又は複数の画像、及び
形状データ入力部12によって得た3次元形状モデル
を、ディスプレイ30の画面上に表示する(#11)。
FIG. 3 is a flowchart showing the operation of the manual positioning section 131, and FIG. 4 is a flowchart showing the operation of the automatic positioning section 132. The manual positioning unit 131 is
The one or more images captured by the image input unit 11 and the three-dimensional shape model obtained by the shape data input unit 12 are displayed on the screen of the display 30 (# 11).

【0017】オペレータからの3次元形状モデルの修正
指示があれば(#12)、3次元形状モデルを修正し
(#13)、修正後の3次元形状モデルを表示する(#
14)。オペレータは、必要に応じて修正指示の操作を
繰り返す。オペレータが修正終了の操作を行うと(#1
5)、手動位置決め部131は、画像と3次元形状モデ
ルとの位置関係を示す位置決めデータD131を生成す
る(#16)。
If there is an instruction to modify the 3D geometric model from the operator (# 12), the 3D geometric model is modified (# 13), and the modified 3D geometric model is displayed (#).
14). The operator repeats the correction instruction operation as necessary. When the operator performs the correction end operation (# 1
5), the manual positioning unit 131 generates positioning data D131 indicating the positional relationship between the image and the three-dimensional shape model (# 16).

【0018】位置決めデータD131の生成には、2つ
の形態がある。1つは、3次元形状モデルの特異点(例
えばポリゴンの頂点)と画像の画素の座標とを対応づけ
る表を表示しておき、オペレータが特異点に対応すると
思う画素にマウス22のカーソルを合わせ、そのときに
表示されているカーソル座標をオペレータが画素の座標
として表に書き込む形態である。つまり、オペレータが
数値を入力するものである。他の1つは、3次元形状モ
デルを例えばワイヤフレームで図形化して画像に重ねて
表示し、オペレータによるワイヤフレームの修正が終わ
った時点で、画面上でワイヤフレームの頂点と重なって
いる画素の座標を演算によって求める形態である。つま
り、オペレータによる画面31上の位置合わせの結果に
基づいて位置決めデータD131を生成するものであ
る。オペレータは画像とできるだけ一致するようにワイ
ヤフレームの修正(移動・回転・拡大・縮小)を行う。
テクスチャ生成システム1では、これらの形態の一方を
環境設定操作によって選択することができる。
There are two modes for generating the positioning data D131. One is to display a table that associates the singular points (for example, the vertices of polygons) of the three-dimensional shape model with the coordinates of the pixels of the image, and moves the cursor of the mouse 22 to the pixel that the operator thinks corresponds to the singular point. The cursor coordinates displayed at that time are written in the table as the coordinates of pixels by the operator. That is, the operator inputs a numerical value. The other one is to display a 3D geometric model in a wire frame, for example, and display it on an image. When the operator finishes the correction of the wire frame, the pixel that overlaps with the vertex of the wire frame on the screen is displayed. This is a form in which coordinates are calculated. That is, the positioning data D131 is generated based on the result of the alignment on the screen 31 by the operator. The operator modifies (moves / rotates / enlarges / reduces) the wire frame so that it matches the image as much as possible.
In the texture generation system 1, one of these forms can be selected by an environment setting operation.

【0019】図4のように、自動位置決め部132の担
う処理は、3次元形状モデルに対する画像の位置決めの
精度を高めるための処理(#21〜#25)と、画像合
成に係わる本発明に特有の処理(#26〜#32)とに
大別される。
As shown in FIG. 4, the processing performed by the automatic positioning unit 132 is unique to the present invention relating to the processing for improving the positioning accuracy of the image with respect to the three-dimensional shape model (# 21 to # 25) and the image synthesis. Processing (# 26 to # 32).

【0020】自動位置決め部132は、手動位置決め部
131が生成した位置決めデータD131を仮の位置決
め情報として取り込み(#21)、3次元形状モデルと
画像とを解析して位置決めに必要な情報を獲得する(#
22,23)。例えば、3次元形状モデルから稜線のデ
ータを抽出し、その稜線の対応する境界線を画像から抽
出する。境界線は、予め取り込んでおいた位置決めデー
タD131を用いて稜線の近辺の画素に注目し、最小二
乗法などを用いて画素のデータ値の分布に最も合致した
直線をあてはめることによって得ることができる。
The automatic positioning unit 132 takes in the positioning data D131 generated by the manual positioning unit 131 as temporary positioning information (# 21), analyzes the three-dimensional shape model and the image, and acquires information necessary for positioning. (#
22, 23). For example, ridge line data is extracted from the three-dimensional shape model, and the corresponding boundary line of the ridge line is extracted from the image. The boundary line can be obtained by paying attention to the pixels near the ridge line using the positioning data D131 acquired in advance, and applying the straight line that best matches the distribution of the data value of the pixel using the least square method or the like. .

【0021】解析の結果に基づいて位置決めデータを設
定し直す(#24)。例えば、上述の手順で画像から抽
出した複数の境界線の交点を、3次元形状モデルの頂点
(稜線の交点)に対応づける。イメージリーダ50によ
って読み込んだ全ての画像について、3次元形状モデル
に対する位置決めを行う(#25)。
The positioning data is reset based on the analysis result (# 24). For example, the intersections of the plurality of boundary lines extracted from the image by the above-described procedure are associated with the vertices (the intersections of the ridges) of the three-dimensional shape model. All the images read by the image reader 50 are positioned with respect to the three-dimensional shape model (# 25).

【0022】3次元形状モデルに対する位置決めが終わ
ると、3次元形状モデルにおいて複数の画像と対応する
面があるか否かをチェックする(#26)。イエスであ
れば、画素単位のパターンマッチングによる複数の画像
の位置合わせを行う(#28)。位置合わせの結果を示
すデータD13は、画像合成部14でのテクスチャ生成
に用いられる。
When the positioning with respect to the three-dimensional shape model is completed, it is checked whether or not there are surfaces corresponding to a plurality of images in the three-dimensional shape model (# 26). If the answer is yes, the positions of a plurality of images are aligned by pattern matching in pixel units (# 28). The data D13 indicating the result of the alignment is used for the texture generation in the image synthesis unit 14.

【0023】複数の画像をそれらの間で対応する画素ど
うしが重なるように位置合わせをすることによって、画
像と3次元形状モデルとのズレが顕在化する場合があ
る。その場合には3次元形状モデルを修正する(#2
9,30)。3次元形状モデルの修正に伴って位置決め
データの修正が必要になれば、位置決めデータの修正も
行う(#31,32)。
By aligning a plurality of images so that pixels corresponding to each other overlap with each other, a deviation between the images and the three-dimensional shape model may become apparent. In that case, the three-dimensional shape model is modified (# 2
9, 30). If it is necessary to correct the positioning data along with the modification of the three-dimensional shape model, the positioning data is also modified (# 31, 32).

【0024】以下、複数の画像の合成によるテクスチャ
生成の手順を具体的に説明する。図5は画像と物体との
関係を示す図である。ここでは、図5(A)に示す略直
方体の建物Oが、3次元コンピュータグラフィックスに
よる表示対象の物体である。図5(B)に斜線を付した
横長の面S1の外観のテクスチャを、図5(C)及び
(D)に示す2つの画像G1,G2を用いて生成する。
画像G1は面S1に向かって右側の位置VP1から建物
Oを撮影した写真であり、画像G2は面S1に向かって
左側の位置VP2から建物Oを撮影した写真である。面
S1における図5(B)中の2本の破線の間の部分S1
aの外観は、両方の画像G1,G2に写っている。
The procedure of texture generation by combining a plurality of images will be specifically described below. FIG. 5 is a diagram showing a relationship between an image and an object. Here, the substantially rectangular parallelepiped building O shown in FIG. 5A is an object to be displayed by three-dimensional computer graphics. A texture of the appearance of the horizontally long surface S1 hatched in FIG. 5B is generated using the two images G1 and G2 shown in FIGS. 5C and 5D.
The image G1 is a photograph of the building O taken from the position VP1 on the right side toward the surface S1, and the image G2 is a photograph of the building O taken from the position VP2 on the left side toward the surface S1. A portion S1 between two broken lines in FIG. 5B on the surface S1
The appearance of a is shown in both images G1 and G2.

【0025】図6はディスプレイ30の表示例を示す図
であり、図3のステップ#11が終了した段階の画面
(スクリーン)31の内容を示している。なお、画面3
1には、図示しないアイコンやメッセージを表示する領
域が存在する。
FIG. 6 is a diagram showing a display example of the display 30, and shows the contents of the screen 31 at the stage when step # 11 of FIG. 3 is completed. Screen 3
1 has an area for displaying icons and messages (not shown).

【0026】画面31の下半部に、イメージリーダ50
によって読み取られた4つの画像G1〜4が並べられて
いる。画像G3,G4も建物Oを撮影した写真である。
画面31の上半部の左側に、直方体のワイヤフレームモ
デルが建物Oの現時点の3次元形状モデルMとして表示
されている。
The image reader 50 is provided in the lower half of the screen 31.
The four images G1 to 4 read by are arranged. Images G3 and G4 are also photographs of the building O.
On the left side of the upper half of the screen 31, a rectangular wire frame model is displayed as the current three-dimensional shape model M of the building O.

【0027】オペレータが位置決めモードを指定する
と、画面31内に位置決めのための領域(ウインドウ)
Awが設定される。領域Awには位置決め対象の画像と
3次元形状モデルMとが重ねて表示される。ただし、上
述のように数値入力によって位置決めデータを生成する
場合には、数値入力のための表が表示される。
When the operator designates the positioning mode, an area (window) for positioning in the screen 31.
Aw is set. In the area Aw, the image to be positioned and the three-dimensional shape model M are displayed in an overlapping manner. However, when the positioning data is generated by numerical input as described above, a table for numerical input is displayed.

【0028】図7は3次元形状モデルMに対する画像の
位置決めの一例を示す図、図8は3次元空間における3
次元形状モデルMと画像G1との位置関係の模式図であ
る。図7(A)の例では領域Awに画像G1と3次元形
状モデルMとが表示されている。実際には、3次元形状
モデルMは、画像G1との識別が容易なように適当な色
で表示されている。また、オペレータは、3次元形状モ
デルMの配置状態の理解を容易にするため、球のワイヤ
フレームモデルをガイドポリゴンとして表示させること
ができる。
FIG. 7 is a diagram showing an example of image positioning with respect to the three-dimensional shape model M, and FIG.
It is a schematic diagram of a positional relationship between a three-dimensional shape model M and an image G1. In the example of FIG. 7A, the image G1 and the three-dimensional shape model M are displayed in the area Aw. Actually, the three-dimensional shape model M is displayed in an appropriate color so that it can be easily distinguished from the image G1. Further, in order to facilitate understanding of the arrangement state of the three-dimensional shape model M, the operator can display the wire frame model of the sphere as a guide polygon.

【0029】図7における3次元形状モデルMの像は、
図8に示すようにグローバル座標空間(ワールド座標空
間ともいう)に配置された3次元形状モデルMの領域A
w(画面31)への投影像である。オペレータは、グロ
ーバル座標空間内での3次元形状モデルMの配置状態
(位置、傾き)の調整を行うとともに、3次元形状モデ
ルMの変形(幅、高さ、奥行きの相対比の変更)を行
い、図7(B)のように3次元形状モデルMの各辺と画
像G1中の建物Oの稜線とをできるだけ一致させる。こ
のように画像G1の情報に基づいて3次元形状モデルM
を修正する操作が、画像G1と3次元形状モデルMとを
位置決めする操作である。
The image of the three-dimensional shape model M in FIG.
A region A of the three-dimensional shape model M arranged in the global coordinate space (also referred to as the world coordinate space) as shown in FIG.
It is a projected image on w (screen 31). The operator adjusts the arrangement state (position, inclination) of the three-dimensional shape model M in the global coordinate space and deforms the three-dimensional shape model M (changes the relative ratio of width, height, and depth). As shown in FIG. 7B, each side of the three-dimensional shape model M and the ridgeline of the building O in the image G1 are made to match as much as possible. As described above, the three-dimensional shape model M based on the information of the image G1.
The operation of correcting the is the operation of positioning the image G1 and the three-dimensional shape model M.

【0030】ここで、重要な点は、画像G1では建物O
の面S1の一部の外観情報が欠けているので、図7
(B)のように3次元形状モデルMと画像G1中の建物
Oとを一致させた状態において、3次元形状モデルMの
一部分Maが画像G1からはみ出ている点である。つま
り、建物Oの面S1の水平方向については、3次元形状
モデルMの長さが必ずしも実際の建物Oの長さと対応し
ているとは限らない。
Here, the important point is that in the image G1, the building O
Since the appearance information of a part of the surface S1 of FIG.
As shown in (B), in the state where the three-dimensional shape model M and the building O in the image G1 are matched, a part Ma of the three-dimensional shape model M is protruding from the image G1. That is, in the horizontal direction of the surface S1 of the building O, the length of the three-dimensional geometric model M does not always correspond to the actual length of the building O.

【0031】手動位置決め部131は、オペレータによ
る位置決め操作に応じた位置決めデータD131を生成
する。図9は3次元形状モデルMの表現例を示す図、図
10は位置決めデータD131の表現例を示す図であ
る。
The manual positioning section 131 generates positioning data D131 according to the positioning operation by the operator. FIG. 9 is a diagram showing a representation example of the three-dimensional shape model M, and FIG. 10 is a diagram showing a representation example of the positioning data D131.

【0032】3次元形状モデルMは番号0〜5の6つの
ポリゴンで表現される。図9及び図10では便宜上ポリ
ゴンの番号を括弧つきの数字で示してある。ポリゴンは
いずれも四角形であり、それぞれに4つの頂点が対応す
る。各頂点は、3次元形状モデルMを定義するための直
交座標系であるローカル座標系(ボディ座標系ともい
う)の座標(x,y,z)で表現される。
The three-dimensional shape model M is represented by six polygons of numbers 0-5. In FIG. 9 and FIG. 10, the polygon numbers are indicated by parenthesized numbers for convenience. Each polygon is a quadrangle, and four vertices correspond to each. Each vertex is represented by coordinates (x, y, z) in a local coordinate system (also called a body coordinate system) which is an orthogonal coordinate system for defining the three-dimensional shape model M.

【0033】位置決めデータD131は、ポリゴン単位
で3次元形状モデルMの頂点と、画面31上で各頂点と
重なる画素のグローバル座標(X,Y)とを対応づけ
る。図9の例では、番号(1)及び(4)のポリゴンが
画像G1に対応づけられている。番号(4)のポリゴン
(以下、これをポリゴンQ4という)は建物Oの面S1
に対応する。
The positioning data D131 associates the vertices of the three-dimensional shape model M on a polygon-by-polygon basis with the global coordinates (X, Y) of the pixels overlapping each vertex on the screen 31. In the example of FIG. 9, the polygons with the numbers (1) and (4) are associated with the image G1. The polygon with the number (4) (hereinafter, referred to as polygon Q4) is the surface S1 of the building O.
Corresponding to.

【0034】オペレータは、画像G1と同様に、画像G
2を3次元形状モデルMに対して位置決めする。画像G
2においても建物Oの面S1の一部の外観情報が欠けて
いるので(図5参照)、画像G2の情報のみでは面S1
の水平方向の長さを確定することができない。
The operator can select the image G1 as in the case of the image G1.
Position 2 with respect to the three-dimensional shape model M. Image G
2 also lacks the appearance information of part of the surface S1 of the building O (see FIG. 5), and therefore the surface S1 can be obtained using only the information of the image G2.
Unable to determine the horizontal length of.

【0035】図11は画像合成によるテクスチャ生成の
模式図である。自動位置決め部132は、図11(A)
のようにポリゴンQ4に対して位置決めされた画像G
1,G2から、ポリゴンQ4に対応した部分画像G1
0,G20を抽出する〔図11(B)〕。このとき、透
視変換の演算手法を用いて、ポリゴンQ4の真正面の位
置を視点とする部分画像G10,G20を抽出する。
FIG. 11 is a schematic diagram of texture generation by image synthesis. The automatic positioning unit 132 is shown in FIG.
Image G positioned with respect to polygon Q4 as
1, G2 to partial image G1 corresponding to polygon Q4
0 and G20 are extracted [FIG. 11 (B)]. At this time, the partial images G10 and G20 whose viewpoint is the position in front of the polygon Q4 are extracted by using the calculation method of perspective transformation.

【0036】抽出の手順は次のとおりである。 画像G1,G2の焦点距離fを画像解析により求め
る。画像G1,G2の属性として撮影条件が画像データ
に付随している場合は、その撮影条件を参照して焦点距
離fを得ることができる。ポリゴンQ4の各頂点Pi
(iは頂点番号)のグローバル座標(XPi,YPi
Pi)を求める。グローバル座標系における3次元形
状モデルMの外接矩形を求める。合成対象の部分画像
G10,G20を外接矩形の相似形として設定する。
The extraction procedure is as follows. The focal length f of the images G1 and G2 is obtained by image analysis. When the image data has a shooting condition as an attribute of the images G1 and G2, the focal length f can be obtained by referring to the shooting condition. Each vertex Pi of the polygon Q4
(I is the vertex number) global coordinates (X Pi , Y Pi ,
Z Pi ). A circumscribed rectangle of the three-dimensional shape model M in the global coordinate system is obtained. The partial images G10 and G20 to be combined are set as similar shapes of circumscribing rectangles.

【0037】設定された部分画像G10,G20の垂
直方向の長さ(縦)をh、水平方向の長さ(横)をwと
すると、部分画像G10,G20の座標(Xs,Ys)
の各方向成分の値は、0<Xs<w,0<ys<hの範
囲内となる。座標(Xs,Ys)の画素として適用すべ
き画像G1,G2の画素の座標(Xi,Yi)は、 Xi=f×(Xs×Ux+Ys×Vx+Ox)/(Xs
×Uz+Ys×Vz+Oz) Yi=f×(Xs×Uy+Ys×Vy+Oy)/(Xs
×Uz+Ys×Vz+Oz) となる。ただし、Ox,Oy,Ozは外接矩形の左上の
点の座標に相当し、Ux,Uy,Uzは外接矩形の右上
の点から左上の点の座標を差し引いた値、Vx,Vy,
Vzは外接矩形の左下の点から左上の点の座標を差し引
いた値である。Xi,Yiが画像G1,G2からはみ出
た場合は、部分画像G10,G20における該当画素の
データ値は不定となる。
If the vertical length (vertical) of the set partial images G10 and G20 is h and the horizontal length (horizontal) is w, the coordinates (Xs, Ys) of the partial images G10 and G20 are set.
The value of each directional component of is within the range of 0 <Xs <w and 0 <ys <h. The coordinates (Xi, Yi) of the pixels of the images G1 and G2 to be applied as the pixel of the coordinates (Xs, Ys) are: Xi = f × (Xs × Ux + Ys × Vx + Ox) / (Xs
× Uz + Ys × Vz + Oz) Yi = f × (Xs × Uy + Ys × Vy + Oy) / (Xs
× Uz + Ys × Vz + Oz). However, Ox, Oy, Oz correspond to the coordinates of the upper left point of the circumscribed rectangle, and Ux, Uy, Uz are the values obtained by subtracting the coordinates of the upper left point from the upper right point of the circumscribed rectangle, Vx, Vy,
Vz is a value obtained by subtracting the coordinates of the upper left point from the lower left point of the circumscribed rectangle. When Xi and Yi are out of the images G1 and G2, the data value of the corresponding pixel in the partial images G10 and G20 is indefinite.

【0038】図11(A)において、ポリゴンQ4は4
つの頂点P0,P4,P6,P2で表現されている。こ
のポリゴンQ4に対する位置決めデータD131に基づ
いて2つの部分画像G10,G20を合成すると、図1
1(D)のように水平方向(図の左右方向)の一部分r
で画像が乱れてしまう。これは、上述したように画像G
1,G2の外観情報の欠損に起因して3次元形状モデル
Mの寸法の一部(頂点P0と頂点P4との距離)が確定
されていないからである。
In FIG. 11A, the polygon Q4 is 4
It is represented by one vertex P0, P4, P6, P2. When the two partial images G10 and G20 are combined based on the positioning data D131 for this polygon Q4, FIG.
A part r in the horizontal direction (horizontal direction in the figure) such as 1 (D)
The image is disturbed by. This is the image G as described above.
This is because part of the dimensions of the three-dimensional shape model M (the distance between the vertices P0 and P4) has not been determined due to the loss of the appearance information of 1 and G2.

【0039】自動位置決め部132は、抽出した部分画
像G10,G20に対して画素単位のパターンマッチン
グを行い、建物Oの同一部分に対応した画素どうしが重
なるように部分画像G10,G20を正しく位置合わせ
する〔図11(C)〕。部分画像G10,G20の抽出
に際して視点が揃えられているので、2次元画像のパタ
ーンマッチングによる高速の位置合わせが可能である。
パターンマッチングに際しては、位置決めデータD13
1に基づいて画像G1,G2の重複部分に注目し、画像
G1,G2間の全体的な明るさの差を求める。そして、
その差に応じて画素値を補正することにより画像G1,
G2間の全体的な明るさを揃えた上で、画像G1,G2
の画素値を比較する。
The automatic positioning unit 132 performs pattern matching in pixel units on the extracted partial images G10 and G20, and correctly aligns the partial images G10 and G20 so that the pixels corresponding to the same part of the building O overlap. (FIG. 11C). Since the viewpoints are aligned when extracting the partial images G10 and G20, high-speed alignment can be performed by pattern matching of the two-dimensional image.
For pattern matching, positioning data D13
Focusing on the overlapping portion of the images G1 and G2 based on 1, the overall difference in brightness between the images G1 and G2 is obtained. And
By correcting the pixel value according to the difference, the image G1,
After making the overall brightness between G2 uniform,
The pixel values of are compared.

【0040】画像合成部14は、位置合わせの結果を示
す画像間の位置合わせデータD13に基づいてポリゴン
Q4に貼り付ける1つのテクスチャD14を生成する。
画像G1,G2の合成に際しては、各画像G1,G2の
画素値の平均値を合成画像の画素値とする。画像G1,
G2の撮影の露出条件などに応じて平均化に際して適当
な重み付けを行えば、より高品位のテクスチャD14を
得ることができる。
The image synthesizing unit 14 generates one texture D14 to be attached to the polygon Q4 based on the alignment data D13 between images showing the alignment result.
When the images G1 and G2 are combined, the average value of the pixel values of the images G1 and G2 is set as the pixel value of the combined image. Image G1,
Higher-quality texture D14 can be obtained by performing appropriate weighting in the averaging in accordance with the exposure condition of G2 shooting.

【0041】[0041]

【発明の効果】請求項1乃至請求項4の発明によれば、
複数の2次元画像を正しく位置合わせして合成すること
ができ、高品位のテクスチャを生成することができる。
According to the first to fourth aspects of the present invention,
A plurality of two-dimensional images can be properly aligned and combined, and a high-quality texture can be generated.

【0042】請求項2の発明によれば、複数の2次元画
像の位置合わせを容易化することができる。請求項4の
発明によれば、テクスチャとそれに合致した3次元形状
モデルとを用いて違和感のない物体の表現が可能にな
る。
According to the invention of claim 2, it is possible to facilitate the alignment of a plurality of two-dimensional images. According to the invention of claim 4, it is possible to represent an object without a sense of discomfort by using a texture and a three-dimensional shape model matching the texture.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るテクスチャ生成システムの構成図
である。
FIG. 1 is a configuration diagram of a texture generation system according to the present invention.

【図2】CPUの機能ブロック図である。FIG. 2 is a functional block diagram of a CPU.

【図3】手動位置決め部の動作を示すフローチャートで
ある。
FIG. 3 is a flowchart showing an operation of a manual positioning unit.

【図4】自動位置決め部の動作を示すフローチャートで
ある。
FIG. 4 is a flowchart showing an operation of an automatic positioning unit.

【図5】画像と物体との関係を示す図である。FIG. 5 is a diagram showing a relationship between an image and an object.

【図6】ディスプレイの表示例を示す図である。FIG. 6 is a diagram showing a display example of a display.

【図7】3次元形状モデルに対する画像の位置決めの一
例を示す図である。
FIG. 7 is a diagram showing an example of image positioning with respect to a three-dimensional shape model.

【図8】3次元空間における3次元形状モデルと画像と
の位置関係の模式図である。
FIG. 8 is a schematic diagram of a positional relationship between a three-dimensional shape model and an image in a three-dimensional space.

【図9】3次元形状モデルの表現例を示す図である。FIG. 9 is a diagram showing a representation example of a three-dimensional shape model.

【図10】位置決めデータの表現例を示す図である。FIG. 10 is a diagram showing an example of representation of positioning data.

【図11】画像合成によるテクスチャ生成の模式図であ
る。
FIG. 11 is a schematic diagram of texture generation by image synthesis.

【符号の説明】[Explanation of symbols]

1 テクスチャ生成システム 13 位置決め部(位置決めする手段) 14 画像合成部(テクスチャを生成する手段) 132 自動位置決め部(実写画像の位置合わせをする
手段) D14 テクスチャデータ(テクスチャ) D131 位置決めデータ(位置決め結果) G1 画像(第1画像) G2 画像(第2画像) G10,G20 部分画像 M 3次元形状モデル O 物体 Q4 ポリゴン S1a 重複部分 VP1 位置(第1の視点) VP2 位置(第2の視点)
1 Texture Generation System 13 Positioning Unit (Means for Positioning) 14 Image Compositing Unit (Means for Generating Texture) 132 Automatic Positioning Unit (Means for Positioning Real Images) D14 Texture Data (Texture) D131 Positioning Data (Positioning Result) G1 image (first image) G2 image (second image) G10, G20 partial image M three-dimensional shape model O object Q4 polygon S1a overlapping part VP1 position (first viewpoint) VP2 position (second viewpoint)

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】テクスチャとポリゴン形式の3次元形状モ
デルとを組み合わせて物体を画面上に立体的に表示する
3次元コンピュータグラフィックスのためのテクスチャ
生成方法であって、 第1の視点からみた前記物体を示す第1画像と、当該物
体の3次元形状モデルとを位置決めし、 第2の視点からみた前記物体を示し且つ当該物体の内の
前記第1画像の一部が対応する重複部分の視覚情報を含
む第2画像と、前記3次元形状モデルとを位置決めし、 前記3次元モデルにおける前記重複部分に対応したポリ
ゴンに対する位置決め結果に基づいて、前記第1画像及
び第2画像の両方から前記ポリゴンに対応した部分画像
を抽出し、 前記第1画像から抽出した部分画像と前記第2画像から
抽出した部分画像とを、画素単位のパターンマッチング
を行って対応する画素どうしが重なるように位置合わせ
することによって、前記ポリゴンに貼り付けるテクスチ
ャを生成することを特徴とするテクスチャ生成方法。
1. A texture generation method for three-dimensional computer graphics, in which a texture and a three-dimensional shape model in a polygon format are combined to stereoscopically display an object on a screen, the method being viewed from a first viewpoint. Positioning a first image showing an object and a three-dimensional shape model of the object, showing the object from a second viewpoint, and visualizing an overlapping portion corresponding to a part of the first image of the object. A second image including information and the three-dimensional shape model are positioned, and based on the positioning result with respect to the polygon corresponding to the overlapping portion in the three-dimensional model, the polygon is calculated from both the first image and the second image. And a partial image extracted from the first image and a partial image extracted from the second image are subjected to pattern matching in pixel units. The texture generation method is characterized in that a texture to be attached to the polygon is generated by performing the above-mentioned process and aligning corresponding pixels so as to overlap each other.
【請求項2】前記第1画像及び第2画像の両方から前記
ポリゴンに対応した部分画像を抽出する際に、逆透視変
換演算に基づいて互いに同一の視点からみた2次元画像
として抽出する請求項1記載のテクスチャ生成方法。
2. When extracting partial images corresponding to the polygon from both the first image and the second image, they are extracted as two-dimensional images viewed from the same viewpoint based on inverse perspective transformation calculation. 1. The texture generation method described in 1.
【請求項3】物体の3次元形状モデルに貼り付けるテク
スチャを、前記物体の実写画像に基づいて生成する機能
を有した3次元コンピュータグラフィックスのためのテ
クスチャ生成システムであって、 前記実写画像を前記3次元形状モデルに対して位置決め
する手段と、 前記3次元形状モデルの1つのポリゴンに貼り付けるテ
クスチャの生成に複数の前記実写画像が必要な場合に、
当該ポリゴンに対する位置決め結果に基づいて画素単位
のパターンマッチングを行って、対応する画素どうしが
重なるように当該複数の実写画像の位置合わせをする手
段と、 位置合わせがなされた前記複数の実写画像を合成して前
記テクスチャを生成する手段と、 を有したことを特徴とするテクスチャ生成システム。
3. A texture generation system for three-dimensional computer graphics, which has a function of generating a texture to be attached to a three-dimensional shape model of an object based on a photographed image of the object, A means for positioning with respect to the three-dimensional shape model; and a case where a plurality of photographed images are required to generate a texture to be attached to one polygon of the three-dimensional shape model,
Pattern matching is performed on a pixel-by-pixel basis based on the positioning result for the polygon, and the means for aligning the plurality of real shot images so that the corresponding pixels overlap each other, and the plurality of real shot images that have been aligned are combined. And a means for generating the texture, and a texture generation system.
【請求項4】前記複数の実写画像の位置合わせの結果に
応じて、前記3次元形状モデルを修正する機能を有した
請求項3記載のテクスチャ生成システム。
4. The texture generation system according to claim 3, further comprising a function of correcting the three-dimensional shape model according to a result of alignment of the plurality of real images.
JP7253054A 1995-09-29 1995-09-29 Method and system for texture generation Pending JPH0997344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7253054A JPH0997344A (en) 1995-09-29 1995-09-29 Method and system for texture generation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7253054A JPH0997344A (en) 1995-09-29 1995-09-29 Method and system for texture generation

Publications (1)

Publication Number Publication Date
JPH0997344A true JPH0997344A (en) 1997-04-08

Family

ID=17245848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7253054A Pending JPH0997344A (en) 1995-09-29 1995-09-29 Method and system for texture generation

Country Status (1)

Country Link
JP (1) JPH0997344A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998050888A3 (en) * 1997-05-02 1999-02-04 Koninkl Philips Electronics Nv Method of displaying an output image of a scene from a freely selectable viewpoint
JP2000163590A (en) * 1998-12-01 2000-06-16 Fujitsu Ltd Conversion device and method for three-dimensional model
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2001109907A (en) * 1999-10-04 2001-04-20 Sharp Corp Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program
US6396491B2 (en) 1998-08-20 2002-05-28 Fujitsu Limited Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
JP2002366972A (en) * 2001-06-08 2002-12-20 Univ Tokyo Pseudo three-dimensional space representation system, pseudo three-dimensional space construction system, game system and electronic map providing system
JP2003067778A (en) * 2001-08-28 2003-03-07 Sony Corp Three-dimensional image processor, three-dimensional image processing method, and storage medium
US6584273B1 (en) 1998-06-27 2003-06-24 Koninklijke Philips Electronics N.V. Frame-accurate editing of encoded A/V sequences
JP2007172533A (en) * 2005-12-26 2007-07-05 Toyota Motor Corp Image processing device and image processing method
JP2009044730A (en) * 2007-07-16 2009-02-26 Trw Automotive Us Llc Method and apparatus for distortion correction and image enhancing of vehicle rear viewing system
JP2011018346A (en) * 2002-07-10 2011-01-27 Harman Becker Automotive Systems Gmbh System for texturizing electronic representation of object
WO2014199860A1 (en) * 2013-06-14 2014-12-18 株式会社ジオ技術研究所 Method for generating texture-image data
JP2017182302A (en) * 2016-03-29 2017-10-05 富士通株式会社 Image processing program, image processing apparatus, and image processing method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7292238B1 (en) 1997-05-02 2007-11-06 Koninklijke Philips Electronics N. V. Method of displaying an output image of a scene from a freely selectable viewpoint
WO1998050888A3 (en) * 1997-05-02 1999-02-04 Koninkl Philips Electronics Nv Method of displaying an output image of a scene from a freely selectable viewpoint
US6584273B1 (en) 1998-06-27 2003-06-24 Koninklijke Philips Electronics N.V. Frame-accurate editing of encoded A/V sequences
US6396491B2 (en) 1998-08-20 2002-05-28 Fujitsu Limited Method and apparatus for reproducing a shape and a pattern in a three-dimensional scene
JP2000163590A (en) * 1998-12-01 2000-06-16 Fujitsu Ltd Conversion device and method for three-dimensional model
JP2000227963A (en) * 1999-02-08 2000-08-15 Nippon Telegr & Teleph Corp <Ntt> Device and method for preparing image with distance information and recording medium recording program for the method
JP2001109907A (en) * 1999-10-04 2001-04-20 Sharp Corp Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program
US6972757B2 (en) 2001-06-08 2005-12-06 President Of The University Of Tokyo Pseudo 3-D space representation system, pseudo 3-D space constructing system, game system and electronic map providing system
JP2002366972A (en) * 2001-06-08 2002-12-20 Univ Tokyo Pseudo three-dimensional space representation system, pseudo three-dimensional space construction system, game system and electronic map providing system
JP2003067778A (en) * 2001-08-28 2003-03-07 Sony Corp Three-dimensional image processor, three-dimensional image processing method, and storage medium
JP2011018346A (en) * 2002-07-10 2011-01-27 Harman Becker Automotive Systems Gmbh System for texturizing electronic representation of object
JP2007172533A (en) * 2005-12-26 2007-07-05 Toyota Motor Corp Image processing device and image processing method
JP2009044730A (en) * 2007-07-16 2009-02-26 Trw Automotive Us Llc Method and apparatus for distortion correction and image enhancing of vehicle rear viewing system
JP4695167B2 (en) * 2007-07-16 2011-06-08 ティーアールダブリュー・オートモーティブ・ユーエス・エルエルシー Method and apparatus for correcting distortion and enhancing an image in a vehicle rear view system
WO2014199860A1 (en) * 2013-06-14 2014-12-18 株式会社ジオ技術研究所 Method for generating texture-image data
JP2015001792A (en) * 2013-06-14 2015-01-05 株式会社ジオ技術研究所 Method for generating texture image data
JP2017182302A (en) * 2016-03-29 2017-10-05 富士通株式会社 Image processing program, image processing apparatus, and image processing method

Similar Documents

Publication Publication Date Title
JP5896424B2 (en) Omnidirectional image editing program and omnidirectional image editing apparatus
JP3786132B2 (en) Game image processing program and storage medium
JP3148045B2 (en) 3D object CG creation device
JP3030485B2 (en) Three-dimensional shape extraction method and apparatus
US20040183798A1 (en) System and process for geometry replacement
GB2256567A (en) Modelling system for imaging three-dimensional models
US7277571B2 (en) Effective image processing, apparatus and method in virtual three-dimensional space
US6683606B1 (en) Virtual architecture experience method and apparatus
JPH0997344A (en) Method and system for texture generation
US5870099A (en) Method of supporting perspective projection
JPH09319896A (en) Three-dimensional image generating device
JP3352982B2 (en) Rendering method and device, game device, and computer-readable recording medium for storing program for rendering three-dimensional model
JPH10198822A (en) Image compositing device
JPH09330423A (en) Three-dimensional shape data transforming device
JP2003209769A (en) Image generating apparatus and method
JP2017059041A (en) Image processing device, image processing method, and program
JP3429400B2 (en) Modeling system
JP2832463B2 (en) 3D model reconstruction method and display method
JPH11328443A (en) System and method for generating three-dimensional panorama image and recording media therefor
JP3577202B2 (en) Video production equipment
JP3002972B2 (en) 3D image processing device
US9584736B2 (en) Automatic repositioning of video elements
JP2005107968A (en) Image display device and method, and information processing method
JP5673293B2 (en) Image composition method, image composition apparatus, program, and recording medium
US20050119049A1 (en) Program for projecting an image onto a character in a game, game machine incorporating the program, and storage medium having the program stored thereon

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021008