JP2000242810A - Method and device for texture mapping, and recording medium - Google Patents

Method and device for texture mapping, and recording medium

Info

Publication number
JP2000242810A
JP2000242810A JP4795099A JP4795099A JP2000242810A JP 2000242810 A JP2000242810 A JP 2000242810A JP 4795099 A JP4795099 A JP 4795099A JP 4795099 A JP4795099 A JP 4795099A JP 2000242810 A JP2000242810 A JP 2000242810A
Authority
JP
Japan
Prior art keywords
texture
image
video
video image
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4795099A
Other languages
Japanese (ja)
Other versions
JP3292368B2 (en
Inventor
Shoichi Horiguchi
賞一 堀口
Naoko Uemoto
尚子 植本
Shigeru Nagai
茂 長井
Isao Miyagawa
勲 宮川
Toshiaki Sugimura
利明 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP4795099A priority Critical patent/JP3292368B2/en
Publication of JP2000242810A publication Critical patent/JP2000242810A/en
Application granted granted Critical
Publication of JP3292368B2 publication Critical patent/JP3292368B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically map optimum texture to respective polygons of a three-dimensional structure model by selecting a video image having the optimum texture, cutting the texture out of the video image, and automatically pasting the texture on the corresponding polygon. SOLUTION: The three-dimensional structure model is read in (SO3) and one object polygon is selected from the read-in three-dimensional structure model (SO4). Further, a video image, etc., which does not have the texture corresponding to the selected object polygon is excluded from search images, which are narrowed down (SO5). The video image having the best texture is selected out of the narrowed-down search images (SO6) and read in (SO7), and the texturecorresponding to the corresponding polygon is cut out of the read-in video image (SO8) and pasted on the object polygon (SO9).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、3次元仮想空間の
構築技術に関し、特に、3次元構造モデルに対して実写
画像をテクスチャマッピングする方法及び装置ならびに
テクスチャマッピング方法の処理手順をコンピュータが
実行可能なプログラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for constructing a three-dimensional virtual space, and more particularly to a computer-executable method and apparatus for texture-mapping a real image to a three-dimensional structural model and a processing procedure of the texture mapping method. The present invention relates to a recording medium on which various programs are recorded.

【0002】[0002]

【従来の技術】近年、実写画像を用いて3次元仮想環境
を生成する研究が盛んである。我々は都市景観の3次元
再現を目指し研究を行っている。都市景観を再現する場
合、複雑で数多くの建造物を広範囲にわたり再現する必
要があり、これらを効率的に精度良く再現しなければな
らない。
2. Description of the Related Art In recent years, studies for generating a three-dimensional virtual environment using a real image have been actively conducted. We are conducting research aiming at three-dimensional reproduction of urban landscapes. When reproducing cityscapes, it is necessary to reproduce a large number of complex and numerous buildings over a wide range, and these must be reproduced efficiently and accurately.

【0003】従来は、対象とする構造物をカメラで撮影
し、コンピュータ・グラフイック・エディタを用いて3
次元構造モデルの各ポリゴンに対して、撮影画像から切
り取ったテクスチャを熟練者が1枚づつ貼り付けてい
た。さらに、必要に応じて撮影画像をデジタル化した
り、撮影画像の整形、修正、編集を熟練者が実施してい
た。
Conventionally, a target object is photographed with a camera, and the object is viewed using a computer graphic editor.
A skilled worker has pasted a texture cut out from a captured image one by one to each polygon of the three-dimensional structure model. Furthermore, if necessary, a photographed image is digitized, and a photographed image is shaped, modified, and edited by a skilled person.

【0004】[0004]

【発明が解決しようとする課題】テクスチャ点の実写画
像をカメラで撮影する作業、撮影画像の中から最適なテ
クスチャが映っている画像を選択する作業、この選択し
た画像からテクスチャを切り取り、編集し、3次元構造
モデルの各ポリゴンに貼り付ける作業は、いずれも熟練
を要すると共に膨大な時間を必要とする問題があった。
SUMMARY OF THE INVENTION A task of photographing a real image of a texture point with a camera, a task of selecting an image showing an optimal texture from a photographed image, and cutting and editing a texture from the selected image. There is a problem that the work of pasting to each polygon of the three-dimensional structure model requires skill and requires an enormous amount of time.

【0005】また、1枚1枚カメラで撮影するため、あ
らゆるカメラの向き、位置から実写画像を取得すること
は非常に困難な作業であり、取得できないテクスチャも
少なくないという問題があった。
[0005] In addition, since images are taken one by one, it is extremely difficult to obtain a real image from all camera orientations and positions, and there is a problem that many textures cannot be obtained.

【0006】本発明の目的は、3次元構造モデルの各ポ
リゴンに最適なテクスチャを自動的にマッピングするこ
とが可能な技術を提供することにある。
An object of the present invention is to provide a technique capable of automatically mapping an optimal texture to each polygon of a three-dimensional structure model.

【0007】本発明の他の目的は、従来のテクスチャ点
の実写画像をカメラで撮影する作業、撮影画像の中から
最適なテクスチャが映っている画像を選択する作業、こ
の選択した画像からテクスチャを切り取り、編集し、3
次元構造モデルの各ポリゴンに貼り付ける作業量、及び
作業時間を大幅に削減して短縮することが可能な技術を
提供することにある。
Another object of the present invention is to perform a conventional operation of photographing a real image of a texture point with a camera, an operation of selecting an image on which an optimal texture appears from a photographed image, and a method of extracting a texture from the selected image. Cut, edit, 3
An object of the present invention is to provide a technique capable of greatly reducing and reducing the amount of work to be attached to each polygon of a dimensional structure model and the work time.

【0008】本発明の他の目的は、大量の画像の中から
一意に最適なテクスチャを容易に取得することが可能な
技術を提供することにある。本発明の前記ならびにその
他の目的と新規な特徴は、本明細書の記述及び添付図面
によって明らかになるであろう。
Another object of the present invention is to provide a technique capable of easily obtaining a uniquely optimal texture from a large number of images. The above and other objects and novel features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

【0009】[0009]

【課題を解決するための手段】本願において開示される
発明のうち、代表的なものの概要を簡単に説明すれば、
以下のとおりである。 (1)位置情報を有する3次元構造モデルに対して、カ
メラで撮影した実写画像を自動的にテクスチャマッピン
グする方法において、実写撮影時のビデオカメラの位置
及び姿勢データを読み込み、この読み込まれたデータか
ら実写撮影時のビデオカメラの位置及び姿勢を推定し、
前記3次元構造モデルから対象ポリゴンを選択し、この
選択された対象ポリゴンとビデオカメラとの相対位置関
係から探索するビデオ画像の範囲を絞り込み、この絞り
込んだビデオ画像の中から最適なテクスチャが映ってい
るビデオ画像を選択し、この選択したビデオ画像からテ
クスチャを切り取り、この切り取ったテクスチャを対応
するポリゴンに自動的に貼り付ける方法である。
SUMMARY OF THE INVENTION Among the inventions disclosed in the present application, the outline of a representative one will be briefly described.
It is as follows. (1) In a method of automatically texture-mapping a photographed image taken by a camera with respect to a three-dimensional structure model having position information, position and orientation data of a video camera at the time of photographing is read, and the read data is read. Estimate the position and orientation of the video camera at the time of live-action shooting from
A target polygon is selected from the three-dimensional structure model, a range of a video image to be searched is narrowed based on a relative positional relationship between the selected target polygon and a video camera, and an optimal texture is reflected from the narrowed video image. In this method, a selected video image is selected, a texture is cut from the selected video image, and the cut texture is automatically pasted to a corresponding polygon.

【0010】(2)前記(1)のテクスチャマッピング
方法において、実写撮影時のビデオカメラの位置及び姿
勢を推定する処理手順は、ある一定間隔で推定した高精
度のカメラ位置・姿勢データを読み込み、この読み込ま
れたカメラ位置・姿勢データ間に存在するビデオカメラ
の画像のフレーム数を算出し、該当するフレームに対応
するビデオ画像を撮影したビデオカメラの位置・姿勢情
報(X、Y、Z、κ、φ、ω)を計算し、この計算され
た結果の値をビデオ画像情報に格納し、前記一定間隔で
推定したカメラ位置・姿勢データの全てに対して前記処
理手順が終了するまで繰り返す方法である。
(2) In the texture mapping method of (1), the processing procedure for estimating the position and orientation of the video camera at the time of actual photographing includes reading the highly accurate camera position and orientation data estimated at certain intervals, The number of frames of the video camera image existing between the read camera position / posture data is calculated, and the position / posture information (X, Y, Z, κ) of the video camera that has captured the video image corresponding to the relevant frame is calculated. , Φ, ω), store the calculated value in the video image information, and repeat until the processing procedure is completed for all of the camera position / posture data estimated at the constant interval. is there.

【0011】(3)前記(1)又は(2)のテクスチャ
マッピング方法において、3次元構造モデルとビデオカ
メラとの相対位置関係から探索するビデオ画像の範囲を
絞り込む処理手順は、ビデオカメラの位置・姿勢データ
を格納したビデオ画像情報からデータを1つ読み込み、
選出した対象ポリゴンの1つの頂点を選択し、前記選択
された頂点と撮影点との距離を計算し、該頂点に対応す
るテクスチャ面の頂点座標を計算し、テクスチャ情報と
して画像番号、頂点番号、座標、撮影点との距離を格納
し、前記処理手順を全ての頂点に対して行い、ビデオ画
像内にテクスチャの全部が映っている可能性のある画像
とテクスチャの全部もしくは一部しか映っていない画像
とを区別し、テクスチャの全部もしくは一部しか映って
いない画像をテクスチャ情報から削除し、ビデオ画像内
にテクスチャの全部が映っている可能性のある画像に対
して、対象ポリゴンの重心から一定距離内に含まれる1
つのポリゴンを選出し、この選出ポリゴン内の1つの頂
点を選出し、この選出された頂点に対応するビデオ画像
面上の点の座標を計算し、当該対応点が対象としている
テクスチャ面内に含まれているか否かを調ベ、対応点が
テクスチャ面内にある場合、前記選出した頂点と撮影点
との距離L1を計算し、対象ポリゴンの重心と撮影点と
の距離L2を計算し、当該両者を比較し、前記距離L1
が短い場合には、現在、対象としているビデオ画像に関
する情報をテクスチャ情報の中から削除し、全ての頂点
に対して前記処理を行い、前記処理を対象ポリゴンの重
心から一定距離内の全てのポリゴンに対して処理する方
法である。
(3) In the texture mapping method of (1) or (2), the processing procedure for narrowing down the range of the video image to be searched based on the relative positional relationship between the three-dimensional structure model and the video camera is as follows. One data is read from the video image information storing the posture data,
One vertex of the selected target polygon is selected, a distance between the selected vertex and the photographing point is calculated, vertex coordinates of a texture surface corresponding to the selected vertex are calculated, and an image number, a vertex number, The coordinates, the distance to the photographing point are stored, and the above-described processing procedure is performed on all vertices, and all or only a part of the texture and the image may be displayed in the video image. Distinguishes from the image, removes the image that shows all or only part of the texture from the texture information, and maintains the center of gravity of the target polygon for the image that may have the whole texture in the video image 1 included in the distance
One polygon is selected, one vertex in the selected polygon is selected, the coordinates of a point on the video image plane corresponding to the selected vertex are calculated, and the corresponding point is included in the target texture plane. If the corresponding point is within the texture plane, the distance L1 between the selected vertex and the shooting point is calculated, and the distance L2 between the center of gravity of the target polygon and the shooting point is calculated. By comparing the two, the distance L1
Is shorter than the texture information, the information relating to the current video image is deleted from the texture information, the above processing is performed on all vertices, and the processing is performed on all polygons within a certain distance from the center of gravity of the target polygon. This is a method for processing.

【0012】(4)前記(1)乃至(3)のうちいずれ
か1つのテクスチャマッピング方法において、前記ビデ
オ画像選択の処理手順は、テクスチャ情報から1つのデ
ータを読み込み、テクスチャ面の面積を計算し、テクス
チャ面の重心と主点との距離を計算し、この計算したテ
クスチャ面の面積及びテクスチャ面の重心と主点との距
離とを比較し、当該面積が最大であるビデオ画像、また
は当該面積が最大であるビデオ画像が複数ある場合は前
記距離が最小のビデオ画像を一意に選択する方法であ
る。
(4) In the texture mapping method of any one of (1) to (3), the video image selection processing procedure reads one piece of data from texture information and calculates an area of a texture surface. Calculate the distance between the center of gravity of the textured surface and the principal point, compare the calculated area of the textured surface and the distance between the center of gravity of the textured surface and the principal point, and obtain the video image having the largest area, or the area concerned. In the case where there are a plurality of video images having the maximum distance, the video image having the minimum distance is uniquely selected.

【0013】(5)前記(1)のテクスチャマッピング
方法における全処理の手順をコンピュータに実行させる
ためのプログラムを記録した記録媒体である。 (6)前記(2)のテクスチャマッピング方法における
全処理の手順をコンピュータに実行させるためのプログ
ラムを記録した記録媒体である。
(5) A recording medium for recording a program for causing a computer to execute all the procedures in the texture mapping method of (1). (6) A recording medium storing a program for causing a computer to execute all the procedures in the texture mapping method of (2).

【0014】(7)前記(3)のテクスチャマッピング
方法における全処理の手順をコンピュータに実行させる
ためのプログラムを記録した記録媒体である。 (8)前記(4)のテクスチャマッピング方法における
全処理の手順をコンピュータに実行させるためのプログ
ラムを記録した記録媒体である。
(7) A recording medium for recording a program for causing a computer to execute all procedures in the texture mapping method of (3). (8) A recording medium storing a program for causing a computer to execute all the procedures in the texture mapping method of (4).

【0015】(9)一時記憶手段を有する中央演算処理
装置と、ビデオカメラで撮影した実写画像が格納されて
いる外部記憶装置とを備え、3次元構造モデルに対し
て、ビデオカメラで撮影した実写画像を自動的にテクス
チャマッピングするテクスチャマッピング装置であっ
て、前記外部記憶装置からビデオカメラで撮影した実写
画像から位置・姿勢データを読み出す位置・姿勢データ
読み出し手段と、実写撮影時のビデオカメラの位置及び
姿勢を推定する位置・姿勢推定手段と、3次元構造モデ
ルとビデオカメラとの相対位置関係から探索ビデオ画像
の範囲を絞り込む探索ビデオ画像範囲絞り込み手段と、
この探索ビデオ画像範囲絞り込み手段により絞り込んだ
ビデオ画像の中から最適なテクスチャが映っているビデ
オ画像を選択するビデオ画像選択手段と、このビデオ画
像選択手段により選択されたビデオ画像からテクスチャ
を切り取るテクスチャ切り取り手段と、このテクスチャ
切り取り手段により切り取ったテクスチャを対応するポ
リゴンに自動的に貼り付ける貼り付け手段とを具備する
装置である。
(9) A central processing unit having a temporary storage means, and an external storage device in which a real image taken by a video camera is stored. A texture mapping apparatus for automatically texture-mapping an image, a position / posture data reading means for reading position / posture data from a photographed image taken by a video camera from the external storage device, and a position of the video camera at the time of photographing the photographed image. Position / posture estimating means for estimating the position and orientation, and a search video image range narrowing means for narrowing the range of the search video image from the relative positional relationship between the three-dimensional structure model and the video camera;
A video image selecting means for selecting a video image on which an optimal texture is displayed from the video images narrowed down by the search video image range narrowing means, and a texture cutout for cutting a texture from the video image selected by the video image selecting means And a pasting means for automatically pasting a texture cut by the texture cutting means to a corresponding polygon.

【0016】(10)前記(9)のテクスチャマッピン
グ装置において、高解像度カメラを併設したビデオカメ
ラで撮影した実写画像を外部記憶装置に格納し、高解像
度カメラの位置及び姿勢からビデオカメラの位置及び姿
勢を取得する装置である。 (11)前記(9)又は(10)のテクスチャマッピン
グ装置を、自動車もしくはヘリコプターに搭載し、ビデ
オカメラで撮影した実写画像を外部記憶装置に格納し、
高解像度カメラの位置及び姿勢からビデオカメラの位置
及び姿勢を取得する装置である。
(10) In the texture mapping apparatus of (9), a real image taken by a video camera provided with a high-resolution camera is stored in an external storage device, and the position and orientation of the video camera are determined based on the position and orientation of the high-resolution camera. It is a device that acquires the posture. (11) The texture mapping device according to (9) or (10) is mounted on an automobile or a helicopter, and a photographed image captured by a video camera is stored in an external storage device.
This is a device that acquires the position and orientation of the video camera from the position and orientation of the high-resolution camera.

【0017】以下、本発明について、図面を参照して実
施の形態(実施例)とともに詳細に説明する。なお、実
施例を説明するための全図において、同一機能を有する
ものは同一符号を付け、その繰り返しの説明は省略す
る。
Hereinafter, the present invention will be described in detail together with embodiments (examples) with reference to the drawings. In all the drawings for describing the embodiments, components having the same function are denoted by the same reference numerals, and their repeated description will be omitted.

【0018】[0018]

【発明の実施の形態】(実施例1)図1は、本発明によ
る実施例1のテクスチャマッピング装置の概略構成を示
すブロック構成図である。本実施例1のテクスチャマッ
ピング装置は、位置情報を有する3次元構造モデルに対
して、ビデオカメラで撮影した実写画像を自動的にテク
スチャマッピングする装置であり、図1に示すように、
外部記憶装置1、中央演算処理装置(CPU)2、及び
一時記憶領域を有する内部記憶装置3から構成されてい
る。
(Embodiment 1) FIG. 1 is a block diagram showing a schematic configuration of a texture mapping apparatus according to Embodiment 1 of the present invention. The texture mapping device according to the first embodiment is a device that automatically texture-maps a photographed image captured by a video camera with respect to a three-dimensional structure model having position information, as shown in FIG.
It comprises an external storage device 1, a central processing unit (CPU) 2, and an internal storage device 3 having a temporary storage area.

【0019】前記外郭記憶装置1は、カメラ位置・姿勢
データ格納領域101、3次元構造モデル格納領域10
2、ビデオ映像格納領域103、及びテクスチャ付3次
元構造モデル格納領域104を有する。
The external storage device 1 includes a camera position / posture data storage area 101, a three-dimensional structure model storage area 10
2, a video image storage area 103 and a textured three-dimensional structure model storage area 104.

【0020】前記中央演算処理装置2は、前述の領域1
01、102、103に格納されている各種データを外
部記憶装置1から読み出すデータ読み出し手段201、
カメラ位置・姿勢データ格納領域101から読み出した
カメラ位置・姿勢データに基づいてビデオカメラ撮影時
の位置、姿勢を推定するビデオカメラ位置・姿勢推定手
段202、3次元構造モデル格納領域102から読み出
した3次元構造モデルと、前記ビデオカメラ位置・姿勢
推定手段202で推定したビデオカメラ位置・姿勢デー
タとを用いてテクスチャ探索を行うビデオ画像の範囲を
絞り込む探索画像絞り込み手段203、この絞り込む探
索画像絞り込み手段203により絞り込んたビデオ画象
の中から最適なテクスチャを選択するテクスチャ選択手
投204、ビデオ画像格納領域103から読み出したビ
デオ映像から当該テクスチャを切り取るテクスチャ切取
り手段205、3次元構造モデル格納領域102から読
み出した3次元構造モデルの各ポリゴンに当該切り取っ
たテクスチャを貼り付けるテクスチャマッピング手段2
06、及び当該テクスチャを貼り付けた3次元構造モデ
ルを外部記憶装置1のテクスチャ付3次元構造モデル格
納領域104に格納するデータ書き込み手段207を有
する。
The central processing unit 2 is provided with the aforementioned area 1
Data reading means 201 for reading various data stored in the external storage device 1,
Video camera position / posture estimating means 202 for estimating the position and orientation at the time of video camera shooting based on the camera position / posture data read from the camera position / posture data storage area 101, and 3 read out from the three-dimensional structure model storage area 102. Search image narrowing means 203 for narrowing the range of a video image for performing a texture search using the three-dimensional structure model and the video camera position and attitude data estimated by the video camera position and attitude estimation means 202, and this search image narrowing means 203 Selecting texture 204 for selecting an optimal texture from the video images narrowed down by the method, texture cutting means 205 for cutting the texture from the video image read from the video image storage area 103, and reading from the three-dimensional structure model storage area 102 Three-dimensional structure Texture mapping means pasting textures cut the model each polygon 2
06 and a data writing unit 207 for storing the three-dimensional structure model to which the texture is attached in the textured three-dimensional structure model storage area 104 of the external storage device 1.

【0021】前記内部記憶装置3は、ビデオカメラ位置
・姿勢推定手段202から得られるデータを格納するビ
デオカメラ位置姿勢データ格納領域301、探索画像絞
り込み手段203から得られるデータを格納するテクス
チャ情報格納領域302を有する。
The internal storage device 3 has a video camera position / posture data storage area 301 for storing data obtained from the video camera position / posture estimation means 202 and a texture information storage area for storing data obtained from the search image narrowing means 203. 302.

【0022】図2は、本実施例1のビデオカメラの位置
・姿勢推定手段202における推定方法の原理を説明す
るための図である。図3において、A及びBは推定に用
いるカメラ位置・姿勢データである。このAデータ及び
Bデータは、ビデオカメラ位置・姿勢データのサンプリ
ングデータとみなすことができ、本発明では当該データ
に基づいてビデオカメラ位置・姿勢を推定する。具体的
にはAデータとBデータとの間でビデオヵメラが線形移
動すると仮定し、両者の差分量をフレーム数Nで割った
値を変化量として各ビデオカメラの位置及び姿勢を推定
する。
FIG. 2 is a diagram for explaining the principle of the estimating method in the position / posture estimating means 202 of the video camera according to the first embodiment. In FIG. 3, A and B are camera position / posture data used for estimation. The A data and the B data can be regarded as sampling data of the video camera position / posture data. In the present invention, the video camera position / posture is estimated based on the data. Specifically, it is assumed that the video camera moves linearly between the A data and the B data, and the position and orientation of each video camera are estimated using the value obtained by dividing the difference between the two by the number of frames N as the amount of change.

【0023】前記Aデータ(Aフレーム)とBデータ
(Bフレーム」の間のK(K=1,2,3,・・・N)
番目のフレームの位置・姿勢情報は数1の式のようにな
る。
K (K = 1, 2, 3,... N) between the A data (A frame) and the B data (B frame)
The position / posture information of the third frame is as shown in Expression 1.

【0024】[0024]

【数1】 (Equation 1)

【0025】図3は、本実施例1の探索画像絞り込み手
段203におけるビデオ画像の読み込み方法の原理を説
明するための図である。本発明では、目的とするテクス
チャの全部もしくは一部しか映っていないビデオ画像
(図4(a))、目的とするテクスチャが他のテクスチ
ャに隠れているビデオ画像(図4(c))を、テクスチ
ャ取得のためのビデオ映像から除外することにより、最
適テクスチャの探索範囲を絞り込む。
FIG. 3 is a diagram for explaining the principle of a method of reading a video image in the search image narrowing means 203 according to the first embodiment. In the present invention, a video image in which all or a part of the target texture is shown (FIG. 4A) and a video image in which the target texture is hidden by other textures (FIG. 4C) The search range of the optimal texture is narrowed by excluding it from the video image for acquiring the texture.

【0026】図4は、本実施例1のテクスチャ選択手投
204におけるビデオ画像の選択方法の原理を説明する
ための図である。51はビデオカメラの投影中心すなわ
ら撮影点、52はビデオカメラに映る画像面であるビデ
オ画像面、53は撮影点51から3次元構造モデルを撮
ったビデオ画像面52に映っている面であるテクスチャ
面、54はテクスチャ面53の重心、55は撮影点51
からの垂線とビデオ画像面52との交点である主点、5
6は3次元構造モデル内の面である対象ポリゴン、57
は3次元構造モデルである。さらに、対象ポリゴン56
の各頂点に対応するテクスチャ面53の各頂点を対応点
と呼ぶ。
FIG. 4 is a diagram for explaining the principle of the method of selecting a video image in the texture selection method 204 according to the first embodiment. Reference numeral 51 denotes a projection center or a shooting point of the video camera, 52 denotes a video image plane which is an image plane reflected on the video camera, and 53 denotes a plane which is reflected on a video image plane 52 obtained by taking a three-dimensional structural model from the shooting point 51. A certain texture surface, 54 is the center of gravity of the texture surface 53, and 55 is the photographing point 51.
The principal point, which is the intersection of the perpendicular from
6 is a target polygon which is a surface in the three-dimensional structure model;
Is a three-dimensional structural model. Further, the target polygon 56
Each vertex of the texture surface 53 corresponding to each vertex is referred to as a corresponding point.

【0027】本実施例1では、テクスチャ面53の面積
が最大となる画像を最適なテクスチャを有するビデオ画
像とする。さらに、当該面積が等しいテクスチャ面53
が複数のビデオ画像にある場合は、当該テクスチャ面5
3の面積54と主点55との距離が最小になるビデオ画
像が最適なテクスチャを有するビデオ画像とする。これ
は、対象ポリゴン56の重心と主点55とが一致する向
きで、テクスチャ面53の面積が最大になる撮影点51
から撮影した画像が最適なテクスチャを有することを意
味している。
In the first embodiment, an image in which the area of the texture surface 53 is maximized is defined as a video image having an optimal texture. Further, the texture surface 53 having the same area is used.
Is present in multiple video images, the texture surface 5
The video image in which the distance between the area 54 of No. 3 and the principal point 55 is minimized is the video image having the optimal texture. This is a direction in which the center of gravity of the target polygon 56 coincides with the principal point 55, and the photographing point 51 where the area of the texture surface 53 is maximized.
Means that the image taken from has the optimal texture.

【0028】図5は、本実施例1のテクスチャマッピン
グ装置全体の動作を説明するためのフローチャートであ
る。本実施例1のテクスチャマッピング装置は、図5に
示すように、位置・姿勢データの基となるカメラ位置・
姿勢データを読み込み(S01)、この読み込まれたカ
メラ位置・姿勢データからビデオカメラの位置・姿勢を
推定する(S02)。次に、3次元構造モデルを読み込
み(S03)、この読み込まれた3次元構造モデルの中
から1つの対象ポリゴンを選出する(S04)。さら
に、この選出された対象ポリゴンに対応するテクスチャ
が映っていないビデオ画像、一部しか映っていないビデ
オ画像、他のテクスチャに隠れて全てのテクスチャが映
っていないビデオ画像を探索画像から除外することによ
り探索画像を絞り込み(S05)、この絞り込まれた探
索画像の中から最適なテクスチャを有するビデオ画像を
選択し(S06)、この選択されたビデオ画像を読み込
み(S07)、この読み込まれたビデオ画像から対応ポ
リゴンに対応するテクスチャを切り取り(S08)、こ
の切り取られたテクスチャを対象ポリゴンに貼り付ける
(S09)。
FIG. 5 is a flowchart for explaining the operation of the entire texture mapping apparatus according to the first embodiment. As shown in FIG. 5, the texture mapping apparatus according to the first embodiment uses a camera position / position as a basis of position / posture data.
The posture data is read (S01), and the position / posture of the video camera is estimated from the read camera position / posture data (S02). Next, a three-dimensional structural model is read (S03), and one target polygon is selected from the read three-dimensional structural model (S04). Furthermore, a video image not showing the texture corresponding to the selected target polygon, a video image showing only a part of the texture, and a video image not showing all the textures hidden by other textures are excluded from the search image. (S05), a video image having an optimal texture is selected from the narrowed search images (S06), the selected video image is read (S07), and the read video image is read. , A texture corresponding to the corresponding polygon is cut out (S08), and the cut out texture is pasted on the target polygon (S09).

【0029】前記ステップS01〜S09までの処理を
3次元構造モデル内の全てのポリゴンに対して行い(S
10)、前記処理により作成されたテクスチャ付3次元
構造モデルを格納する(S09)。
The processing of steps S01 to S09 is performed on all polygons in the three-dimensional structural model (S
10), the textured three-dimensional structure model created by the above processing is stored (S09).

【0030】図6は、本実施例1のビデオカメラ位置・
姿勢推定の処理手順を示すフローチャートである。本実
施例1のビデオカメラ位置・姿勢推定の処理手順は、図
7に示すように、連続するビデオ画像に対してシーケン
シャルに振り付けた画像番号と、当該ビデオ画像を撮影
したビデオカメラの位置情報(X、Y、Z)及び姿勢情
報(κ、φ、ω)とを格納する一時記憶領域であるビデ
オ画像情報を初期化し(S0201)、ある一定間隔で
推定した高精度のカメラ位置・姿勢データを読み込み
(S0202)、この読み込まれたカメラ位置・姿勢デ
ータ間に存在するビデオカメラの画像のフレーム数Nを
算出する(S0203)。
FIG. 6 shows the position of the video camera according to the first embodiment.
It is a flowchart which shows the processing procedure of attitude | position estimation. As shown in FIG. 7, the processing procedure for estimating the position and orientation of the video camera according to the first embodiment includes, as shown in FIG. 7, image numbers sequentially assigned to consecutive video images and position information ( X, Y, Z) and orientation information (κ, φ, ω) are initialized (S0201), and the high-precision camera position / posture data estimated at certain intervals is initialized. After reading (S0202), the number of frames N of the video camera image existing between the read camera position / posture data is calculated (S0203).

【0031】次に、この算出されたフレーム数分のカウ
ントを行うためにカウンターを初期化し(S020
4)、該当するフレームに対応するビデオ画像を撮影し
たビデオカメラの位置・姿勢情報(X、Y、Z、κ、
φ、ω)を計算し(S0205)、この計算された結果
の値をビデオ画像情報に格納する(S0206)。前記
ステップS0205及びS0206の処理をカウンター
により数えN回繰り返す(S0207)。さらに、一定
間隔で推定したカメラ位置・姿勢データの全てに対して
前記ステップS0202〜S0207の処理が終了する
まで繰り返す。
Next, a counter is initialized to count the number of frames calculated (S020).
4) position and orientation information (X, Y, Z, κ,
(φ, ω) is calculated (S0205), and the calculated value is stored in the video image information (S0206). The processing of steps S0205 and S0206 is counted N times by a counter and repeated N times (S0207). Further, the processing is repeated until the processing of steps S0202 to S0207 is completed for all the camera position / posture data estimated at regular intervals.

【0032】図7及び図8は、本実施例1の探索画像絞
り込み処理の手順を示すフローチャートである。本実施
例1の探索画像絞り込み処理は、図7に示すように、連
続するビデオ画像に対してシーケンシャルに振り付けた
画像番号、該画像番号のビデオ画像に映っているテクス
チャの各頂点を区別する頂点番号、該各頂点番号に対応
する頂点のビデオ画像面上の座標、及び当該各頂点と撮
影点との距離とを格納する一時記憶領域に格納してある
テクスチャ情報を初期化し(S0501)、ビデオカメ
ラの位置・姿勢データを格納したビデオ画像情報からデ
ータを1つ読み込み(S0502)、図5のステップS
04で選出した対象ポリゴンの1つの頂点を選択する
(S0503)。
FIGS. 7 and 8 are flowcharts showing the procedure of the search image narrowing down process of the first embodiment. As shown in FIG. 7, the search image narrowing process according to the first embodiment is performed by sequentially assigning image numbers to successive video images, and vertices for distinguishing each vertex of a texture appearing in the video image of the image number. The texture information stored in the temporary storage area for storing the number, the coordinates of the vertex corresponding to each vertex number on the video image plane, and the distance between each vertex and the shooting point is initialized (S0501), and the video is initialized. One piece of data is read from the video image information in which the position / orientation data of the camera is stored (S0502), and step S of FIG.
One vertex of the target polygon selected in 04 is selected (S0503).

【0033】次に、前記選択された頂点と撮影点との距
離を計算し(S0504)、当該頂点に対応するテクス
チャ面の頂点座標を計算し(S0505)、テクスチャ
情報として画像番号、頂点番号、座標、撮影点との距離
を格納する(S0506)。前記ステップS0503〜
S0506の処理を全ての頂点に対して行い(S050
7)、その結果、全ての対応点の座標がビデオ画像面内
にある場合は、図8のBへ進み、1つでもビデオ画像面
内に含まれなかった場合には、図8のCへ進む(S05
08)。この処理により、ビデオ画像内にテクスチャの
全部が映っている可能性のある画像とテクスチャの全部
もしくは一部しか映っていない画像とが区別される。
Next, the distance between the selected vertex and the photographing point is calculated (S0504), the vertex coordinates of the texture surface corresponding to the selected vertex are calculated (S0505), and the image number, vertex number, The coordinates and the distance to the photographing point are stored (S0506). Step S0503-
The process of S0506 is performed on all vertices (S050
7) As a result, when the coordinates of all the corresponding points are within the video image plane, the process proceeds to FIG. 8B, and when even one is not included in the video image plane, the process proceeds to C of FIG. Go on (S05
08). This process distinguishes between an image that may have all of the textures in the video image and an image that has all or only some of the textures.

【0034】さらに、ビデオ画像内にテクスチャの全部
が映っている可能性のある画像に対して、対象ポリゴン
の重心から一定距離内に含まれる1つのポリゴンを選出
し(S0509)、この選出されたポリゴン内の1つの
頂点を選出し(S0510)、この選出された頂点に対
応するビデオ画像面上の点の座標を計算し(S051
1)、当該対応点が対象としているテクスチャ面内に含
まれているか否かを調ベる(S0512)。当該対応点
がテクスチャ面内にある場合、対象とするテクスチャに
隠れている可能性があるため、ステップS0510にて
選出した頂点と撮影点との距離L1を計算し(S051
3)、対象ポリゴンの重心と撮影点との距離L2を計算
し(S0514)、当該両者を比較し(S0515)、
L1が短い場合には、現在、対象としているポリゴンに
関する情報をテクスチャ情報の中から削除する(S05
17)。前記ステップS0510〜S0515の処理を
全ての頂点に対して処理し(S0516)、前記ステッ
プS0509〜S0516の処理を対象ポリゴンの重心
から一定距離内の全てのポリゴンに対して処理し(S0
518)、前記ステップS0502〜S0518の処理
をビデオ画像情報の全てのデータに対して処理する(S
0519)。
Further, one polygon included within a certain distance from the center of gravity of the target polygon is selected from the image in which all of the texture may be reflected in the video image (S0509), and the selected polygon is selected. One vertex in the polygon is selected (S0510), and the coordinates of a point on the video image plane corresponding to the selected vertex are calculated (S051).
1) Investigate whether the corresponding point is included in the target texture plane (S0512). If the corresponding point is in the texture plane, there is a possibility that the corresponding texture is hidden by the target texture. Therefore, the distance L1 between the vertex selected in step S0510 and the photographing point is calculated (S051).
3) The distance L2 between the center of gravity of the target polygon and the photographing point is calculated (S0514), and the two are compared (S0515).
If L1 is short, the information on the current target polygon is deleted from the texture information (S05).
17). The processing of steps S0510 to S0515 is performed on all vertices (S0516), and the processing of steps S0509 to S0516 is performed on all polygons within a predetermined distance from the center of gravity of the target polygon (S016).
518), the processing of steps S0502 to S0518 is performed on all data of the video image information (S
0519).

【0035】図9は、本実施例1のテクスチャ選択処理
手順を示すフローチャートである。前記テクスチャ選択
処理手順は、図10に示すように、テクスチャ面の面積
の最大値とテクスチャ面内の重心と主点との距離の最小
値を格納する変数を初期化し(S0601)、テクスチ
ャ情報から1つのデータを読み込み(S0602)、テ
クスチャ面の面積を計算し(S0603)、テクスチャ
面の重心と主点との距離を計算する(S0604)。
FIG. 9 is a flowchart showing the procedure of the texture selection processing according to the first embodiment. As shown in FIG. 10, the texture selection processing procedure initializes variables storing the maximum value of the area of the texture surface and the minimum value of the distance between the center of gravity and the principal point in the texture surface (S0601). One data is read (S0602), the area of the texture surface is calculated (S0603), and the distance between the center of gravity of the texture surface and the principal point is calculated (S0604).

【0036】前記計算されたテクスチャ面の面積及びテ
クスチャ面の重心と主点との距離とを比較し(S060
5〜S0607)当該面積が最大の場合、当該面積が最
大に等しくかつ当該距離が最小の時に当該面積、当該距
離、及びそのときの画像番号を格納する(S060
8)。前記ステップS0602〜S0608の処理を全
てのデータに対して行う(S0609)。
The calculated area of the texture surface and the distance between the center of gravity of the texture surface and the principal point are compared (S060).
5 to S0607) When the area is the maximum, the area, the distance, and the image number at that time are stored when the area is equal to the maximum and the distance is the minimum (S060).
8). The processing of steps S0602 to S0608 is performed on all data (S0609).

【0037】図10に、一時記憶領域であるビデオカメ
ラ情報の格納項目を示す。本発明において使用するビデ
オカメラ情報には連続するビデオ画像にシーケンシャル
に割り振った画像番号に対して、ビデオカメラ位置情報
bx、by、bz、ビデオカメラ姿勢情報κ、ψ、ωを
格納する。
FIG. 10 shows storage items of video camera information which is a temporary storage area. In the video camera information used in the present invention, video camera position information bx, by, bz and video camera attitude information κ, ψ, ω are stored for image numbers sequentially allocated to continuous video images.

【0038】図11に、一時記憶領域であるテクスチャ
情報の格納項目を示す。本発明において使用するテクス
チャ情報には、図10に示したビデオカメラ情報の画像
番号に対応する画像番号、当該ビデオ画像内のテクスチ
ャ面の各頂点を示す頂点番号、当該頂点の座標、各頂点
と撮影点との距離を格納する。
FIG. 11 shows storage items of texture information which is a temporary storage area. The texture information used in the present invention includes an image number corresponding to the image number of the video camera information shown in FIG. 10, a vertex number indicating each vertex of a texture surface in the video image, coordinates of the vertex, and each vertex. Stores the distance from the shooting point.

【0039】以上説明したように、本実施例1によれ
ば、位置情報を有する3次元構造モデルと実写撮影時の
ビデオカメラの位置情報・姿勢情報とを利用するので、
3次元構造モデルの各ポリゴンに最適なテクスチャを自
動的にマッピングすることができる。
As described above, according to the first embodiment, since the three-dimensional structure model having the position information and the position information and the posture information of the video camera at the time of the actual photographing are used,
An optimal texture can be automatically mapped to each polygon of the three-dimensional structure model.

【0040】また、テクスチャ取得用にビデオ映像を利
用するので、従来のカメラ撮影と比較して作業量及び作
業時間を大幅に削減、短縮することができる。
Further, since the video image is used for acquiring the texture, the amount of work and the work time can be greatly reduced and shortened as compared with the conventional camera shooting.

【0041】また、大量の画像が取得できるので、従
来、少量の画像からでは取得されなかったテクスチャを
容易に取得することができる。
Further, since a large number of images can be obtained, it is possible to easily obtain a texture which has not been obtained from a small number of images.

【0042】また、最適なテクスチャが映っている画像
を自動的に選択することができる。また、対応するポリ
ゴンに自動的に貼り付けることができる。これらによ
り、従来のテクスチャマッピング作業と比較して作業量
を大幅に削減することができる。
Further, an image on which an optimal texture is reflected can be automatically selected. Also, it can be automatically pasted on the corresponding polygon. As a result, the amount of work can be significantly reduced as compared with the conventional texture mapping work.

【0043】(実施例2)図12は、本発明による実施
例2のカメラ位置・姿勢データ及びビデオ映像を同時に
取得するためのビデオカメラ装置の概略構成を示す図で
ある。
(Embodiment 2) FIG. 12 is a diagram showing a schematic configuration of a video camera apparatus for simultaneously acquiring camera position / posture data and video images according to Embodiment 2 of the present invention.

【0044】図12に示すように、高解像度カメラ61
とGPS(Global PositioningSystem)からGPS
信号63を利用して本発明に必要なカメラ位置・姿勢情
報を取得(詳細は特願平10−255338号参照)
し、当該取得したカメラ位置・姿勢を利用してビデオカ
メラ位置・姿勢情報を推定するために高解像度のカメラ
61にビデオカメラ62を図12のように併設する。こ
れにより、高解像度のカメラ61を利用して高精度のカ
メラ位置・姿勢情報を取得することができ、ビデオカメ
ラ62より当該情報を付加したヒデオ映像を取得するこ
とが可能となる。
As shown in FIG. 12, the high-resolution camera 61
GPS from GPS (global positioning system)
Acquisition of camera position / orientation information necessary for the present invention using signal 63 (for details, refer to Japanese Patent Application No. 10-255338).
Then, in order to estimate the video camera position / posture information using the acquired camera position / posture, a video camera 62 is provided in addition to the high-resolution camera 61 as shown in FIG. This makes it possible to acquire high-precision camera position / posture information using the high-resolution camera 61, and to acquire a video image to which the information is added from the video camera 62.

【0045】(実施例3)図13は、本発明による実施
例3のテクスチャマッピング装置の概略構成を示すブロ
ック構成図であり、63はGPSからのGPS信号であ
る。101Aは高解像度カメラ61のカメラ位置・姿勢
データ格納領域である。
(Embodiment 3) FIG. 13 is a block diagram showing a schematic configuration of a texture mapping apparatus according to Embodiment 3 of the present invention. Reference numeral 63 denotes a GPS signal from GPS. 101A is a camera position / posture data storage area of the high resolution camera 61.

【0046】本実施例3は、図13に示すテクスチャマ
ッピング装置を、例えば、ヘリコプター、自動車等に搭
載し、GPS信号63と高解像度カメラ61からの高解
像度画像を利用して高精度のカメラ61のカメラ位置姿
勢データを推定する(詳細は特願平10−255338
号参照)。当該推定データおよび位置情報を有する3次
元都市構造モデル、空撮ビデオ映像等を外部記憶装置に
格納し、当該各データを用いて本実施例3のテクスチャ
マッピング装置によりテクスチャ付きの3次元都市構築
モデルの作成ができる。
In the third embodiment, the texture mapping device shown in FIG. 13 is mounted on, for example, a helicopter, an automobile, or the like, and a high-precision camera 61 is used by using a GPS signal 63 and a high-resolution image from the high-resolution camera 61. Of the camera position and orientation data (for details, refer to Japanese Patent Application No. 10-255338).
No.). The three-dimensional city structure model having the estimated data and the position information, the aerial video image, and the like are stored in an external storage device, and the texture mapping device of the third embodiment is used for the textured three-dimensional city construction model using the data. Can be created.

【0047】特に、本発明では、空撮ビデオデータを使
用する必要はなく、自動車に図14に示した装置を搭載
し、自動車搭載のビデオ映像を使用しても同様のテクス
チャ付き3次元構造モデルの作成が可能である。さら
に、ビデオカメラ62やGPS信号63の高性能化/小
型化/軽量化が進むと、人が持ち運びできる図13に示
すような装置により、位置情報を有する3次元構造モデ
ルにテクスチャの貼り付けが可能になる。
In particular, in the present invention, it is not necessary to use aerial video data, and a similar textured three-dimensional structural model can be obtained by mounting the apparatus shown in FIG. Can be created. Further, as the performance of the video camera 62 and the GPS signal 63 becomes higher, smaller, and lighter, texture can be pasted on a three-dimensional structure model having positional information by a portable device as shown in FIG. Will be possible.

【0048】以上、本発明を、前記実施例に基づき具体
的に説明したが、本発明は、前記実施例に限定されるも
のではなく、その要旨を逸脱しない範囲において種々変
更可能であることは勿論である。
As described above, the present invention has been specifically described based on the above-described embodiments. However, the present invention is not limited to the above-described embodiments, and may be variously modified without departing from the gist thereof. Of course.

【0049】[0049]

【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば、以
下のとおりである。 (1)位置情報を有する3次元構造モデルと実写撮影時
のビデオカメラの位置情報・姿勢情報とを利用するの
で、3次元構造モデルの各ポリゴンに最適なテクスチャ
を自動的にマッピングすることができる。 (2)テクスチャ取得用にビデオ映像を利用するので、
従来のカメラ撮影と比較して作業量及び作業時間を大幅
に削減、短縮することができる。 (3)大量の画像が取得できるので、従来、少量の画像
からでは取得されなかったテクスチャを容易に取得する
ことができる。 (4)最適なテクスチャが映っている画像を自動的に選
択することができ、かつ対応するポリゴンに自動的に貼
り付けることができるので、従来のテクスチャマッピン
グ作業と比較して作業量を大幅に削減することができ
る。。
The effects obtained by typical aspects of the invention disclosed in the present application will be briefly described as follows. (1) Since the three-dimensional structure model having the position information and the position information / posture information of the video camera at the time of actual shooting are used, the optimal texture can be automatically mapped to each polygon of the three-dimensional structure model. . (2) Since video images are used for texture acquisition,
The work amount and work time can be greatly reduced and shortened as compared with the conventional camera shooting. (3) Since a large number of images can be obtained, a texture that has not been obtained from a small number of images can be easily obtained. (4) Since the image showing the optimal texture can be automatically selected and automatically pasted to the corresponding polygon, the amount of work is greatly reduced as compared with the conventional texture mapping work. Can be reduced. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による実施例1のテクスチャマッピング
装置の概略構成を示すブロック構成図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a texture mapping apparatus according to a first embodiment of the present invention.

【図2】本実施例1におけるビデオカメラの位置・姿勢
の推定方法の原理を説明するための図である。
FIG. 2 is a diagram for explaining the principle of a method for estimating the position and orientation of the video camera according to the first embodiment.

【図3】本実施例1におけるビデオ画像の読み込み方法
の原理を説明するための図である。
FIG. 3 is a diagram for explaining the principle of a video image reading method according to the first embodiment.

【図4】本実施例1におけるビデオ画像の選択方法の原
理を説明するための図である。
FIG. 4 is a diagram for explaining the principle of a video image selection method according to the first embodiment.

【図5】本実施例1のテクスチャマッピング装置の全体
の処理動作を説明するためフローチャートである。
FIG. 5 is a flowchart for explaining the overall processing operation of the texture mapping apparatus according to the first embodiment;

【図6】本実施例1のビデオカメラ位置・姿勢推定の処
理手順を示すフローチャートである。
FIG. 6 is a flowchart illustrating a processing procedure for estimating the position and orientation of the video camera according to the first embodiment.

【図7】本実施例1の探索画像絞り込み処理の手順を示
すフローチャートである。
FIG. 7 is a flowchart illustrating a procedure of a search image narrowing process according to the first embodiment.

【図8】本実施例1の探索画像絞り込み処理の手順を示
すフローチャートである。
FIG. 8 is a flowchart illustrating a procedure of a search image narrowing process according to the first embodiment.

【図9】本実施例1のテクスチャ選択処理手順を示すフ
ローチャートである。
FIG. 9 is a flowchart illustrating a texture selection processing procedure according to the first embodiment;

【図10】本実施例1の一時記憶領域であるビデオカメ
ラ情報の格納項目を示す図である。
FIG. 10 is a diagram illustrating storage items of video camera information that is a temporary storage area according to the first embodiment.

【図11】本実施例1の一時記憶領域であるテクスチャ
情報の格納項目を示す。
FIG. 11 shows storage items of texture information which is a temporary storage area according to the first embodiment.

【図12】本発明による実施例2のカメラ位置・姿勢デ
ータ及びビデオ映像を同時に取得するためのビデオカメ
ラ装置の概略構成を示す図である。
FIG. 12 is a diagram showing a schematic configuration of a video camera device for simultaneously acquiring camera position / posture data and a video image according to a second embodiment of the present invention.

【図13】本発明による実施例3のテクスチャマッピン
グ装置の概略構成を示すブロック構成図である。
FIG. 13 is a block diagram showing a schematic configuration of a texture mapping apparatus according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…外部記憶装置、2…中央演算処理装置(CPU)、
3…内部記憶装置、101、101A…カメラ位置・姿
勢データ格納領域、102…3次元構造モデル格納領
域、103…ビデオ映像格納領域、104…テクスチャ
付3次元構造モデル格納領域104、201…データ読
み出し手段、202…ビデオカメラ位置・姿勢推定手
段、203…探索画像絞り込み手段、204…テクスチ
ャ選択手段、205…テクスチャ切取り手段、206…
テクスチャマッピング手段、207…データ書き込み手
段、301…ビデオカメラ位置姿勢データ格納領域、3
02…テクスチャ情報格納領域、51…ビデオカメラの
投影中心(撮影点)、52…ビデオ画像面、53…テク
スチャ面、54…テクスチャ面の重心、55…主点、5
6…対象ポリゴン、57…3次元構造モデル、61…高
解像度のカメラ、62…ビデオカメラ、63…GPS信
号。
1 external storage device 2 central processing unit (CPU)
3. Internal storage device, 101, 101A: Camera position / posture data storage area, 102: 3D structure model storage area, 103: Video image storage area, 104: Textured 3D structure model storage area 104, 201: Data readout Means 202 video camera position / posture estimating means 203 search image narrowing means 204 texture selecting means 205 texture cutting means 206
Texture mapping means, 207: Data writing means, 301: Video camera position and orientation data storage area, 3
02: texture information storage area, 51: video camera projection center (shooting point), 52: video image plane, 53: texture plane, 54: center of gravity of texture plane, 55: principal point, 5
6: target polygon, 57: three-dimensional structure model, 61: high-resolution camera, 62: video camera, 63: GPS signal.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長井 茂 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 宮川 勲 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 杉村 利明 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 5B050 BA06 EA19 5B080 AA13 DA06 GA22 5C054 AA01 FD03 FF03 GB01 GB11 GB15 GB16 HA05  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shigeru Nagai 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Isao Miyagawa 3- 19-2, Nishi-Shinjuku, Shinjuku-ku, Tokyo No. Nippon Telegraph and Telephone Corporation (72) Inventor Toshiaki Sugimura 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo F-Term within Nippon Telegraph and Telephone Corporation 5B050 BA06 EA19 5B080 AA13 DA06 GA22 5C054 AA01 FD03 FF03 GB01 GB11 GB15 GB16 HA05

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】位置情報を有する3次元構造モデルに対し
て、カメラで撮影した実写画像を自動的にテクスチャマ
ッピングする方法において、実写撮影時のビデオカメラ
の位置及び姿勢データを読み込み、この読み込まれたデ
ータから実写撮影時のビデオカメラの位置及び姿勢を推
定し、前記3次元構造モデルから対象ポリゴンを選択
し、この選択された対象ポリゴンとビデオカメラとの相
対位置関係から探索するビデオ画像の範囲を絞り込み、
この絞り込んだビデオ画像の中から最適なテクスチャが
映っているビデオ画像を選択し、この選択したビデオ画
像からテクスチャを切り取り、この切り取ったテクスチ
ャを対応するポリゴンに自動的に貼り付けることを持徴
とするテクスチャマッピング方法。
1. A method for automatically texture-mapping a photographed image taken by a camera with respect to a three-dimensional structure model having position information, wherein the position and orientation data of the video camera at the time of photographing is read. The position and orientation of the video camera at the time of actual shooting are estimated from the obtained data, the target polygon is selected from the three-dimensional structure model, and the range of the video image to be searched from the relative positional relationship between the selected target polygon and the video camera. Narrow down,
From the narrowed down video image, select the video image showing the optimal texture, cut the texture from this selected video image, and automatically paste this cut texture to the corresponding polygon Texture mapping method.
【請求項2】請求項1に記載のテクスチャマッピング方
法において、実写撮影時のビデオカメラの位置及び姿勢
を推定する処理手順は、ある一定間隔で推定した高精度
のカメラ位置・姿勢データを読み込み、この読み込まれ
たカメラ位置・姿勢データ間に存在するビデオカメラの
画像のフレーム数を算出し、該当するフレームに対応す
るビデオ画像を撮影したビデオカメラの位置・姿勢情報
(X、Y、Z、κ、φ、ω)を計算し、この計算された
結果の値をビデオ画像情報に格納し、前記一定間隔で推
定したカメラ位置・姿勢データの全てに対して前記処理
手順が終了するまで繰り返すことを持徴とするテクスチ
ャマッピング方法。
2. The texture mapping method according to claim 1, wherein the processing procedure for estimating the position and orientation of the video camera at the time of actual shooting includes reading high-precision camera position and orientation data estimated at certain intervals, The number of frames of the video camera image existing between the read camera position / posture data is calculated, and the position / posture information (X, Y, Z, κ) of the video camera that has captured the video image corresponding to the relevant frame is calculated. , Φ, ω), store the calculated value in the video image information, and repeat until the processing procedure is completed for all of the camera position / posture data estimated at the fixed interval. Texture mapping method to be featured.
【請求項3】請求項1又は2に記載のテクスチャマッピ
ング方法において、3次元構造モデルとビデオカメラと
の相対位置関係から探索するビデオ画像の範囲を絞り込
む処理手順は、ビデオカメラの位置・姿勢データを格納
したビデオ画像情報からデータを1つ読み込み、選出し
た対象ポリゴンの1つの頂点を選択し、前記選択された
頂点と撮影点との距離を計算し、該頂点に対応するテク
スチャ面の頂点座標を計算し、テクスチャ情報として画
像番号、頂点番号、座標、撮影点との距離を格納し、前
記処理手順を全ての頂点に対して行い、ビデオ画像内に
テクスチャの全部が映っている可能性のある画像とテク
スチャの全部もしくは一部しか映っていない画像とを区
別し、テクスチャの全部もしくは一部しか映っていない
画像をテクスチャ情報から削除し、ビデオ画像内にテク
スチャの全部が映っている可能性のある画像に対して、
対象ポリゴンの重心から一定距離内に含まれる1つのポ
リゴンを選出し、この選出されたポリゴン内の1つの頂
点を選出し、この選出された頂点に対応するビデオ画像
面上の点の座標を計算し、当該対応点が対象としている
テクスチャ面内に含まれているか否かを調ベ、対応点が
テクスチャ面内にある場合、前記選出した頂点と撮影点
との距離L1を計算し、対象ポリゴンの重心と撮影点と
の距離L2を計算し、当該両者を比較し、前記距離L1
が短い場合には、現在、対象としているビデオ画像に関
する情報をテクスチャ情報の中から削除し、全ての頂点
に対して前記処理を行い、前記処理を対象ポリゴンの重
心から一定距離内の全てのポリゴンに対して処理するこ
とを特徴とするテクスチャマッピング方法。
3. The texture mapping method according to claim 1, wherein the processing procedure for narrowing down a range of a video image to be searched based on a relative positional relationship between the three-dimensional structure model and the video camera is performed using position / posture data of the video camera. Is read from the video image information in which is stored, one vertex of the selected target polygon is selected, the distance between the selected vertex and the photographing point is calculated, and the vertex coordinates of the texture surface corresponding to the vertex are calculated. , And store the image number, vertex number, coordinates, and distance from the photographing point as texture information, and perform the above-described processing procedure on all vertices. Distinguish an image from an image that shows all or only part of the texture. Remove from broadcast, with respect to possible image in which all of the texture is reflected in the video image,
One polygon included within a certain distance from the center of gravity of the target polygon is selected, one vertex in the selected polygon is selected, and coordinates of a point on the video image plane corresponding to the selected vertex are calculated. Then, it is checked whether the corresponding point is included in the target texture plane. If the corresponding point is in the target texture plane, the distance L1 between the selected vertex and the photographing point is calculated, and the target polygon is calculated. The distance L2 between the center of gravity and the photographing point is calculated, the two are compared, and the distance L1 is calculated.
Is shorter than the texture information, the information relating to the current video image is deleted from the texture information, the above processing is performed on all vertices, and the processing is performed on all polygons within a certain distance from the center of gravity of the target polygon. A texture mapping method, wherein
【請求項4】請求項1乃至3のうちいずれか1項に記載
のテクスチャマッピング方法において、前記ビデオ画像
選択の処理手順は、テクスチャ情報から1つのデータを
読み込み、テクスチャ面の面積を計算し、テクスチャ面
の重心と主点との距離を計算し、この計算したテクスチ
ャ面の面積及びテクスチャ面の重心と主点との距離とを
比較し、当該面積が最大であるビデオ画像、または当該
面積が最大であるビデオ画像が複数ある場合は前記距離
が最小のビデオ画像を一意に選択することを特徴とする
テクスチャマッピッング方法。
4. The texture mapping method according to claim 1, wherein the video image selection processing procedure reads one data from texture information, calculates an area of a texture surface, The distance between the center of gravity of the textured surface and the principal point is calculated, and the calculated area of the textured surface and the distance between the center of gravity of the textured surface and the principal point are compared. A texture mapping method, wherein, when there are a plurality of maximum video images, the video image having the minimum distance is uniquely selected.
【請求項5】位置情報を有する3次元構造モデルに対し
て、カメラで撮影した実写画像を自動的にテクスチャマ
ッピングする方法において、実写撮影時のビデオカメラ
の位置及び姿勢データを読み込み、この読み込まれたデ
ータから実写撮影時のビデオカメラの位置及び姿勢を推
定し、前記3次元構造モデルから対象ポリゴンを選択
し、この選択された対象ポリゴンとビデオカメラとの相
対位置関係から探索するビデオ画像の範囲を絞り込み、
この絞り込んだビデオ画像の中から最適なテクスチャが
映っているビデオ画像を選択し、この選択したビデオ画
像からテクスチャを切り取り、この切り取ったテクスチ
ャを対応するポリゴンに自動的に貼り付ける処理手順
を、コンピュータに実行させるためのプログラムを記録
した記録媒体。
5. A method for automatically texture-mapping a photographed image taken by a camera with respect to a three-dimensional structure model having position information, wherein the position and orientation data of the video camera at the time of photographing the photographed image are read and read. The position and orientation of the video camera at the time of actual shooting are estimated from the obtained data, the target polygon is selected from the three-dimensional structure model, and the range of the video image to be searched from the relative positional relationship between the selected target polygon and the video camera. Narrow down,
The computer selects the video image with the best texture from the narrowed video images, cuts the texture from the selected video image, and automatically pastes the cut texture to the corresponding polygon. Recording medium for recording a program to be executed by a computer.
【請求項6】請求項1に記載のテクスチャマッピング方
法において、実写撮影時のビデオカメラの位置及び姿勢
を推定する処理手順は、ある一定間隔で推定した高精度
のカメラ位置・姿勢データを読み込み、この読み込まれ
たカメラ位置・姿勢データ間に存在するビデオカメラの
画像のフレーム数を算出し、該当するフレームに対応す
るビデオ画像を撮影したビデオカメラの位置・姿勢情報
(X、Y、Z、κ、φ、ω)を計算し、この計算された
結果の値をビデオ画像情報に格納し、前記一定間隔で推
定したカメラ位置・姿勢データの全てに対して前記処理
手順が終了するまで繰り返す処理手順を、コンピュータ
に実行させるためのプログラムを記録した記録媒体。
6. A texture mapping method according to claim 1, wherein the processing procedure for estimating the position and orientation of the video camera at the time of actual shooting includes reading high-precision camera position and orientation data estimated at certain intervals, The number of frames of the video camera image existing between the read camera position / posture data is calculated, and the position / posture information (X, Y, Z, κ) of the video camera that has captured the video image corresponding to the relevant frame is calculated. , Φ, ω), store the calculated value in the video image information, and repeat until the processing procedure is completed for all of the camera position / posture data estimated at the constant interval. Recording a program for causing a computer to execute the program.
【請求項7】請求項1又は2に記載のテクスチャマッピ
ング方法において、3次元構造モデルとビデオカメラと
の相対位置関係から探索するビデオ画像の範囲を絞り込
む処理手順は、ビデオカメラの位置・姿勢データを格納
したビデオ画像情報からデータを1つ読み込み、選出し
た対象ポリゴンの1つの頂点を選択し、前記選択された
頂点と撮影点との距離を計算し、該頂点に対応するテク
スチャ面の頂点座標を計算し、テクスチャ情報として画
像番号、頂点番号、座標、撮影点との距離を格納し、前
記処理手順を全ての頂点に対して行い、ビデオ画像内に
テクスチャの全部が映っている可能性のある画像とテク
スチャの全部もしくは一部しか映っていない画像とを区
別し、テクスチャの全部もしくは一部しか映っていない
画像をテクスチャ情報から削除し、ビデオ画像内にテク
スチャの全部が映っている可能性のある画像に対して、
対象ポリゴンの重心から一定距離内に含まれる1つのポ
リゴンを選出し、この選出されたポリゴン内の1つの頂
点を選出し、この選出された頂点に対応するビデオ画像
面上の点の座標を計算し、当該対応点が対象としている
テクスチャ面内に含まれているか否かを調ベ、対応点が
テクスチャ面内にある場合、前記選出した頂点と撮影点
との距離L1を計算し、対象ポリゴンの重心と撮影点と
の距離L2を計算し、当該両者を比較し、前記距離L1
が短い場合には、現在、対象としているビデオ画像に関
する情報をテクスチャ情報の中から削除し、全ての頂点
に対して前記処理を行い、前記処理を対象ポリゴンの重
心から一定距離内の全てのポリゴンに対して処理する処
理手順を、コンピュータに実行させるためのプログラム
を記録した記録媒体。
7. A processing procedure for narrowing a range of a video image to be searched from a relative positional relationship between a three-dimensional structure model and a video camera according to the texture mapping method according to claim 1 or 2, comprising: Is read from the video image information in which is stored, one vertex of the selected target polygon is selected, the distance between the selected vertex and the photographing point is calculated, and the vertex coordinates of the texture surface corresponding to the vertex are calculated. , And store the image number, vertex number, coordinates, and distance from the photographing point as texture information, and perform the above-described processing procedure on all vertices. Distinguish an image from an image that shows all or only part of the texture. Remove from broadcast, with respect to possible image in which all of the texture is reflected in the video image,
One polygon included within a certain distance from the center of gravity of the target polygon is selected, one vertex in the selected polygon is selected, and coordinates of a point on the video image plane corresponding to the selected vertex are calculated. Then, it is checked whether the corresponding point is included in the target texture plane. If the corresponding point is in the target texture plane, the distance L1 between the selected vertex and the photographing point is calculated, and the target polygon is calculated. The distance L2 between the center of gravity and the photographing point is calculated, the two are compared, and the distance L1 is calculated.
Is shorter than the texture information, the information relating to the current video image is deleted from the texture information, the above processing is performed on all vertices, and the processing is performed on all polygons within a certain distance from the center of gravity of the target polygon. A recording medium on which a program for causing a computer to execute a processing procedure for processing is recorded.
【請求項8】請求項1乃至3のうちいずれか1項に記載
のテクスチャマッピング方法において、前記テクスチャ
選択の処理手順は、テクスチャ情報から1つのデータを
読み込み、テクスチャ面の面積を計算し、テクスチャ面
の重心と主点との距離を計算し、この計算したテクスチ
ャ面の面積及びテクスチャ面の重心と主点との距離とを
比較し、当該面積が最大であるビデオ画像、または当該
面積が最大であるビデオ画像が複数ある場合は前記距離
が最小のビデオ画像を一意に選択する処理手順を、コン
ピュータに実行させるためのプログラムを記録した記録
媒体。
8. The texture mapping method according to claim 1, wherein said texture selection processing step reads one piece of data from texture information, calculates an area of a texture surface, The distance between the center of gravity of the surface and the principal point is calculated, and the calculated area of the textured surface and the distance between the center of gravity of the textured surface and the principal point are compared. A recording medium storing a program for causing a computer to execute a processing procedure for uniquely selecting a video image having the smallest distance when there are a plurality of video images.
【請求項9】一時記憶手段を有する中央演算処理装置
と、ビデオカメラで撮影した実写画像が格納されている
外部記憶装置とを備え、3次元構造モデルに対して、ビ
デオカメラで撮影した実写画像を自動的にテクスチャマ
ッピングするテクスチャマッピング装置であって、前記
外部記憶装置からビデオカメラで撮影した実写画像から
位置・姿勢データを読み出す位置・姿勢データ読み出し
手段と、実写撮影時のビデオカメラの位置及び姿勢を推
定する位置・姿勢推定手段と、3次元構造モデルとビデ
オカメラとの相対位置関係から探索ビデオ画像の範囲を
絞り込む探索ビデオ画像範囲絞り込み手段と、この探索
ビデオ画像範囲絞り込み手段により絞り込んだビデオ画
像の中から最適なテクスチャが映っているビデオ画像を
選択するビデオ画像選択手段と、このビデオ画像選択手
段により選択されたビデオ画像からテクスチャを切り取
るテクスチャ切り取り手段と、このテクスチャ切り取り
手段により切り取ったテクスチャを対応するポリゴンに
自動的に貼り付ける貼り付け手段とを具備することを持
徴とするテクスチャマッピング装置。
9. A central processing unit having a temporary storage means, and an external storage device in which a real image taken by a video camera is stored, wherein a real image taken by a video camera for a three-dimensional structural model is provided. A texture mapping device that automatically texture-maps the position and orientation data readout means for reading out position and orientation data from a photographed image taken by a video camera from the external storage device; Position / posture estimating means for estimating posture, search video image range narrowing means for narrowing the range of the search video image from the relative positional relationship between the three-dimensional structure model and the video camera, and video narrowed down by the search video image range narrowing means Select a video image with the best texture from among the images Selecting means, texture cutting means for cutting a texture from the video image selected by the video image selecting means, and pasting means for automatically pasting the texture cut by the texture cutting means to a corresponding polygon. Texture mapping device.
【請求項10】請求項9に記載のテクスチャマッピング
装置において、高解像度カメラを併設したビデオカメラ
で撮影した実写画像を外部記憶装置に格納し、高解像度
カメラの位置及び姿勢からビデオカメラの位置及び姿勢
を取得することを持徴とするテクスチャマッピング装
置。
10. The texture mapping apparatus according to claim 9, wherein a real image taken by a video camera provided with a high-resolution camera is stored in an external storage device, and the position and orientation of the video camera are determined based on the position and orientation of the high-resolution camera. Texture mapping device characterized by acquiring posture.
【請求項11】請求項9又は10に記載のテクスチャマ
ッピング装置を、自動車もしくはヘリコプターに搭載
し、ビデオカメラで撮影した実写画像を外部記憶装置に
格納し、高解像度カメラの位置及び姿勢からビデオカメ
ラの位置及び姿勢を取得することを持徴とするテクスチ
ャマッピング装置。
11. A texture mapping device according to claim 9 or 10 mounted on an automobile or a helicopter, a real image taken by a video camera is stored in an external storage device, and a video camera is obtained from the position and orientation of the high-resolution camera. Texture mapping device characterized by acquiring the position and orientation of the object.
JP4795099A 1999-02-25 1999-02-25 Texture mapping method and apparatus, and recording medium Expired - Lifetime JP3292368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4795099A JP3292368B2 (en) 1999-02-25 1999-02-25 Texture mapping method and apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4795099A JP3292368B2 (en) 1999-02-25 1999-02-25 Texture mapping method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2000242810A true JP2000242810A (en) 2000-09-08
JP3292368B2 JP3292368B2 (en) 2002-06-17

Family

ID=12789649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4795099A Expired - Lifetime JP3292368B2 (en) 1999-02-25 1999-02-25 Texture mapping method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3292368B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157397A (en) * 2002-11-07 2004-06-03 Mitsubishi Electric Corp Position reading apparatus
JP2006040053A (en) * 2004-07-28 2006-02-09 Taisei Corp Image processing method and program
JP2007514230A (en) * 2003-12-09 2007-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Computer graphics processor and method for rendering a 3D scene on a 3D image display screen
JP2011198293A (en) * 2010-03-23 2011-10-06 Computer System Kenkyusho:Kk Cad information generation system, method thereof, and program
JP2020022157A (en) * 2018-07-18 2020-02-06 エヌ・ティ・ティ・コムウェア株式会社 Inspection system and inspection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157397A (en) * 2002-11-07 2004-06-03 Mitsubishi Electric Corp Position reading apparatus
JP2007514230A (en) * 2003-12-09 2007-05-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Computer graphics processor and method for rendering a 3D scene on a 3D image display screen
JP2006040053A (en) * 2004-07-28 2006-02-09 Taisei Corp Image processing method and program
JP2011198293A (en) * 2010-03-23 2011-10-06 Computer System Kenkyusho:Kk Cad information generation system, method thereof, and program
JP2020022157A (en) * 2018-07-18 2020-02-06 エヌ・ティ・ティ・コムウェア株式会社 Inspection system and inspection method
JP7332353B2 (en) 2018-07-18 2023-08-23 エヌ・ティ・ティ・コムウェア株式会社 Inspection system and inspection method

Also Published As

Publication number Publication date
JP3292368B2 (en) 2002-06-17

Similar Documents

Publication Publication Date Title
US7046840B2 (en) 3-D reconstruction engine
JP6919864B2 (en) Methods and devices for reconstructing 3D point clouds
EP2959315B1 (en) Generation of 3d models of an environment
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
JP2002024807A (en) Object movement tracking technique and recording medium
JP2001022936A (en) Device for generating three-dimensional shape
JP4283816B2 (en) Three-dimensional environment information acquisition apparatus, three-dimensional environment information acquisition method, and recording medium storing a program realizing the method
CN112070870A (en) Point cloud map evaluation method and device, computer equipment and storage medium
CN109934165A (en) A kind of joint point detecting method, device, storage medium and electronic equipment
JPH10124704A (en) Device for preparing stereoscopic model and method therefor and medium for recording program for preparing stereoscopic model
JP2000242810A (en) Method and device for texture mapping, and recording medium
JP3198938B2 (en) Image processing device for mobile camera
JP3512919B2 (en) Apparatus and method for restoring object shape / camera viewpoint movement
CN113436318A (en) Scene reconstruction method and device, electronic equipment and computer storage medium
JP2000088554A (en) Search method for feature point of object, and memory media with record of process program thereof and search device for feature point
JP2001084385A (en) Three-dimensional video identification device, threedimensional video identification method and computer readable recording medium
JP2005063129A (en) Method, device and program for obtaining texture image from time-series image, and recording media for recording this program
CN116993924B (en) Three-dimensional scene modeling method and device, storage medium and computer equipment
JP2003256811A (en) Three-dimensional information restoring device and method, program for three-dimensional information restoring method and recording medium with its program recorded
JP7075090B1 (en) Information processing system and information processing method
JPH1040385A (en) Object shape restoring device and its method
WO2021100681A1 (en) Three-dimensional model generation method and three-dimensional model generation device
JP2004030462A (en) Method, apparatus and program for processing image, and computer readable recording medium with the same program recorded thereon
Kim et al. Projection-based registration using color and texture information for virtual environment generation
CN117197401A (en) Test method and device for point cloud construction, electronic equipment and storage medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080329

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110329

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120329

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130329

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term