JP3114862B2 - An interactive landscape labeling system - Google Patents

An interactive landscape labeling system

Info

Publication number
JP3114862B2
JP3114862B2 JP20179097A JP20179097A JP3114862B2 JP 3114862 B2 JP3114862 B2 JP 3114862B2 JP 20179097 A JP20179097 A JP 20179097A JP 20179097 A JP20179097 A JP 20179097A JP 3114862 B2 JP3114862 B2 JP 3114862B2
Authority
JP
Japan
Prior art keywords
information
image
user
camera
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP20179097A
Other languages
Japanese (ja)
Other versions
JPH1145047A (en
Inventor
隆宏 松村
利明 杉村
雅二 片桐
正次 高野
武史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP20179097A priority Critical patent/JP3114862B2/en
Publication of JPH1145047A publication Critical patent/JPH1145047A/en
Application granted granted Critical
Publication of JP3114862B2 publication Critical patent/JP3114862B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a device that teaches a user by voice guidance or the like.

【0002】[0002]

【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.

【0003】図12は特開平8−273000号に開示
されたナビゲーション装置の構造図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データを発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
FIG. 12 is a structural diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device receives a vehicle position data and a movement data, receives a road map data, updates a vehicle position with reference to a position updating unit 71, and displays display road data and display background data based on map data and the like. Display data generator 7 to be generated
2, a three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on these display data, and a storage unit 74.
When a travel route including a waypoint is set in advance, the device has a function of setting a route while viewing a real moving image display screen along a road that actually exists instead of a map screen.

【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図13)を見ることができる。
According to this device, when a user travels along a route that actually exists, the user can see a moving image display (for example, FIG. 13) along the route.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べては方向を把握したり目印を見つけたり
してその方向を注視し、その方向にある建物の特徴を理
解した上で再度地図を見てその建物が何であるかを理解
している。
However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. You have to recognize what is. In other words, humans rely on the naked eye to work the human brain unconsciously, based on the symbols in the map displayed as a moving image, based on the actual buildings, roads, and mountains in front of the user. It must be understood by performing the work of association. On street corners, etc., comparing the map with the computer and the actual scenery, grasping the direction, finding the landmarks, gazing at the direction, understanding the characteristics of the building in that direction, and looking at the map again Understand what the building is.

【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間の省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
[0006] For this reason, there is a problem that it is not possible to omit the trouble of comparing the map on the computer with the actual scenery many times and associating it with a human. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.

【0007】また、これまで不特定多数または特定の人
々が偶然の機会に知りあったり、共同作業することを可
能とするコンピュータシステムはあったが、あくまでも
計算機の内部の世界で可能にするようなシステムしかな
かった。サイバスペースと呼ばれているもの等がその例
である。そうしたシステムでは、コンピュータの内部に
作られた仮想的な都市空間の中で、そのシステムに登録
した人々をCGで表現した3次元図形を表示し、その3
次元CG図形をクリックしたり移動させたりすることに
より、仮想的な世界で情報取得や検索を可能としてい
た。
There have been computer systems that allow an unspecified number of people or specific people to know or work together by chance. However, such a computer system can be used only in the world inside a computer. There was only a system. An example is a so-called cyber space. In such a system, in a virtual city space created inside a computer, a three-dimensional figure expressing CG the people registered in the system is displayed.
By clicking and moving a dimensional CG figure, information acquisition and retrieval have been made possible in a virtual world.

【0008】しかしながら、あくまでそれは仮想的な目
に見えない世界での機能であって、現実の目に見える世
界での、システム登録者同士の情報取得や検索を可能と
するものではなかった。
However, it is a function in a virtual invisible world, and does not enable information acquisition and retrieval between system registrants in a real visible world.

【0009】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示するとともに、現実の
目に見える世界での、システム登録者同士の情報取得や
検索を可能とする相互利用型景観ラベリングシステムを
提供することである。
[0009] An object of the present invention is to provide the user with geographical information on a computer and each part in an image of a real scene (hereinafter referred to as a landscape image) in association with each other and to make the image visible to the real world. It is an object of the present invention to provide an interactive landscape labeling system that enables information acquisition and search between system registrants in the world.

【0010】[0010]

【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときのカメラ位置とカメラの角度と焦
点距離と画像サイズを撮影時取得し、コンピュータ上の
3次元地図空間内で実風景撮影時の位置とカメラの角度
と焦点距離から眺望した場合のコンピュータグラフィッ
クス(以下、CGとする。)画像内での地理的情報を取
得し、その地理的情報を、実風景である景観画像に重畳
表示することで対応付けを実現するものである。この地
理的情報とは画像での、構造物等の名称またはその属性
情報であり、属性情報とはその構造物に関するあらゆる
属性(例えば輪郭、色等)についての情報を意味する。
この明細書の中では構造物という言葉を人工の構造物以
外に、山や川や海等の天然の地形も含めて地図DBでの
何らかの地理的構造を有するデータ全ての意味で用いる
こととする。地理的情報の取得にあたっては、カメラ位
置、カメラ角、焦点距離、画像サイズをもとに景観画像
を求め、複数画像の構造物を求める。その構造物が写っ
ているはずの景観画像の位置(以下、付与位置と称す)
を求めて、構造物の名称または属性情報を重畳表示す
る。
According to the present invention, there is provided a camera in which map data on a computer is created in advance as three-dimensional data, and an image (hereinafter referred to as a landscape image to distinguish it from a CG image) is input. The computer graphics (hereinafter, referred to as the position, camera angle, focal length, and image size) are acquired at the time of shooting, and viewed from the position, camera angle, and focal length at the time of shooting the actual scene in the three-dimensional map space on the computer. This is to realize association by acquiring geographical information in an image and superimposing and displaying the geographical information on a landscape image which is a real scene. The geographic information is the name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, contour, color, etc.) of the structure.
In this specification, the term structure is used to mean all data having a certain geographical structure in the map DB, including natural topography such as mountains, rivers, and the sea, in addition to artificial structures. . When acquiring geographic information, a landscape image is obtained based on a camera position, a camera angle, a focal length, and an image size, and a structure of a plurality of images is obtained. The position of the landscape image where the structure should be shown (hereinafter, referred to as the assigned position)
Is obtained, and the name or attribute information of the structure is superimposed and displayed.

【0011】さらに、景観画像での構造物とCG画像で
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。獲得した構造物を
基にしてCG画像を作成し、景観画像の前記部分領域に
対してパターンマッチングによりCG画像中の部分領域
を対応付け、対応付けられた部分領域のもととなった構
造物を求める。
Further, in order to further increase the accuracy of associating the structure in the landscape image with the structure in the CG image,
The previously acquired structure is associated with each partial region of the landscape image by pattern matching. A CG image is created on the basis of the acquired structure, a partial region in the CG image is associated with the partial region of the landscape image by pattern matching, and the structure as a source of the associated partial region Ask for.

【0012】ここで、CG画像の作成法の一例について
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域のもととなる
構造物の名称を対応付けできる。
Here, an example of a method of creating a CG image will be described. By accessing the three-dimensional map DB based on the camera position, camera angle, focal length, and image size obtained earlier,
Obtain the visual field space in the three-dimensional map space. A structure in the visual field space is obtained, and three-dimensional data of each structure is three-dimensionally projected and converted onto the projection plane using the camera screen as a projection plane. Further, of the line data constituting the projected figure of each structure, line data hidden by other structures and invisible is erased using a normal vector method or the like. The CG image is divided into regions based on the line data remaining after the elimination of the hidden lines. 3D map DB
Is used, the name of the structure that is the basis of the area can be associated with each area.

【0013】そうして、パターンマッチングにより景観
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、視覚機器に
表示する。
Then, the structure names of the partial areas of the CG image corresponding to the respective partial areas of the landscape image are extracted by pattern matching. The position coordinates of the actual scenery image on which the extracted structure name is to be superimposed are obtained by three-dimensionally projecting the position coordinates of the structure in the three-dimensional map space onto the projection plane. Label information is created from the position coordinates of the actual scenery image on which the extracted structure name is to be superimposed. Based on the label information, the structure name is superimposed on a landscape image as a real scene and displayed on a visual device.

【0014】また、本発明では、ユーザ端末からセンタ
ーへ、ユーザに関する位置情報(時刻付)および属性情
報を一定時間毎に送る。ここで、属性情報とは、各ユー
ザに関する情報であれば何でもよい。属性情報の例とし
て、ユーザの発言を含むユーザ周辺の音響情報や、ユー
ザが作成した文書ファイル、ユーザが撮影した画像ファ
イル等なんでもよい。また、ユーザ端末から、他のユー
ザに関する情報であって、取得したい情報を指定するこ
とができる。センター側の通信制御手段はユーザ情報管
理手段にユーザに関する位置情報および属性情報をセン
ター制御手段経由で渡す。ユーザ情報管理手段では、各
ユーザの位置情報および属性情報を管理し、別のユーザ
からそのユーザに関する情報の取得要求が行われた場
合、そのユーザの各情報に関するアクセス権レベルに応
じて情報取得要求への情報提供の可否を決定し、情報提
供可の場合は取得要求を出したユーザに情報を提供す
る。情報の例として、ユーザの位置の履歴情報やユーザ
属性情報等がある。
Further, in the present invention, position information (with time) and attribute information on the user are sent from the user terminal to the center at regular intervals. Here, the attribute information may be any information as long as it is information on each user. Examples of the attribute information include acoustic information around the user including the user's remark, a document file created by the user, an image file photographed by the user, and the like. In addition, from the user terminal, information relating to another user, which is desired to be acquired, can be specified. The communication control means on the center side passes position information and attribute information on the user to the user information management means via the center control means. The user information management means manages position information and attribute information of each user, and when another user requests acquisition of information about the user, the information acquisition request is made according to the access right level of each information of the user. It is determined whether information can be provided to the user, and if the information can be provided, the information is provided to the user who issued the acquisition request. Examples of the information include history information of the position of the user and user attribute information.

【0015】ユーザ情報管理手段は、ユーザの位置情報
をセンター制御手段へ渡し、センター制御手段では、ユ
ーザの位置情報をラベル情報作成手段に渡す。ラベル情
報作成手段では、システムと接続されている各ユーザの
位置情報を元にして、各ユーザが存在する、または最寄
りの構造物を求め、その構造物内部にまたは近辺に各ユ
ーザが存在することを各ユーザに教示するためのユーザ
位置情報を作成して、これを先に作成したラベル情報に
加えてセンター制御手段に渡す。ここで、ユーザ位置情
報は、各ユーザが存在する、または最寄りの構造物の名
称、属性情報およびその付与位置情報からなる。ユーザ
位置情報は通信制御部を介してラベル情報出力手段に渡
り、例えば、HMD(ヘッドマウントディスプレイ等の
視覚機器)に表示される。
The user information management means passes the position information of the user to the center control means, and the center control means passes the position information of the user to the label information creation means. In the label information creating means, based on the position information of each user connected to the system, each user is present or the nearest structure is obtained, and each user is present inside or near the structure. Is created, and this is added to the previously created label information and passed to the center control means. Here, the user position information includes the name of the structure where each user is present or the nearest structure, attribute information, and its assigned position information. The user position information is passed to the label information output unit via the communication control unit, and is displayed on, for example, an HMD (a visual device such as a head-mounted display).

【0016】本発明の相互利用型景観ラベリングシステ
ムは、複数のユーザ端末とセンターからなり、前記各ユ
ーザ端末は、画像を取得する画像取得手段と、画像取得
時のカメラ位置を取得する位置情報取得手段と、画像取
得時のカメラ角と焦点距離と画像サイズを取得するカメ
ラ属性情報取得手段と、取得した画像を複数の部分領域
に分割する画像処理手段と、他のユーザに関する情報で
あって、取得したい情報を指定したユーザ情報取得要求
を出力するユーザ情報取得要求部と、当該ユーザに関す
る時刻付位置情報と属性情報を一定時間毎に前記センタ
ーに送信し、また前記ユーザ情報取得要求を前記センタ
ーに送信し、前記画像の領域分割に関する情報と前記カ
メラ位置と前記カメラ角と前記焦点距離と前記画像サイ
ズとを通信網を介して前記センターに送信し、前記セン
ターからユーザ情報取得要求を出した他ユーザの情報を
受信し、また前記センターからラベル情報を受信する通
信制御手段と、前記他ユーザの情報を取得するユーザ情
報取得手段と、前記ラベル情報中の構造物の名称または
その属性を画像中に対応する位置に重畳し、重畳された
画像を視覚機器に出力するラベル情報出力手段と、前記
各手段を制御する端末制御手段を含み、前記センター
は、前記通信網を介して前記ユーザ端末から前記画像の
領域分割に関する情報と前記カメラ位置前記カメラ角と
前記焦点距離と前記画像サイズとを受信し、また前記各
ユーザ端末から時刻付位置情報と属性情報およびユーザ
情報取得要求を受信し、また他のユーザに関する情報と
前記ラベル情報を前記ユーザ端末へ送信する通信制御手
段と、各ユーザの位置情報と属性情報を管理し、ユーザ
情報取得要求が送られてきた場合、該ユーザ情報取得要
求を出したユーザのアクセス権レベルに応じて情報提供
の可否を決定し、情報提供可の場合は当該ユーザに情報
を提供するユーザ情報管理手段と、地図情報を管理し、
受信したカメラ位置とカメラ角と焦点距離と画像サイズ
を基に地図情報空間の中で視野空間を求め、その視野空
間中に存在する構造物を獲得し、また前記センターと接
続されている各ユーザ端末の情報を基にして、各ユーザ
が存在する、または最寄りの構造物を求める地図情報管
理手段と、前記画像の前記部分領域に対して前記獲得し
た構造物を対応付け、対応付けられた前記構造物の名称
または属性情報および付与位置の座標と、各ユーザが存
在する、または最寄りの構造物の名称またはその属性情
報およびその付与位置座標からなるユーザ位置情報を含
むラベル情報を作成するラベル情報作成手段と、前記各
手段を制御するセンター制御手段を含む。
The mutual use type landscape labeling system according to the present invention comprises a plurality of user terminals and a center, wherein each of the user terminals includes an image obtaining means for obtaining an image, and a position information obtaining apparatus for obtaining a camera position at the time of obtaining the image. Means, camera attribute information acquisition means for acquiring the camera angle, focal length, and image size at the time of image acquisition, image processing means for dividing the acquired image into a plurality of partial areas, and information about other users, A user information acquisition request unit for outputting a user information acquisition request specifying information to be acquired, transmitting time-added position information and attribute information relating to the user to the center at regular intervals, and transmitting the user information acquisition request to the center. And transmits the information on the area division of the image, the camera position, the camera angle, the focal length, and the image size via a communication network. Communication control means for transmitting to the center, receiving information of another user who issued a user information acquisition request from the center, and receiving label information from the center, and acquiring user information for acquiring the information of the other user. Means, label information output means for superimposing the name of the structure in the label information or its attribute at a corresponding position in the image, and outputting the superimposed image to a visual device, and terminal control for controlling each of the means Means for receiving, from the user terminal via the communication network, information relating to area division of the image, the camera position, the camera angle, the focal length, and the image size; From the user terminal, and sends information on other users and the label information to the user terminal. Communication control means for managing position information and attribute information of each user, and when a user information acquisition request is sent, determines whether information can be provided according to the access right level of the user who issued the user information acquisition request. Determine, if the information can be provided, user information management means for providing information to the user, and manage map information,
Obtain a visual space in the map information space based on the received camera position, camera angle, focal length, and image size, obtain a structure existing in the visual space, and connect each user connected to the center. Based on the information of the terminal, the map information management means in which each user is present, or seeks the nearest structure, and the obtained structure is associated with the partial region of the image, and the associated Label information for creating the label information including the name of the structure or the attribute information and the coordinates of the assigned position, and the name of the structure where each user is present or the nearest, or the user's position information including the attribute information and the assigned position coordinates It includes a creating means and a center control means for controlling each of the means.

【0017】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物を基にしてCG画像を作成
し、前記画像の前記部分領域に対してパターンマッチン
グにより前記CG画像中の部分領域に対応付け、対応付
けられた部分領域の構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
According to an embodiment of the present invention, the label information creating means creates a CG image based on the acquired structure, and performs pattern matching on the partial area of the image to obtain a portion in the CG image. The structure of the partial area associated with the area is obtained, and label information including the name or attribute information of the structure and the assigned position is created.

【0018】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割し、前記画像の前記部分領域と前記C
G画像の前記部分領域とをパターンマッチングにより対
応付け、画像の部分領域に対して対応付けCG画像の部
分領域の基となった構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
According to the embodiment of the present invention, the label information creating means performs three-dimensional projection conversion of the acquired structure on a camera screen, erases the structure that cannot be seen from the viewpoint, creates a CG image, and creates a CG image. The CG image is divided into partial regions by the contour line of the middle partial region, and the partial region of the image is
The partial area of the G image is associated with the partial area of the image by pattern matching, and the partial area of the image is determined. The structure that is the basis of the partial area of the CG image is obtained. Create label information to include.

【0019】[0019]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0020】図1は本発明の一実施形態の相互利用型景
観ラベリングシステムの構成図である。
FIG. 1 is a block diagram of an interactive scenery labeling system according to an embodiment of the present invention.

【0021】本実施形態の相互利用型景観ラベリングシ
ステムは、ユーザ端末1と、センター2と、ユーザ端末
1とセンター2を接続する通信網3で構成されている。
なお、図1ではユーザ端末1は1つしか図示されていな
いが、実際には複数存在する。
The landscape labeling system of the present embodiment comprises a user terminal 1, a center 2, and a communication network 3 connecting the user terminal 1 and the center 2.
Although only one user terminal 1 is shown in FIG. 1, there are actually a plurality of user terminals.

【0022】ユーザ端末1は、画像を取得する画像取得
部11と、画像取得時のカメラ位置を取得する位置情報
取得部12と、画像取得時のカメラ角と焦点距離と画像
サイズを取得するカメラ属性情報取得部13と、取得し
た画像を複数の部分領域に分割する画像処理部14と、
他のユーザに関する情報であって、取得したい情報を指
定したユーザ情報取得要求を出力するユーザ情報取得要
求部15と、当該ユーザに関する時刻付位置情報と属性
情報を一定時間毎にセンター2に送信し、またユーザ情
報取得要求をセンター2に送信し、センター2から取得
要求を出した他ユーザの情報とラベル情報を受信する通
信制御部16と、他のユーザの情報を取得するユーザ情
報取得部17と、前記ラベル情報中の構造物またはその
属性情報を画像中の付与位置に対応する位置に重畳し、
重畳された画像を視覚機器に出力するラベル情報出力部
18と、前記各部を制御する端末制御部19を含む。
The user terminal 1 includes an image acquisition unit 11 for acquiring an image, a position information acquisition unit 12 for acquiring a camera position at the time of image acquisition, and a camera for acquiring a camera angle, a focal length, and an image size at the time of image acquisition. An attribute information acquisition unit 13, an image processing unit 14 for dividing the acquired image into a plurality of partial areas,
A user information acquisition request unit 15 that outputs a user information acquisition request specifying information to be acquired, which is information about another user, and transmits time-added position information and attribute information about the user to the center 2 at regular intervals. A communication control unit 16 that transmits a user information acquisition request to the center 2 and receives information and label information of another user who has issued the acquisition request from the center 2, and a user information acquisition unit 17 that acquires information of another user. And superimpose the structure in the label information or its attribute information at a position corresponding to the application position in the image,
It includes a label information output unit 18 that outputs the superimposed image to the visual device, and a terminal control unit 19 that controls each unit.

【0023】センター2は、通信網3を介してユーザ端
末1から前記画像の領域分割に関する情報とカメラ位置
とカメラ角と焦点距離と画像サイズとを受信し、また各
ユーザ端末1から時刻付位置情報と属性情報およびユー
ザ情報取得要求を受信し、また他のユーザに関する情報
とラベル情報をユーザ端末1へ送信する通信制御部24
と、各ユーザの位置情報と属性情報を管理し、あるユー
ザから他のユーザに関する情報の取得要求が送られてき
た場合、当該ユーザのアクセス権レベルに応じて情報提
供の可否を決定し、情報提供可の場合は当該ユーザに情
報を提供するユーザ情報管理部21と、地図情報を管理
し、受信したカメラ位置とカメラ角と画像サイズを基に
地図情報空間の中で視野空間を求め、その視野空間中に
存在する構造物を獲得し、またセンター2と接続されて
いる各ユーザ端末1の位置情報を基にして、各ユーザが
存在する、または最寄りの構造物を求める地図情報管理
部22と、前記画像の前記部分領域に対して前記獲得し
た構造物を対応付け、対応付けられた前記構造物の名称
または属性情報および付与位置座標と、各ユーザが存在
する、または最寄りの構造の名称、属性情報およびその
付与位置座標からなるラベル情報を作成するラベル情報
作成部23と、前記各手段を制御するセンター制御部2
5を含む。
The center 2 receives information on the area division of the image, the camera position, the camera angle, the focal length, and the image size from the user terminal 1 via the communication network 3, and receives the time-stamped position from each user terminal 1. A communication control unit 24 for receiving information, attribute information, and a user information acquisition request, and transmitting information and label information on other users to the user terminal 1;
And manages the position information and attribute information of each user, and when a certain user receives a request to obtain information on another user, determines whether to provide information according to the access right level of the user, and If it can be provided, the user information management unit 21 that provides information to the user, manages the map information, obtains a visual field space in the map information space based on the received camera position, camera angle, and image size. A map information management unit 22 that acquires a structure existing in the visual field space, and obtains a structure where each user is present or the nearest structure based on position information of each user terminal 1 connected to the center 2. And the acquired structure is associated with the partial region of the image, and the name or attribute information of the associated structure and assigned position coordinates, and each user is present or nearby Structure name of the attribute information and the label information preparation section 23 for creating a label information comprising the assigned position coordinates, the central control unit 2 for controlling the respective means
5 is included.

【0024】次に、本実施形態の動作を説明する。Next, the operation of this embodiment will be described.

【0025】ユーザ端末1が起動されると、まず端末制
御部19が景観画像に関する情報を取得するために、位
置情報取得部12、カメラ属性情報取得部13、画像取
得部11に対して処理開始コマンドを送る。位置情報取
得部12は、制御部19から命令を受けてGPS受信機
等により位置情報を毎秒収集し、制御部19に渡す(ス
テップ31)。ここで、時間間隔は秒単位に限らずどの
ようにとってもよい。画像取得部11は、制御部19か
ら命令を受けて毎秒の景観画像を取得し、制御部19に
渡す(ステップ32)。カメラ属性情報取得部13は、
制御部19の命令を受けて画像撮影時のカメラ等景観画
像記録装置のカメラ角を水平角と仰角の組で取得し(ス
テップ33)、同時にズーム機能を有する景観画像装置
であれば焦点距離を取得する(ステップ34)。画像サ
イズは景観画像装置毎に固定なので、制御部19が画像
サイズ情報を保持しておく。制御部18は収集した情報
を景観画像ファイルとして保持する。
When the user terminal 1 is started, first, the terminal control unit 19 starts processing the position information acquisition unit 12, the camera attribute information acquisition unit 13, and the image acquisition unit 11 in order to acquire information on the landscape image. Send a command. The position information acquisition unit 12 receives a command from the control unit 19, collects position information with a GPS receiver or the like every second, and transfers the collected position information to the control unit 19 (step 31). Here, the time interval is not limited to the unit of seconds, but may be any value. The image acquisition unit 11 receives a command from the control unit 19, acquires a landscape image every second, and passes it to the control unit 19 (step 32). The camera attribute information acquisition unit 13
In response to a command from the control unit 19, the camera angle of a landscape image recording device such as a camera at the time of image capturing is acquired as a set of a horizontal angle and an elevation angle (step 33). Acquire (Step 34). Since the image size is fixed for each landscape image device, the control unit 19 holds the image size information. The control unit 18 holds the collected information as a landscape image file.

【0026】図3は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
FIG. 3 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.

【0027】制御部19は景観画像ファイルを格納する
と、画像処理部14に対して、景観画像から輪郭線を抽
出し、景観画像を複数の領域に分割するように命令す
る。画像処理部14では、大まかに言えば景観画像内の
濃度差を基に微分処理を行って輪郭線を抽出し(ステッ
プ35)、その輪郭線を境界としたラベリングを行うこ
とによって領域分割する(ステップ36)。なお、ここ
で用いたラベリングと言う技術用語は画像の領域分割に
おいて用いられる技術用語であって、本発明の名称であ
る景観ラベリングとは異なるものである。手順としては
まず、画像を白黒濃淡画像に変換する。輪郭は明るさの
急変する部分であるから、微分処理を行って微分値がし
きい値より大きい部分を求めることで輪郭線の抽出を行
う。このとき輪郭線の線幅は1画素であり、輪郭線は連
結しているようにする。そのために細線化処理を行っ
て、線幅1画素の連結した線を得る。ここで微分処理、
細線化処理は従来からある手法を用いれば十分である。
After storing the landscape image file, the control unit 19 instructs the image processing unit 14 to extract the outline from the landscape image and divide the landscape image into a plurality of regions. The image processing unit 14 extracts a contour line by performing differentiation processing based on the density difference in the landscape image, roughly speaking (step 35), and divides the region by performing labeling using the contour line as a boundary (step 35). Step 36). Note that the technical term of labeling used here is a technical term used in image area division, and is different from landscape labeling, which is the name of the present invention. As a procedure, first, the image is converted into a monochrome grayscale image. Since the contour is a portion where the brightness changes suddenly, the contour is extracted by performing a differentiation process to find a portion where the differential value is larger than a threshold value. At this time, the line width of the outline is one pixel, and the outlines are connected. For this purpose, a thinning process is performed to obtain a connected line having a line width of one pixel. Where the differentiation process,
It is sufficient to use a conventional method for the thinning processing.

【0028】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図8に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
The obtained contour is regarded as the contour of the area, and an operation of numbering the area constituted by the contour is performed.
The largest number among the numbers is the number of areas, and the number of pixels in the area indicates the area of the area. FIG. 8 shows an example in which a landscape image is divided into a plurality of partial regions. Note that a measure of similarity (closeness) between regions may be introduced, and a clustering process may be performed to combine a plurality of regions having similar properties into one region. Any existing clustering method may be used.

【0029】以上求められた、画像の領域分割に関する
情報とカメラ位置とカメラ角と焦点距離と画像サイズは
通信制御部16から通信網3を経てセンター2に送られ
る(ステップ37)。また、ユーザ端末1の時刻付位置
情報と属性情報(ユーザの発言を含むユーザ周辺の音響
情報、ユーザが作成した文書ファイル、ユーザが作成し
た画像ファイル等)が一定時間毎に通信制御部16から
センター2に送られる(ステップ38)。さらに、ユー
ザがユーザ情報取得部15から、他のユーザに関する情
報であって、取得したい情報を指定したユーザ情報を取
得要求を出すと、これが通信制御16からセンター2に
送られる(ステップ39)。
The information on the area division of the image, the camera position, the camera angle, the focal length, and the image size obtained above are sent from the communication control unit 16 to the center 2 via the communication network 3 (step 37). Also, the time-based position information and attribute information of the user terminal 1 (audio information around the user including the user's remark, a document file created by the user, an image file created by the user, etc.) are transmitted from the communication control unit 16 at regular intervals. It is sent to the center 2 (step 38). Further, when the user issues an acquisition request from the user information acquisition unit 15 for user information that specifies information to be acquired, which is information about another user, this is sent from the communication control 16 to the center 2 (step 39).

【0030】センター2の地図情報管理部22はユーザ
端末1から景観画像ファイルのヘッダ情報を受け取る
と、地図DBをアクセスし(ステップ40)、視野空間
の算出処理を行う(ステップ41)。地図情報管理部2
2の例としては、地図データベースプログラムがある。
地図情報管理部22は3次元地図データを管理してい
る。2次元地図データでもよいが、その場合は高さがな
いために実風景へのラベリングの付与位置の精度が劣
る。なお、2次元地図データを基にする場合は、高さ情
報を補って処理する。例えば、家屋の2次元データであ
る場合に、家屋が何階建てかを表す階数情報があれば、
階数に一定数を掛けてその家屋の高さを推定し、2次元
データと推定して求めた高さ情報を基に3次元データを
作成する。階数情報がない場合でも、家屋図形の面積に
応じて一定数の高さを割り振る等して高さ情報を推定す
ることができ、同様に推定高さ情報をもとに3次元デー
タを作成する。こうして3次元データを作成して処理を
進める。
When the map information management unit 22 of the center 2 receives the header information of the landscape image file from the user terminal 1, it accesses the map DB (step 40) and performs a visual space calculation process (step 41). Map information management unit 2
A second example is a map database program.
The map information management unit 22 manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. When the two-dimensional map data is used as the basis, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house,
The height of the house is estimated by multiplying the number of floors by a certain number, and three-dimensional data is created based on the height information obtained by estimating the two-dimensional data. Even when there is no floor information, the height information can be estimated by assigning a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. . In this way, three-dimensional data is created and the process proceeds.

【0031】3次元地図データの例を図4に示す。図4
(1)に2次元で表現した地図情報空間を示し、図4
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部22では制
御部25の命令を受けて景観画像ファイルのヘッダ情報
を基に視野空間を算出する(ステップ41)。図5に視
野空間の計算例を示す。まず、水平方向にXY軸が張
り、垂直方向にZ軸が張るものとする。景観画像ファイ
ルのヘッダ情報中の位置情報から、視点Eの位置を3次
元地図情報空間の中で設定する。例えば、東経137度
55分19秒、北緯34度34分30秒、標高101m
33cmであれば、それに対応する地図メッシュ番号中
の対応する座標を設定する。同じくヘッダ情報中のじカ
メラ角情報中の水平角と仰角をもとにカメラ角方向を設
定する。カメラ角方向を表す直線上に視点Eから焦点距
離分進んだ点に焦点Fをとる。視線方向ベクトルはその
直線上で視点Eから出る長さlの単位ベクトルである。
景観画像ファイルの画像サイズで横方向のサイズからカ
メラ画面のX軸での幅xを設定し、縦方向のサイズから
Y軸での幅yを設定する。横x縦yの平面は視線方向ベ
クトルに対してカメラ角方向に垂直で、かつ焦点Fを含
むように設定される。視点Eの座標からカメラ画面の4
隅の点とを結ぶ直線を各々求め、視点Eから延びる4本
の半直線が作る3次元空間を視野空間とする。図6に、
3次元地図空間での視野空間の例を示す。3次元地図空
間をXZ平面から眺めたものである。図6中で斜線で囲
まれた部分は視野空間に属する空間の、XZ平面での断
面図である。図6の例では、視野空間の中のビルや山が
含まれている。
FIG. 4 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
With respect to the three-dimensional map information space, the map information management unit 22 calculates the visual field space based on the header information of the landscape image file in response to an instruction from the control unit 25 (step 41). FIG. 5 shows a calculation example of the visual field space. First, it is assumed that the XY axes extend in the horizontal direction and the Z axis extends in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, 137 degrees 55 minutes 19 seconds east longitude, 34 degrees 34 minutes 30 seconds north latitude, 101 m elevation
If it is 33 cm, the corresponding coordinates in the corresponding map mesh number are set. Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the same camera angle information in the header information. The focal point F is set at a point advanced from the viewpoint E by the focal length on a straight line representing the camera angle direction. The line-of-sight direction vector is a unit vector having a length 1 coming out of the viewpoint E on the straight line.
In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is set so as to be perpendicular to the camera angle direction with respect to the line of sight vector and to include the focal point F. From the coordinates of the viewpoint E,
Straight lines connecting the corner points are obtained, and a three-dimensional space formed by four half lines extending from the viewpoint E is defined as a visual field space. In FIG.
4 shows an example of a visual field space in a three-dimensional map space. The three-dimensional map space is viewed from the XZ plane. In FIG. 6, a portion surrounded by oblique lines is a cross-sectional view of the space belonging to the viewing space on the XZ plane. In the example of FIG. 6, buildings and mountains in the visual field space are included.

【0032】さらに、地図情報管理部22では、求めた
視野空間の中の存在する構造物を求める。構造物毎に、
構造物を表す立体を構成する各頂点が、視野空間の内部
領域に存在するか否かを計算する。通常2次元地図空間
は一定サイズの2次元メッシュで区切られている。3次
元地図空間のメッシュの切り方としては、縦横の2次元
方向のメッシュに加えて高さ方向にも一定間隔でメッシ
ュを切っていく。空間を直方体の単位空間で区切ること
になる。まず、直方体の単位空間毎視野空間との重なり
部分の有無を調べ、重なり部分がある3次元単位地図空
間の番号を求める。ここでいう3次元単位地図空間の番
号とは、いわゆるメッシュ番号と同様のものである。重
なりを持つ3次元単位地図空間内にある構造物に対し
て、視野空間と重なり部分の有無を調べる。構造物を構
成する頂点の座標と視点の座標とを結ぶ直線を求め、そ
の直線が図7のカメラ画面に対して交点を持つならば視
野空間内にある。構造物を構成する複数の頂点のうち、
一つの頂点でもこの条件を満たせば、その構造物は視野
空間と重なり部分を持つものとする。
Further, the map information management unit 22 obtains a structure existing in the obtained visual field space. For each structure,
It is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. A check is made as to whether or not there is an overlapping portion between the visual field space and the structure in the overlapping three-dimensional unit map space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained. If the straight line has an intersection with the camera screen of FIG. 7, it is within the visual field space. Of the vertices that make up the structure,
If at least one vertex satisfies this condition, the structure has an overlapping part with the viewing space.

【0033】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ42)。ここで、図7に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
When a structure is included in the view space or a part of the structure, the camera screen is used as a projection plane, and a process for three-dimensionally projecting each structure onto this projection plane is started (step 42). ). Here, as shown in FIG. 7, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .

【0034】[0034]

【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):視線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly21/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に値する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。
(Equation 1) Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): gaze direction vector (Unit vector) Point P ′ = (x ′, y ′, z ′): coordinates in a coordinate system based on the viewpoint E of the point P r = (lx 2 + ly 2 ) 1/2 intersection Q = (X, Y): The projection point t of the point P on the camera screen is the focal length. In the three-dimensional projection conversion, first, for each structure, the surface on which the vertex extends is obtained. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, the depth value (Z
Value) and store it in memory. Note that z ′ in (Equation 1) represents a depth value (Z value) from the viewpoint.

【0035】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ4
3)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
Among the structures three-dimensionally transformed on the camera screen, there are structures visible from the viewpoint and structures not visible. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 4).
3). There are various methods for processing the hidden surface.
Use the buffer method. Other scan line methods and ray tracing methods may be used.

【0036】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is obtained. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased.

【0037】こうしてできた領域がCG画像領域を形成
する(ステップ44)。
The area thus formed forms a CG image area (step 44).

【0038】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
With respect to the coordinates of the vertices of the two-dimensional figure constituting the CG image area, three-dimensional coordinates before projection transformation are obtained, and the correspondence between the two is stored in the memory as link information. It is used to determine which structure the two-dimensional area is a projection of based on the link information.

【0039】隠線消去して残った線データを基にして、
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図9に示す。
Based on the line data remaining after erasing hidden lines,
The CG image is divided into regions. Since the three-dimensional map DB is used, the name of the structure serving as the basis of each area can be associated with each area. The divided areas of the CG image are numbered sequentially. FIG. 9 shows an example in which a CG image is divided into a plurality of partial areas.

【0040】また、ユーザ情報取得要求がセンター2に
送られてくると、ユーザ情報管理部21ではセンター制
御部25を経て該要求を受け取り、そのユーザの各情報
に関するアクセス権レベルに応じて情報取得要求への情
報提供の可否を決定し、情報提供可の場合は取得要求を
出したユーザ端末1に情報をセンター制御部25、通信
制御部24を経て送る(ステップ45)。ユーザ端末1
のユーザ情報取得部15は要求した他のユーザ情報を受
け取り、画面に表示したり、プリントアウトする。ま
た、センター2の情報管理部22はユーザ端末1の時刻
付位置情報をセンター制御部25を経て受け取ると、ユ
ーザー端末1が存在するまたは最寄りの構造物を、地図
DBをアクセスして求め、センター制御部25を経てラ
ベル情報作成部23に渡す(ステップ46)。
When a user information acquisition request is sent to the center 2, the user information management unit 21 receives the request via the center control unit 25, and acquires the information according to the access right level for each information of the user. It is determined whether or not the information can be provided to the request. If the information can be provided, the information is sent to the user terminal 1 that issued the acquisition request via the center control unit 25 and the communication control unit 24 (step 45). User terminal 1
Receives the other requested user information, displays it on the screen, or prints it out. When the information management unit 22 of the center 2 receives the time-added position information of the user terminal 1 via the center control unit 25, the information management unit 22 accesses the map DB to determine the structure where the user terminal 1 exists or is located closest to the center. The data is passed to the label information creating unit 23 via the control unit 25 (step 46).

【0041】次に、センター制御部25はラベル情報作
成部23に対して、CG画像の分割領域と景観画像の分
割領域の対応付けを行うように命令する。ラベル情報作
成部23では、テンプレートマッチングによりCG画像
の分割領域とラベリングの分割領域の対応付けを行う
(ステップ47、図10参照。)。
Next, the center control unit 25 instructs the label information creating unit 23 to associate the CG image divided area with the landscape image divided area. The label information creating unit 23 associates the divided area of the CG image with the divided area of the labeling by template matching (step 47, see FIG. 10).

【0042】景観画像の分割領域のうち、番号の若い領
域(例えば、1番)から順にCG画像の部分領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
ッチング方法のうちのどれをとってもよいが、ここでは
単純なテンプレートマッチング法をとる。つまり、比較
する2つの領域を重ね合わせ、重なり合う部分の比率
が、しきい値として決めた一定の比率以上にある場合に
同一の構造物に関する領域として対応付けることとす
る。例えば、景観画像の分割領域1番目のR1に関し
て、その領域内にある各画素の座標値を(A,B)とす
る。座標(A,B)での画素の値は、領域の内部ゆえに
1である。CG画像の1番目の分割領域S1において、
座標(A,B)が領域S1内ならば画素値1であり重な
るが、S1の外ならば画素値0であり重ならない。こう
して座標(A,B)での重なり係数K(A,B)とし
て、重なる場合1、重ならない場合0で決まる。座標
(A,B)を領域R1内で動かして、重なり係数K
(A,B)を求める。そして、領域R1内で動かした座
標(A,B)の数N1に対して、重なり係数K(A,
B)が1であった座標の数N2を求めて、N1/N2が
しきい値以上である場合に、景観画像の部分領域R1と
CG画像の部分領域S1が対応するものと決める。この
対応付けを景観画像の分割領域の1番目から最後のもの
まで行う。なお、マッチング方法としてこの他、XY方
向に多少の位置ずれがあっても同じ値になるような評価
関数を用いてもよい。
In the divided areas of the landscape image, the areas are associated with the partial areas of the CG image in ascending order of the number (for example, No. 1). For matching, any of the conventional matching methods may be used, but here, a simple template matching method is used. That is, two regions to be compared are superimposed, and when the ratio of overlapping portions is equal to or greater than a certain ratio determined as a threshold, the regions are associated as regions relating to the same structure. For example, the coordinate value of each pixel in the first divided region R1 of the landscape image is set to (A, B). The value of the pixel at coordinates (A, B) is 1 because it is inside the area. In the first divided area S1 of the CG image,
If the coordinates (A, B) are within the area S1, the pixel value is 1 and overlaps, but if the coordinates (A, B) are outside the area S1, the pixel value is 0 and does not overlap. In this way, the overlap coefficient K (A, B) at the coordinates (A, B) is determined to be 1 when they overlap and 0 when they do not overlap. The coordinates (A, B) are moved within the region R1, and the overlap coefficient K
(A, B) is obtained. Then, with respect to the number N1 of coordinates (A, B) moved in the region R1, the overlap coefficient K (A,
The number N2 of coordinates where B) was 1 is obtained, and when N1 / N2 is equal to or larger than the threshold value, it is determined that the partial region R1 of the landscape image and the partial region S1 of the CG image correspond to each other. This association is performed from the first to the last divided area of the landscape image. In addition, as the matching method, an evaluation function that has the same value even if there is a slight displacement in the XY directions may be used.

【0043】ラベル情報作成部23では、景観画像の部
分領域に対してCG画像の部分領域を対応付けた後、さ
らに景観画像の部分領域毎に重畳すべき情報を求め、重
畳すべき位置とともにラベル情報として作成する処理
(ステップ48、49)に入る。まず、景観画像の部分
領域に対して、対応するCG画像の部分領域を取り出
す。取り出したCG画像の部分領域はもともと3次元地
図空間の中の3次元構造物のある面をカメラ画面に対し
て3次元投影変換して得られたものである。そこで、3
次元投影変換の基となった3次元構造物の面を、CG画
像の部分領域が持つ奥行き値(Z値)をキーとして求め
る。先に3次元投影変換した際に作成しておいたリンク
情報をキーにしてもよい。もととなった構造物の面をも
とに、3次元地図DBにアクセスしてその構造物の名称
または属性情報を取得する。ここで属性情報とは、その
構造物に関して付随する情報を意味し、その構造物に係
る情報ならば何でもよい。そして、名称または属性情報
を重畳すべき位置座標を、景観画像の部分領域に対して
決める。決め方は、どのように決めてもよい。例えば、
部分領域を張る図形の重心でもよい。その構造物の名称
または属性情報および付与位置座標、そして各ユーザが
存在する、または最寄りの構造物、属性情報およびその
付与位置情報からなるユーザ位置情報を含むラベル情報
を作成する。表1にラベル情報の例を示す。
After associating the partial area of the landscape image with the partial area of the CG image, the label information creating unit 23 further obtains information to be superimposed on each partial area of the landscape image, The process for creating information (steps 48 and 49) is entered. First, a partial area of the CG image corresponding to the partial area of the landscape image is extracted. The partial region of the extracted CG image is originally obtained by three-dimensionally projecting and converting a certain surface of the three-dimensional structure in the three-dimensional map space onto the camera screen. So 3
The surface of the three-dimensional structure that is the basis of the three-dimensional projection transformation is determined using the depth value (Z value) of the partial region of the CG image as a key. The link information created at the time of the three-dimensional projection conversion may be used as a key. Based on the surface of the original structure, the three-dimensional map DB is accessed to acquire the name or attribute information of the structure. Here, the attribute information means information accompanying the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined for the partial area of the landscape image. How to decide may be decided any way. For example,
The center of gravity of the figure extending the partial area may be used. Label information including name or attribute information of the structure and assigned position coordinates, and user position information including the structure or attribute information and the assigned position information where the user exists or is closest is created. Table 1 shows an example of label information.

【0044】[0044]

【表1】 ラベル作成部23は、ラベル情報を作成し終ったら、セ
ンター制御部25にラベル情報を渡す。
[Table 1] The label creating unit 23 passes the label information to the center control unit 25 after creating the label information.

【0045】センター制御部25は、ラベル情報を受け
取ると、通信制御部24を経て各ユーザ端末1に送る。
各ユーザ端末1の端末制御部19は、ラベル情報出力部
18に対して視覚機器に対してラベル情報を表示等して
出力するように命令する。ここでは視覚機器は、ディス
プレイ、ヘッドマウントディスプレイ等の映像表示装置
を含む。ラベル情報中の構造物(各ユーザが存在する、
または最寄りの構造物を含む)の名称または属性情報を
景観画像中の位置に重畳し(ステップ50)、重畳され
た景観画像を映像表示装置に出力する(ステップ5
1)。図12にラベル情報が重畳された景観画像の例を
示す。
Upon receiving the label information, the center control unit 25 sends the label information to each user terminal 1 via the communication control unit 24.
The terminal control unit 19 of each user terminal 1 instructs the label information output unit 18 to display and output the label information to the visual device. Here, the visual device includes a video display device such as a display or a head-mounted display. Structures in the label information (where each user exists,
Or, the name or attribute information (including the nearest structure) is superimposed on the position in the landscape image (step 50), and the superimposed landscape image is output to the video display device (step 5).
1). FIG. 12 shows an example of a landscape image on which label information is superimposed.

【0046】ラベル情報出力部18はラベル情報を出力
すると、出力完了を端末制御部19に通知する。端末制
御部19は出力完了通知を受け取ると、連続して景観ラ
ベリグの処理を行う場合は先に示した一連の処理手順を
再び実行する。
When the label information output section 18 outputs the label information, it notifies the terminal control section 19 of the completion of the output. When receiving the output completion notification, the terminal control unit 19 executes the above-described series of processing procedures again in the case where the landscape labeling process is continuously performed.

【0047】[0047]

【発明の効果】以上説明したように本発明によれば、現
実の目に見える世界での、システム登録者同志の情報取
得や情報の検索が可能になる。
As described above, according to the present invention, it is possible to obtain information and search for information among system registrants in a real visible world.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の相互利用型景観ラベリン
グシステムの構成図である。
FIG. 1 is a configuration diagram of an interactive use landscape labeling system according to an embodiment of the present invention.

【図2】図1の相互利用型景観ラベリングシステムの処
理の流れ図である。
FIG. 2 is a flowchart of a process of the interactive use landscape labeling system of FIG. 1;

【図3】景観画像ファイルのデータ構造を示す図であ
る。
FIG. 3 is a diagram showing a data structure of a landscape image file.

【図4】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
FIG. 4 is a diagram showing an example of a two-dimensional map (FIG. 1 (1)) and its three-dimensional map (FIG. 2 (2)).

【図5】視野空間の計算方法を示す図である。FIG. 5 is a diagram illustrating a calculation method of a visual field space.

【図6】3次元地図空間での視野空間の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a visual field space in a three-dimensional map space.

【図7】投影図の例を示す図である。FIG. 7 is a diagram showing an example of a projection view.

【図8】景観画像の領域分割例を示す図である。FIG. 8 is a diagram showing an example of area division of a landscape image.

【図9】CG画像の領域分割例を示す図である。FIG. 9 is a diagram illustrating an example of area division of a CG image.

【図10】景観画像の部分領域とCG画像の部分領域の
パターンエッチングの説明図である。
FIG. 10 is an explanatory diagram of pattern etching of a partial region of a landscape image and a partial region of a CG image.

【図11】景観画像へのラベル情報の重畳の例を示す図
である。
FIG. 11 is a diagram illustrating an example of superimposition of label information on a landscape image.

【図12】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
FIG. 12 is a configuration diagram of a navigation device disclosed in JP-A-8-273000.

【図13】動画像の表示例を示す図である。FIG. 13 is a diagram illustrating a display example of a moving image.

【符号の説明】[Explanation of symbols]

1 ユーザ端末 2 センター 3 通信網 11 画像取得部 12 位置情報取得部 13 カメラ属性情報取得部 14 画像処理部 15 ユーザ情報取得要求部 16 通信制御部 17 ユーザ情報取得部 18 ラベル情報出力部 19 端末制御部 21 ユーザ情報管理部 22 地図情報管理部 23 ラベル情報作成部 24 通信制御部 25 センター制御部 31〜51 ステップ Reference Signs List 1 user terminal 2 center 3 communication network 11 image acquisition unit 12 position information acquisition unit 13 camera attribute information acquisition unit 14 image processing unit 15 user information acquisition request unit 16 communication control unit 17 user information acquisition unit 18 label information output unit 19 terminal control Unit 21 user information management unit 22 map information management unit 23 label information creation unit 24 communication control unit 25 center control unit 31 to 51 step

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高野 正次 東京都新宿区西新宿三丁目19番2号 日 本電信電話株式会社内 (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日 本電信電話株式会社内 (56)参考文献 特開 平9−180098(JP,A) 特開 平5−119699(JP,A) 特開 平9−33271(JP,A) 特開 平5−181411(JP,A) 特開 平5−79848(JP,A) 特開 平8−273000(JP,A) 特開 平9−33277(JP,A) 特開 平8−201076(JP,A) 特開 平10−339649(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01C 21/00 - 21/36 G06T 15/00 G08G 1/0969 - 1/137 G09B 29/00 - 29/10 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Shoji Takano Nippon Telegraph and Telephone Corporation 3-9-1-2 Nishishinjuku, Shinjuku-ku, Tokyo (72) Inventor Takeshi Ikeda 3-19 Nishishinjuku, Shinjuku-ku, Tokyo No. 2 Within Nippon Telegraph and Telephone Corporation (56) References JP-A-9-180098 (JP, A) JP-A-5-119699 (JP, A) JP-A-9-33271 (JP, A) JP-A-5-181411 (JP, A) JP-A-5-79848 (JP, A) JP-A-8-273000 (JP, A) JP-A-9-33277 (JP, A) JP-A-8-201076 (JP , A) JP-A-10-339649 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01C 21/00-21/36 G06T 15/00 G08G 1/0969-1/137 G09B 29/00-29/10

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数のユーザ端末とセンターからなり、 前記各ユーザ端末は、画像を取得する画像取得手段と、
画像取得時のカメラ位置を取得する位置情報取得手段
と、画像取得時のカメラ角と焦点距離と画像サイズを取
得するカメラ属性情報取得手段と、取得した画像を複数
の部分領域に分割する画像処理手段と、他のユーザに関
する情報であって、取得したい情報を指定したユーザ情
報取得要求を出力するユーザ情報取得要求部と、当該ユ
ーザに関する時刻付位置情報と属性情報を一定時間毎に
前記センターに送信し、また前記ユーザ情報取得要求を
前記センターに送信し、前記画像の領域分割に関する情
報と前記カメラ位置と前記カメラ角と前記焦点距離と前
記画像サイズとを通信網を介して前記センターに送信
し、前記センターからユーザ情報取得要求を出した他ユ
ーザの情報を受信し、また前記センターからラベル情報
を受信する通信制御手段と、前記他ユーザの情報を取得
するユーザ情報取得手段と、前記ラベル情報中の構造物
の名称またはその属性情報を画像中の付与位置に対応す
る位置に重畳し、重畳された画像を視覚機器に出力する
ラベル情報出力手段と、前記各手段を制御する端末制御
手段を含み、 前記センターは、前記通信網を介して前記ユーザ端末か
ら前記画像の領域分割に関する情報と前記カメラ位置と
前記カメラ角と前記焦点距離と前記画像サイズとを受信
し、また前記各ユーザ端末から時刻付位置情報と属性情
報およびユーザ情報取得要求を受信し、また他のユーザ
に関する情報と前記ラベル情報を前記ユーザ端末へ送信
する通信制御手段と、各ユーザの位置情報と属性情報を
管理し、ユーザ情報取得要求が送られてきた場合、該ユ
ーザ情報取得要求を出したユーザのアクセス権レベルに
応じて情報提供の可否を決定し、情報提供可の場合は該
ユーザに情報を提供するユーザ情報管理手段と、地図情
報を管理し、受信したカメラ位置とカメラ角と焦点距離
と画像サイズを基に地図情報空間の中で視野空間を求
め、その視野空間中に存在する構造物を獲得し、また前
記センターと接続されている各ユーザ端末の位置情報を
基にして、各ユーザが存在する、または最寄りの構造物
を求める地図情報管理手段と、前記画像の前記部分領域
に対して前記獲得した構造物を対応付け、対応付けられ
た前記構造物の名称または属性情報および付与位置の座
標と、各ユーザが存在する、または最寄りの構造物の名
称またはその属性情報およびその付与位置座標からなる
ユーザ位置情報を含むラベル情報を作成するラベル情報
作成手段と、前記各手段を制御するセンター制御手段を
含む相互利用型景観ラベリングシステム。
1. A user terminal comprising: a plurality of user terminals; and a center, wherein each of the user terminals includes an image obtaining unit for obtaining an image,
Position information acquisition means for acquiring a camera position at the time of image acquisition, camera attribute information acquisition means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition, and image processing for dividing the acquired image into a plurality of partial areas Means, a user information acquisition request unit that outputs a user information acquisition request that specifies information to be acquired, which is information about another user, and sends time-added position information and attribute information about the user to the center at regular intervals. Transmitting the user information acquisition request to the center, and transmitting the information regarding the area division of the image, the camera position, the camera angle, the focal length, and the image size to the center via a communication network. A communication control unit that receives information of another user who has issued a user information acquisition request from the center, and receives label information from the center. User information acquisition means for acquiring the information of the other user; and superimposing the name of the structure in the label information or its attribute information at a position corresponding to the application position in the image, and displaying the superimposed image on a visual device. And a terminal control unit for controlling each of the units, wherein the center is configured to output information on area division of the image, the camera position, and the camera angle from the user terminal via the communication network. And the focal length and the image size, and also receives time-added position information, attribute information, and a user information acquisition request from each of the user terminals, and sends information about other users and the label information to the user terminal. Communication control means to transmit, and manages the position information and attribute information of each user, and when a user information acquisition request is sent, the user information acquisition request is issued. User information management means for providing information to the user if the information can be provided, managing the map information, and determining the received camera position and camera angle. Obtain the visual field space in the map information space based on the focal length and the image size, acquire the structure existing in the visual space, and based on the position information of each user terminal connected to the center. Map information management means for finding a structure where each user is present or closest, and associating the acquired structure with the partial region of the image, and associating the name or attribute information of the structure And a label for generating label information including the coordinates of the assigned position and the name of the structure where each user is present or the nearest, or its attribute information, and user position information including the assigned position coordinates. Mutual use type scene labeling system including a Le information creating means, a central control means for controlling said respective means.
【請求項2】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域に対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項1記載のシステム。
2. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and a part in the CG image by pattern matching with respect to the partial area of the image. The system according to claim 1, wherein a structure of the partial area associated with the area is obtained, and label information including the name or attribute information of the structure and the assigned position is created.
【請求項3】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項1記載のシ
ステム。
3. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and creates a contour of a partial area in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and the structure that is the basis of the partial area of the CG image is determined for the partial area of the image. The system according to claim 1, wherein label information including name or attribute information and an assigned position is created.
JP20179097A 1997-07-28 1997-07-28 An interactive landscape labeling system Expired - Lifetime JP3114862B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20179097A JP3114862B2 (en) 1997-07-28 1997-07-28 An interactive landscape labeling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20179097A JP3114862B2 (en) 1997-07-28 1997-07-28 An interactive landscape labeling system

Publications (2)

Publication Number Publication Date
JPH1145047A JPH1145047A (en) 1999-02-16
JP3114862B2 true JP3114862B2 (en) 2000-12-04

Family

ID=16446984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20179097A Expired - Lifetime JP3114862B2 (en) 1997-07-28 1997-07-28 An interactive landscape labeling system

Country Status (1)

Country Link
JP (1) JP3114862B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898307B1 (en) * 1999-09-22 2005-05-24 Xerox Corporation Object identification method and system for an augmented-reality display
DE10010436A1 (en) * 2000-03-03 2001-09-06 Bosch Gmbh Robert Transferring position-related data between a central station and a mobile terminal involves, central station forming position related information depending on position received from terminal
WO2005008613A1 (en) * 2003-07-17 2005-01-27 Seijiro Tomita Information communication system
JP5396971B2 (en) * 2009-03-31 2014-01-22 カシオ計算機株式会社 Position search system and position search method
JP5612456B2 (en) * 2010-12-21 2014-10-22 株式会社 ミックウェア Server device, first terminal device, second terminal device, information processing method, and program
JP2015015775A (en) * 2014-10-22 2015-01-22 レノボ・イノベーションズ・リミテッド(香港) Geographical feature display system, mobile terminal, geographical feature display method, and program

Also Published As

Publication number Publication date
JPH1145047A (en) 1999-02-16

Similar Documents

Publication Publication Date Title
JP3225882B2 (en) Landscape labeling system
JPH1165431A (en) Device and system for car navigation with scenery label
US6222583B1 (en) Device and system for labeling sight images
US10453267B2 (en) Method for representing virtual information in a view of a real environment
US9858717B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
JP3437555B2 (en) Specific point detection method and device
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
JP2003132068A (en) Navigation system and navigation terminal
JP2003287434A (en) Image information searching system
JP3156646B2 (en) Search-type landscape labeling device and system
JPH1186034A (en) Human navigati0n device with scenery label and system therefor
JP2022077976A (en) Image-based positioning method and system
JP2000050156A (en) News supporting system
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP3053172B2 (en) Distance reference type landscape labeling device and system
JP3114862B2 (en) An interactive landscape labeling system
JPH1157209A (en) Rally game system using view label
JP3053169B2 (en) Communication device and system using landscape label
KR20220069541A (en) Map making Platform apparatus and map making method using the platform
JP3156649B2 (en) Deformable label landscape labeling device and system
CN106846388B (en) Image map registration method and system
JPH1132250A (en) Verbal guiding type sight labeling device and system
JPH1157206A (en) Shooting game system using view label
JPH1166349A (en) Movement amount predictive scene labeling device and system
JPH1131239A (en) Direction under consideration landscape labeling device and system

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080929

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080929

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130929

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term