JP3053169B2 - Communication device and system using landscape label - Google Patents

Communication device and system using landscape label

Info

Publication number
JP3053169B2
JP3053169B2 JP9213251A JP21325197A JP3053169B2 JP 3053169 B2 JP3053169 B2 JP 3053169B2 JP 9213251 A JP9213251 A JP 9213251A JP 21325197 A JP21325197 A JP 21325197A JP 3053169 B2 JP3053169 B2 JP 3053169B2
Authority
JP
Japan
Prior art keywords
image
communication
information
label information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP9213251A
Other languages
Japanese (ja)
Other versions
JPH1153583A (en
Inventor
隆宏 松村
利明 杉村
雅二 片桐
武史 池田
晃 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP9213251A priority Critical patent/JP3053169B2/en
Priority to US09/042,685 priority patent/US6222583B1/en
Priority to EP98400695A priority patent/EP0867690B1/en
Priority to EP03075157A priority patent/EP1306648A3/en
Priority to DE69818889T priority patent/DE69818889T2/en
Priority to CNB981097650A priority patent/CN1163760C/en
Publication of JPH1153583A publication Critical patent/JPH1153583A/en
Application granted granted Critical
Publication of JP3053169B2 publication Critical patent/JP3053169B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する通
信装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a communication device that teaches a user by voice guidance or the like.

【0002】[0002]

【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.

【0003】図13は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データが発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
FIG. 13 is a block diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device receives a vehicle position data and a motion data, and receives a position update unit 71 that updates the vehicle position with reference to the road map data, and displays display road data and display background data based on the map data and the like. Display data generator 7 to be generated
2, a three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on these display data, and a storage unit 74.
When a travel route including a waypoint is set in advance, the device has a function of setting a route while viewing a real moving image display screen along a road that actually exists instead of a map screen.

【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図14)を見ることができる。
According to this device, when a user travels along a route that actually exists, the user can view a moving image display (for example, FIG. 14) along the route.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識して
いる。つまり、利用者の眼前にある実際の建物や道路や
山が何であるかを、動画像表示されて地図中の記号等を
基にして人間が肉眼を頼りにして人間の脳を無意識に働
かせて対応付けの作業を行って理解しなければならな
い。街角等では、コンピュータでの地図と実際の景観を
見比べては方角を把握したり目印を見つけたりしてその
方向を注視し、その方向にある建物の特徴を理解した上
で再度地図を見てその建物が何であるかを理解してい
る。
However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. Aware of what is. In other words, what is the actual building, road or mountain in front of the user is displayed on a moving image, and based on the symbols etc. in the map, humans rely on the naked eye to work the human brain unconsciously. It must be understood by performing the work of association. At street corners, etc., comparing the map on the computer with the actual scenery, grasping the direction and finding landmarks, gazing at the direction, understanding the characteristics of the building in that direction, and then looking at the map again Understand what the building is.

【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
[0006] For this reason, there is a problem that the trouble of comparing the map on the computer with the actual scenery many times and associating with the human cannot be omitted. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.

【0007】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示する景観ラベル利用型
通信装置およびシステムを提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a landscape label-based communication device that teaches a user by associating geographic information on a computer with each part in an image of a real landscape (hereinafter referred to as a landscape image). Is to provide a system.

【0008】[0008]

【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときの位置とカメラの角度と焦点距離
と画像サイズを撮影時に取得し、コンピュータ上の3次
元地図空間内で実風景撮影時の位置とカメラの角度と焦
点距離から眺望した場合のコンピュータグラフィックス
(以下、CGとする。)画像内での地理的情報を取得
し、その地理的情報を、実風景である景観画像に重畳表
示することで対応付けを実現するものである。この地理
的情報とは画像での、構造物等の名称またはその属性情
報であり、属性情報とはその構造物に関するあらゆる属
性(例えば輪郭、色等)についての情報を意味する。こ
の明細書の中でも構造物という言葉を人工の構造物以外
に、山や川や海等の天然の地形も含めて地図DBでの何
らかの地理的構造を有するデータ全ての意味で用いるこ
ととする。地理的情報を取得にあたっては、カメラ位
置、カメラ角、焦点距離、画像サイズを基に景観画像の
位置(以下、付与位置と称す)を求めて、構造物の名称
または属性情報を重畳表示する。
According to the present invention, map data on a computer is created in advance as three-dimensional data, and a position at which an image (hereinafter referred to as a landscape image to distinguish it from a CG image) is input. , Camera angle, focal length, and image size at the time of shooting, and computer graphics (hereinafter referred to as CG) when viewed from the position at the time of shooting the actual scenery, the camera angle, and the focal length in the three-dimensional map space on the computer. This is to achieve the association by acquiring geographical information in the image and superimposing and displaying the geographical information on a landscape image which is a real scene. The geographic information is the name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, contour, color, etc.) of the structure. In this specification, the term structure is used to mean all data having a certain geographical structure in the map DB, including natural topography such as mountains, rivers, and the sea, in addition to artificial structures. In obtaining the geographic information, the position of the landscape image (hereinafter, referred to as an assigned position) is obtained based on the camera position, the camera angle, the focal length, and the image size, and the name or attribute information of the structure is superimposed and displayed.

【0009】本発明ではさらに、構造物に関連する通信
装置の通信アドレス(電話番号、FAX番号、IPアド
レス、電子メールアドレス、WWWページアドレス等)
を記憶する通信アドレス記憶手段と、視覚機器の画面上
の位置を利用者に指示させる画面位置指定手段と、通信
アドレスを渡されるとその通信アドレスとの通信パスの
設定を行う通信処理手段を有する。
Further, in the present invention, the communication address (telephone number, FAX number, IP address, e-mail address, WWW page address, etc.) of the communication device related to the structure is provided.
, A screen position specifying means for instructing a user on the screen position of the visual device, and a communication processing means for setting a communication path with the communication address when the communication address is passed. .

【0010】利用者が視覚機器の画面上の位置を指示す
ると、画面位置指定手段は、指示された画面位置に対応
するラベル情報中の構造物を求め、求めた構造物に関連
する通信装置の通信アドレスを通信アドレス記憶手段か
ら求め、通信処理手段に渡す。通信処理手段は、受け取
った通信アドレス情報をもとに通信アドレスとの通信パ
スの設定を行う。
When the user designates a position on the screen of the visual device, the screen position designation means finds a structure in the label information corresponding to the designated screen position, and determines a structure of the communication device associated with the found structure. The communication address is obtained from the communication address storage means and passed to the communication processing means. The communication processing unit sets a communication path with the communication address based on the received communication address information.

【0011】これにより、利用者は画面のある場所をタ
ッチ等するだけで、ラベル情報の構造物の住人と電話し
たり、FAX、電子メールで情報を送ることができる。
[0011] Thus, the user can call the resident of the structure of the label information, send the information by facsimile or e-mail only by touching the place where the screen is located.

【0012】なお、利用者が視覚機器の画面上の位置を
指示すると、通信処理手段は、受け取った通信アドレス
情報を一旦視覚機器の画面に表示し、利用者の通信開始
要求に応じて通信アドレスとの通信パスの設定を行うよ
うに構成することができる。
When the user designates a position on the screen of the visual device, the communication processing means temporarily displays the received communication address information on the screen of the visual device, and responds to the user's request to start communication by using the communication address. It can be configured to set a communication path with the server.

【0013】さらに、目的とする条件を利用者に指定さ
せる目的条件指定手段を設け、ラベル情報作成手段は利
用者が指定した目的条件については目的条件であること
を示す目的条件識別情報をラベル情報に付加し、ラベル
情報出力手段は、目的地識別情報がラベル情報に付加さ
れているとき、その構造物が目的条件に合致することを
表示することができる。
Further, a target condition designating means for designating a target condition to the user is provided, and the label information creating means outputs the target condition identification information indicating that the target condition designated by the user is the target condition. When the destination identification information is added to the label information, the label information output means can display that the structure matches the destination condition.

【0014】さらに、利用者が視覚機器の画面上の位置
を指示すると、画面位置指定手段は、指示された画面位
置に対応するラベル情報中の構造物を求め、求めた構造
物に関連する通信装置の通信アドレスを通信アドレス記
憶手段から求め、通信アドレスをラベル情報出力手段に
渡し、ラベル情報出力手段は、受け取った通信アドレス
情報を画面に表示するようにすることができる。
Further, when the user designates a position on the screen of the visual device, the screen position designation means finds a structure in the label information corresponding to the designated screen position, and a communication related to the found structure. The communication address of the device is obtained from the communication address storage means, and the communication address is passed to the label information output means. The label information output means can display the received communication address information on the screen.

【0015】実風景画像での構造物とCG画像での構造
物との対応付けの精度をさらに上げるためには、景観画
像の各部分領域に対して先に獲得した構造物をパターン
マッチングにより対応付ける。獲得した構造物を基にし
て、CG画像を作成し、景観画像の前記部分領域に対し
てパターンマッチングによりCG画像中の部分領域を対
応付け、対応付けられた部分領域のもととなった構造物
を求める。
In order to further increase the accuracy of associating the structure in the real scenery image with the structure in the CG image, the previously acquired structure is associated with each partial region of the landscape image by pattern matching. . A CG image is created based on the acquired structure, a partial region in the CG image is associated with the partial region of the landscape image by pattern matching, and a structure based on the associated partial region is created. Ask for things.

【0016】ここで、CG画像の作成法の一例について
述べる。先に取得した位置とカメラ角度と焦点距離と画
像サイズを基に3次元地図DBにアクセスして、3次元
地図空間内での視野空間を求める。視野空間中の構造物
を求め、カメラ画面を投影面として、各構造物の立体デ
ータをこの投影面に3次元投影変換する。さらに各構造
物の投影図形を構成する線データのうち、他の構造物に
隠れて見えない線データを法線ベクトル法等の手法を用
いて隠線消去する。隠線消去して残った線データを基に
して、CG画像を領域分割する。3次元地図DBを利用
しているため、各領域毎にその領域のもととなる構造物
の名称を対応付けできる。
Here, an example of a method for creating a CG image will be described. The three-dimensional map DB is accessed based on the previously acquired position, camera angle, focal length, and image size to determine the visual field space in the three-dimensional map space. A structure in the visual field space is obtained, and three-dimensional data of each structure is three-dimensionally projected and converted onto the projection plane using the camera screen as a projection plane. Further, of the line data constituting the projected figure of each structure, line data hidden by other structures and invisible is erased using a normal vector method or the like. The CG image is divided into regions based on the line data remaining after the elimination of the hidden lines. Since the three-dimensional map DB is used, the name of the structure that is the basis of the area can be associated with each area.

【0017】そうして、パターンマッチングにより景観
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、視覚機器に
表示する。
Then, the structure name of the partial area of the CG image associated with each partial area of the landscape image is extracted by pattern matching. The position coordinates of the actual scenery image on which the extracted structure name is to be superimposed are obtained by three-dimensionally projecting the position coordinates of the structure in the three-dimensional map space onto the projection plane. Label information is created from the position coordinates of the actual scenery image on which the extracted structure name is to be superimposed. Based on the label information, the structure name is superimposed on a landscape image as a real scene and displayed on a visual device.

【0018】本発明の景観ラベル利用型通信装置は、画
像を取得する画像取得手段と、画像取得時のカメラ位置
を取得する位置情報取得手段と、画像取得時のカメラ角
と焦点距離と画像サイズを取得するカメラ属性情報取得
手段と、取得した画像を複数の部分領域に分割する画像
処理手段と、地図情報を管理し、取得したカメラ位置と
カメラ角と焦点距離と画像サイズを基に地図情報空間の
中で視野空間を求め、その視野空間中に存在する構造物
を獲得する地図情報管理手段と、前記画像の前記部分領
域に対して前記獲得した構造物を対応付け、対応付けら
れた前記構造物の名称または属性情報および付与位置を
含むラベル情報を作成するラベル情報作成手段と、前記
構造物に関連する通信装置の通信アドレスを記憶する通
信アドレス記憶手段と、受け取った前記通信アドレスを
もとに前記通信アドレスとの通信パスの設定を行う通信
処理手段と、取得したラベル情報中の付与位置に対応す
る画像中の位置に構造物の名称またはその属性情報を重
畳し、重畳された画像を視覚機器に表示するラベル情報
出力手段と、前記視覚機器の画面上の位置を利用者に指
示させ得、前記利用者が前記視覚機器の画面上の位置を
指示すると、指示された画面位置に対応する前記ラベル
情報中の前記構造物を求め、求めた前記構造物に関連す
る通信装置の通信アドレスを前記通信アドレス記憶手段
から求め、前記通信アドレスを前記通信処理手段に渡す
画面位置指定手段と、前記各手段を制御する制御手段を
有する。
[0018] The landscape label utilizing type communication apparatus of the present invention comprises: an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; a camera angle, a focal length, and an image size at the time of image acquisition. Camera attribute information acquiring means for acquiring the image information, image processing means for dividing the acquired image into a plurality of partial areas, managing the map information, and obtaining the map information based on the acquired camera position, camera angle, focal length, and image size. Finding the visual space in the space, the map information management means for acquiring the structure existing in the visual space, and associating the acquired structure with the partial area of the image, Label information creating means for creating label information including the name or attribute information of a structure and an assigned position, and a communication address storage means for storing a communication address of a communication device associated with the structure Communication processing means for setting a communication path with the communication address based on the received communication address, and a name of a structure or an attribute thereof at a position in an image corresponding to a given position in the acquired label information Label information output means for superimposing information and displaying the superimposed image on a visual device, and allowing a user to indicate a position on the screen of the visual device, wherein the user indicates a position on the screen of the visual device. When instructed, the structure in the label information corresponding to the designated screen position is obtained, the communication address of the communication device associated with the obtained structure is obtained from the communication address storage means, and the communication address is obtained by the communication. There are a screen position designating means to be passed to the processing means, and a control means for controlling each of the above means.

【0019】本発明の他の景観ラベル利用型通信装置
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、地図情報を管理し、取得したカメラ
位置とカメラ角と焦点距離と画像サイズを基に地図情報
空間の中で視野空間を求め、その視野空間中に存在する
構造物を獲得する地図情報管理手段と、前記画像の前記
部分領域に対して前記獲得した構造物を対応付け、対応
付けられた前記構造物の名称または属性情報および付与
位置を含むラベル情報を作成するラベル情報作成手段
と、前記構造物に関連する通信装置の通信アドレスを記
憶する通信アドレス記憶手段と、取得したラベル情報中
の付与位置に対応する画像中の位置に構造物の名称また
はその属性情報を重畳し、重畳された画像を視覚機器に
表示し、また前記通信アドレスを受け取ると、これを該
視覚機器に表示するラベル情報出力手段と、前記視覚機
器の画面上の位置を利用者に指示させ得、前記利用者が
前記視覚機器の画面上の位置を指示すると、指示された
画面位置に対応する前記ラベル情報中の前記構造物を求
め、求めた前記構造物に関連する通信装置の通信アドレ
スを前記通信アドレス記憶手段から求め、前記通信アド
レスを前記ラベル情報出力手段に渡す画面位置指定手段
と、前記各手段を制御する制御手段を有する。
According to another aspect of the present invention, there is provided a landscape label-based communication device, comprising: an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; A camera attribute information acquiring unit for acquiring an image size, an image processing unit for dividing an acquired image into a plurality of partial areas, and managing map information, based on the acquired camera position, camera angle, focal length, and image size. In the map information space, a view space is obtained, and map information management means for acquiring a structure existing in the view space is associated with the acquired structure with respect to the partial region of the image. Label information creating means for creating label information including the name or attribute information of the structure and the assigned position, and a communication address record for storing a communication address of a communication device associated with the structure. Means, superimposing the name of the structure or its attribute information at the position in the image corresponding to the assigned position in the acquired label information, displaying the superimposed image on a visual device, and receiving the communication address, Label information output means for displaying this on the visual device, and allowing the user to indicate the position on the screen of the visual device, and when the user indicates the position on the screen of the visual device, the designated screen A screen position for obtaining the structure in the label information corresponding to the position, obtaining a communication address of a communication device associated with the obtained structure from the communication address storage means, and passing the communication address to the label information output means It has a designation means and a control means for controlling each of the means.

【0020】本発明の景観ラベル利用型通信システム
は、通信端末と通信センターからなり、前記通信端末
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、前記画像の領域分割に関する情報と
前記カメラ位置と前記カメラ角と前記焦点距離と前記画
像サイズとラベル情報中の構造物の情報を通信網を介し
て前記通信端末に送信し、前記通信センターからラベル
情報と通信アドレスを受信する通信制御手段と、受け取
った前記通信アドレスをもとに前記通信アドレスとのパ
ス設定を行う通信処理手段と、前記ラベル情報中の構造
物の名称または属性情報を画像中の付与位置に対応する
位置に重畳し、重畳された画像を視覚機器に表示するラ
ベル情報出力手段と、前記視覚機器の画面上の位置を利
用者に指示させ得、前記利用者が前記視覚機器の画面上
の位置を指示すると、指示された画面位置に対応する前
記ラベル情報中の前記構造物を求め、該構造物の情報を
前記通信制御手段に出力し、前記通信制御手段で受信さ
れた、前記構造物に関連する通信装置の通信アドレスを
前記通信処理手段に渡す画面位置指定手段と、前記各手
段を制御する端末制御手段を有し、前記通信センター
は、前記通信網を介して前記通信端末から前記画像の領
域分割に関する情報と前記カメラ位置と前記カメラ角と
前記焦点距離と前記画像サイズと前記ラベル情報中の構
造物の情報を受信し、前記通信端末に前記ラベル情報を
送信する通信制御手段と、地図情報を管理し、受信した
カメラ位置とカメラ角と焦点距離と画像サイズを基に地
図情報空間の中で視野空間を求め、その視野空間中に存
在する構造物を獲得する地図情報管理手段と、前記画像
の前記部分領域に対して前記獲得した構造物を対応付
け、対応付けられた前記構造物の名称または属性情報お
よび付与位置を含む前記ラベル情報を作成するラベル情
報作成手段と、前記構造物に関連する通信装置の通信ア
ドレスを記憶し、前記ラベル情報中の構造物の情報が示
す構造物の通信アドレスを出力する通信アドレス記憶手
段と、前記各手段を制御するセンター制御手段を有す
る。
A landscape label-based communication system according to the present invention comprises a communication terminal and a communication center, the communication terminal comprising: an image obtaining means for obtaining an image; and a position information obtaining means for obtaining a camera position at the time of obtaining the image. Camera attribute information acquiring means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; image processing means for dividing the acquired image into a plurality of partial areas; information on area division of the image and the camera position Communication control means for transmitting information of the camera angle, the focal length, the image size, and the structure in the label information to the communication terminal via a communication network, and receiving the label information and the communication address from the communication center; Communication processing means for setting a path to the communication address based on the received communication address; and name or attribute information of a structure in the label information. Is superimposed on a position corresponding to the application position in the image, a label information output unit that displays the superimposed image on a visual device, and a user can instruct a position on the screen of the visual device, and the user can When a position on the screen of the visual device is designated, the structure in the label information corresponding to the designated screen position is obtained, and information on the structure is output to the communication control unit. Screen position designation means for passing the communication address of the communication device associated with the structure to the communication processing means, and terminal control means for controlling each of the means, wherein the communication center communicates with the communication network. Information on the area division of the image, the camera position, the camera angle, the focal length, the image size, and information on the structure in the label information are received from the communication terminal via the communication terminal, and the communication terminal receives the information. Communication control means for transmitting the bell information, and managing the map information, obtaining a visual field space in the map information space based on the received camera position, camera angle, focal length, and image size, and presenting in the visual field space Map information management means for acquiring a structure, and associating the acquired structure with the partial area of the image, and label information including a name or attribute information and an assigned position of the associated structure. Label information creating means for creating, communication address storage means for storing the communication address of the communication device associated with the structure, and outputting the communication address of the structure indicated by the information of the structure in the label information; It has a center control means for controlling the means.

【0021】本発明の他の景観ラベル利用型通信システ
ムは、通信端末と通信センターからなり、前記通信端末
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像取得時のカ
メラ角と焦点距離と画像サイズを取得するカメラ属性情
報取得手段と、取得した画像を複数の部分領域に分割す
る画像処理手段と、前記画像の領域分割に関する情報と
前記カメラ位置と前記カメラ角と前記焦点距離と前記画
像サイズとラベル情報中の構造物の情報を通信網を介し
て前記端末に送信し、前記通信センターからラベル情報
と通信アドレスを受信する通信制御手段と、前記ラベル
情報中の構造物の名称または属性情報を画像中の付与位
置に対応する位置に重畳し、重畳された画像を視覚機器
に表示し、また前記通信アドレスを受け取ると、これを
該視覚機器に表示するラベル情報出力手段と、前記視覚
機器の画面上の位置を利用者に指示させ得、前記利用者
が前記視覚機器の画面上の位置を指示すると、指示され
た画面位置に対応する前記ラベル情報中の前記構造物を
求め、該構造物の情報を前記通信制御手段に出力し、前
記通信制御手段で受信された、前記構造物に関連する通
信装置の通信アドレスを前記ラベル情報出力手段に渡す
画面位置指定手段と、前記各手段を制御する端末制御手
段を有し、前記通信センターは、前記通信網を介して前
記通信端末から前記画像の領域分割に関する情報と前記
カメラ位置と前記カメラ角と前記焦点距離と前記画像サ
イズと前記ラベル情報中の構造物の情報を受信し、前記
通信端末に前記ラベル情報と前記通信アドレスを送信す
る通信制御手段と、地図情報を管理し、受信したカメラ
位置とカメラ角と焦点距離と画像サイズを基に地図情報
空間の中で視野空間を求め、その視野空間中に存在する
構造物を獲得する地図情報管理手段と、前記画像の前記
部分領域に対して前記獲得した構造物を対応付け、対応
付けられた前記構造物の名称または属性情報および付与
位置を含む前記ラベル情報を作成するラベル情報作成手
段と、前記構造物に関連する通信装置の通信アドレスを
記憶し、前記ラベル情報中の構造物の情報が示す構造物
の通信アドレスを出力する通信アドレス記憶手段と、前
記各手段を制御するセンター制御手段を有する。
Another landscape label-based communication system according to the present invention comprises a communication terminal and a communication center, wherein the communication terminal includes an image acquisition unit for acquiring an image, and a position information acquisition unit for acquiring a camera position at the time of image acquisition. Means, camera attribute information acquisition means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; image processing means for dividing the acquired image into a plurality of partial areas; information on area division of the image; Communication control means for transmitting information on a camera position, the camera angle, the focal length, the image size, and a structure in label information to the terminal via a communication network, and receiving label information and a communication address from the communication center. And superimposing the name or attribute information of the structure in the label information at a position corresponding to the application position in the image, displaying the superimposed image on a visual device, and Upon receiving the communication address, label information output means for displaying the communication address on the visual device, and a user may be instructed on a position on the screen of the visual device, and the user indicates a position on the screen of the visual device. Then, the structure in the label information corresponding to the designated screen position is obtained, the information of the structure is output to the communication control means, and the information related to the structure received by the communication control means is obtained. Screen position specifying means for passing a communication address of a communication device to the label information output means, and terminal control means for controlling each of the means, wherein the communication center transmits the image of the image from the communication terminal via the communication network. Information on the area division, the camera position, the camera angle, the focal length, the image size, and information on the structure in the label information are received, and the label information and the communication are transmitted to the communication terminal. A communication control means for transmitting an address, a map information is managed, a view space is obtained in a map information space based on a received camera position, a camera angle, a focal length, and an image size, and a structure existing in the view space. Map information management means for acquiring an object, associating the acquired structure with the partial area of the image, and creating the label information including the name or attribute information of the associated structure and the assigned position Label information creating means for storing, a communication address of a communication device associated with the structure, a communication address storage means for outputting a communication address of a structure indicated by information of the structure in the label information, and each of the means Has a center control means for controlling the

【0022】本発明の実施態様によれば、通信処理手段
は、利用者が視覚機器の画面上の位置を指示すると、受
け取った前記通信アドレスを情報を一旦視覚機器の画面
に表示し、利用者の通信開始要求に応じて通信アドレス
との通信パスの設定を行うように構成される。
According to the embodiment of the present invention, when the user designates a position on the screen of the visual device, the communication processing means displays the received communication address once on the screen of the visual device, and And a communication path with a communication address is set in response to the communication start request.

【0023】本発明の実施態様によれば、目的とする条
件を利用者に指定させる目的条件指定手段を有し、ラベ
ル情報作成手段は前記利用者が指定した目的条件につい
ては目的条件であることを示す目的条件識別情報をラベ
ル情報に付加するように構成され、ラベル情報出力手段
は、目的地識別情報がラベル情報に付加されていると
き、その構造物が目的条件に合致することを表示するよ
うに構成される。
According to an embodiment of the present invention, there is provided a target condition designating means for designating a target condition to a user, and the label information creating means is a target condition for the target condition designated by the user. Is added to the label information, and when the destination identification information is added to the label information, the label information output means indicates that the structure matches the target condition. It is configured as follows.

【0024】本発明の態様によれば、ラベル情報作成手
段は、獲得した構造物を基にしてCG画像を作成し、前
記画像の前記部分領域に対してパターンマッチングによ
りCG画像中の部分領域を対応付け、対応付けられた部
分領域の構造物を求め、その構造物の名称または属性情
報および付与位置を含むラベル情報を作成する。
According to the aspect of the present invention, the label information creating means creates a CG image based on the acquired structure, and associates the partial area in the CG image with the partial area of the image by pattern matching. The association and the structure of the associated partial area are obtained, and label information including the name or attribute information of the structure and the assigned position is created.

【0025】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割し、前記画像の前記部分領域とCG画
像の前記部分領域とをパターンマッチングにより対応付
け、画像の部分領域に対して対応付けCG画像の部分領
域の基となった構造物を求め、その構造物の名称または
属性情報および付与位置を含むラベル情報を作成する。
According to an embodiment of the present invention, the label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, erases a structure that cannot be seen from the viewpoint, creates a CG image, and creates a CG image. The CG image is divided into partial regions by the outline of the middle partial region, and the partial region of the image is associated with the partial region of the CG image by pattern matching. The structure on which the partial area is based is determined, and label information including the name or attribute information of the structure and the assigned position is created.

【0026】[0026]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0027】図1は本発明の一実施形態の景観ラベル利
用型通信装置の構成図、図2は図1の景観ラベル利用型
通信装置の処理の流れ図である。
FIG. 1 is a configuration diagram of a landscape label-based communication device according to an embodiment of the present invention, and FIG. 2 is a flowchart of processing of the landscape label-based communication device of FIG.

【0028】本実施形態の景観ラベル利用型通信装置
は、景観画像を取得する、例えばディジタルカメラであ
る画像取得部1と、画像を取得する際のカメラ位置を取
得する、例えばGPS受信機である位置情報取得部2
と、同じく画像を取得する際にカメラ角と焦点距離と画
像サイズを取得する、例えばディジタルカメラに取り付
けられた3次元電子コンパスであるカメラ属性情報取得
部3と、取得した画像を複数の部分領域に分割する画像
処理部4と、地理情報を管理し、取得したカメラ位置と
カメラ角と焦点距離と画像サイズを基に地図情報空間の
中で視野空間を求め、その視野空間中に存在する構造物
を獲得する地図情報管理部5と、視覚機器の画面上の位
置を利用者に指示させ得、利用者が視覚機器の画面上の
位置を指示すると、指示された画面位置に対応するラベ
ル情報中の構造物を求め、求めた構造物に関連する通信
装置の通信アドレスを通信アドレス記憶部9から求め、
通信アドレスを通信処理部10に渡す画面位置指定部6
と、前記画像の部分領域に対して獲得した構造物を対応
付け、対応付けられた構造物の名称または属性情報およ
び付与位置を含むラベル情報を作成する情報作成部7
と、取得したラベル情報中の付与位置に対応する画像中
の位置に構造物の名称またはその属性情報を重畳し、重
畳された画像を視覚機器に表示するラベル情報出力部8
と、構造物に関連する通信装置の通信アドレスを記憶し
ている通信アドレス記憶部9と、通信アドレスを渡され
ると、その通信アドレスとの通信パスの設定を行う通信
処理部10と、目的とする条件を利用者に指定させる目
的条件指定部12と、これら各部1〜10,12を制御
する制御部11で構成されている。
The landscape label-based communication device according to the present embodiment is, for example, an image acquisition unit 1 which is a digital camera for acquiring a landscape image, and a GPS receiver for acquiring a camera position when acquiring an image. Location information acquisition unit 2
A camera attribute information acquiring unit 3 which is a three-dimensional electronic compass attached to a digital camera, for example, acquiring a camera angle, a focal length, and an image size when acquiring an image; An image processing unit 4 that manages geographic information, obtains a visual field space in a map information space based on the acquired camera position, camera angle, focal length, and image size, and includes a structure existing in the visual field space. The map information management unit 5 for acquiring an object and the user can indicate the position on the screen of the visual device, and when the user specifies the position on the screen of the visual device, the label information corresponding to the specified screen position The structure inside is obtained, and the communication address of the communication device related to the obtained structure is obtained from the communication address storage unit 9,
Screen position specifying unit 6 that passes a communication address to communication processing unit 10
And an information creating unit 7 for associating the acquired structure with the partial region of the image and creating label information including the name or attribute information of the associated structure and the assigned position.
And a label information output unit 8 for superimposing the name of the structure or its attribute information at a position in the image corresponding to the assigned position in the acquired label information, and displaying the superimposed image on a visual device.
A communication address storage unit 9 for storing a communication address of a communication device related to a structure, a communication processing unit 10 for setting a communication path with the communication address when the communication address is passed, A target condition specifying unit 12 that allows a user to specify a condition to be performed, and a control unit 11 that controls these units 1 to 10 and 12.

【0029】次に、本実施形態の動作を図2により詳細
に説明する。
Next, the operation of this embodiment will be described in detail with reference to FIG.

【0030】通信装置が起動されると、まず制御部11
が景観画像に関する情報を取得するために、位置情報取
得部2、カメラ属性情報取得部3、画像取得部1に対し
て処理開始コマンドを送る。位置情報取得部2は、制御
部11から命令を受けてGPS受信機等により位置情報
を毎秒収集し、制御部11に渡す(ステップ21)。こ
こで、時間間隔は秒単位に限らずどのようにとってもよ
い。画像取得部1は、制御部11から命令を受けて毎秒
の景観画像を取得し、制御部11に渡す(ステップ2
2)。カメラ属性情報取得部3は、制御部11の命令を
受けて画像撮影時のカメラ等景観画像記録装置のカメラ
角を水平角と仰角の組で取得し(ステップ23)、同時
にズーム機能を有する景観画像装置であれば焦点距離を
取得する(ステップ24)。画像サイズは景観画像装置
毎に固定なので、制御部11が画像サイズ情報を保持し
ておく。制御部11は収集した情報を景観画像ファイル
として保持する。
When the communication device is started, first, the control unit 11
Sends a processing start command to the position information acquisition unit 2, the camera attribute information acquisition unit 3, and the image acquisition unit 1 in order to acquire information on the landscape image. The position information acquisition unit 2 receives a command from the control unit 11, collects position information with a GPS receiver or the like every second, and passes the collected position information to the control unit 11 (step 21). Here, the time interval is not limited to the unit of seconds, but may be any value. The image acquisition unit 1 receives a command from the control unit 11, acquires a landscape image every second, and passes it to the control unit 11 (step 2).
2). The camera attribute information acquisition unit 3 receives a command from the control unit 11, acquires a camera angle of a landscape image recording device such as a camera at the time of image capturing as a set of a horizontal angle and an elevation angle (step 23), and simultaneously has a landscape having a zoom function. If it is an image device, the focal length is obtained (step 24). Since the image size is fixed for each landscape image device, the control unit 11 holds the image size information. The control unit 11 holds the collected information as a landscape image file.

【0031】図3は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
FIG. 3 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.

【0032】制御部11は景観画像ファイルを格納する
と、画像処理部4に対して、景観画像から輪郭線を抽出
し、景観画像を複数の領域に分割するように命令する。
画像処理部4では、大まかに言えば景観画像内の濃度差
を基に微分処理を行って輪郭線を抽出し(ステップ2
5)、その輪郭線を境界としたラベリングを行うことに
よって領域分割する(ステップ26)。なお、ここで用
いたラベリングという技術用語は画像の領域分割におい
て用いられる技術用語であって、景観ラベリングとは異
なるものである。手順としてはまず、画像の白黒濃淡画
像に変換する。輪郭は明るさの急変する部分であるか
ら、微分処理を行って微分値がしきい値より大きい部分
を求めることで輪郭線の抽出を行う。このとき輪郭線の
線幅は1画素であり、輪郭線は連結しているようにす
る。そのために細線化処理を行って、線幅1画素の連結
した線を得る。ここで微分処理、細線化処理は従来から
ある手法を用いれば十分である。
After storing the landscape image file, the control unit 11 instructs the image processing unit 4 to extract the outline from the landscape image and divide the landscape image into a plurality of regions.
The image processing unit 4 performs a differentiation process on the basis of the density difference in the landscape image to extract a contour line (step 2).
5) The region is divided by performing labeling with the outline as a boundary (step 26). Note that the technical term of labeling used here is a technical term used in image area division, and is different from landscape labeling. As a procedure, first, the image is converted into a monochrome grayscale image. Since the contour is a portion where the brightness changes suddenly, the contour is extracted by performing a differentiation process to find a portion where the differential value is larger than a threshold value. At this time, the line width of the outline is one pixel, and the outlines are connected. For this purpose, a thinning process is performed to obtain a connected line having a line width of one pixel. Here, it is sufficient to use a conventional method for the differentiation processing and the thinning processing.

【0033】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図8に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
The obtained contour is regarded as the contour of the area, and an operation of numbering the area constituted by the contour is performed.
The largest number among the numbers is the number of areas, and the number of pixels in the area indicates the area of the area. FIG. 8 shows an example in which a landscape image is divided into a plurality of partial regions. Note that a measure of similarity (closeness) between regions may be introduced, and a clustering process may be performed to combine a plurality of regions having similar properties into one region. Any existing clustering method may be used.

【0034】制御部11は景観画像の領域分割処理を完
了させると、地図情報管理部5に対して、景観画像ファ
イルのヘッダ情報を渡して地図DBをアクセスし、視野
空間の算出処理を行う処理要求を出す(ステップ2
7)。地図情報管理部5の例としては、地図データベー
スプログラムがある。地図情報管理部5は3次元地図デ
ータを管理している。2次元地図データでもよいが、そ
の場合は高さ情報がないために実風景へのラベリングの
付与位置の精度が劣る。なお、2次元地図データを基に
する場合は、高さ情報を補って処理する。例えば、家屋
の2次元データである場合に、家屋が何階建かを表す階
数情報があれば、階数に一定数を掛けてその家屋の高さ
を推定し、2次元データと推定して求めた高さ情報を基
に3次元データを作成する。階数情報がない場合でも、
家屋図形の面積に応じて一定数の高さを割り振る等して
高さ情報を推定することができ、同様に推定高さ情報を
もとに3次元データを作成する。こうして3次元データ
を作成して処理を進める。
When the control unit 11 completes the region division processing of the landscape image, it passes the header information of the landscape image file to the map information management unit 5, accesses the map DB, and performs the processing of calculating the visual field space. Make a request (Step 2
7). An example of the map information management unit 5 is a map database program. The map information management unit 5 manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height information, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. When the two-dimensional map data is used as the basis, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house, the height of the house is estimated by multiplying the number of floors by a certain number, and estimated as two-dimensional data. 3D data is created based on the height information. Even if there is no floor information,
Height information can be estimated by, for example, allocating a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. In this way, three-dimensional data is created and the process proceeds.

【0035】3次元地図データの例を図4に示す。図4
(1)に2次元で表現した地図情報空間を示し、図4
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部5では制御
部11の命令を受けて景観画像ファイルのヘッダ情報を
基に視野空間を算出する(ステップ28)。図5に視野
空間の計算例を示す。まず、水平方向をXY軸が張り、
垂直方向にZ軸が張るものとする。景観画像ファイルの
ヘッダ情報中の位置情報から、視点Eの位置を3次元地
図情報空間の中で設定する。例えば、東経137度55
分19秒、北緯34度34分30秒、標高101m33
cmであれば、それに対応する地図メッシュ番号中の対
応する座標を設定する。同じくヘッダ情報中のカメラ角
情報中の水平角と仰角を基にカメラ角方向を設定する。
カメラ角方向を表す直線上に視点Eから焦点距離分進ん
だ点に焦点Fをとる。視線方向ベクトルはその直線上で
視点Eからでる長さ1の単位ベクトルである。景観画像
ファイルの画像サイズで横方向のサイズからカメラ画面
のX軸での幅xを設定し、縦方向のサイズからY軸での
幅yを設定する。横x縦yの平面は視線方向ベクトルに
対してカメラ角方向に垂直で、かつ焦点Fを含むように
設定される。視点Eの座標からカメラ画面の4隅の点と
を結ぶ直線を各々求め、視点Eから延びる4本の半直線
が作る3次元空間を視野空間とする。図6に、3次元地
図空間での視野空間の例を示す。3次元地図空間をXZ
平面から眺めたものである。図6中で斜線で囲まれた部
分が視野空間に属する空間の、XY平面での断面図であ
る。図6の例では、視野空間の中のビルや山が含まれて
いる。
FIG. 4 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
With respect to the three-dimensional map information space, the map information management unit 5 receives a command from the control unit 11 and calculates a visual field space based on the header information of the landscape image file (step 28). FIG. 5 shows a calculation example of the visual field space. First, the XY axes stretch in the horizontal direction,
The Z axis extends in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, 137 degrees east longitude 55
Minute 19 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m33
If it is cm, the corresponding coordinates in the map mesh number corresponding to the cm are set. Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the camera angle information in the header information.
The focal point F is set at a point advanced from the viewpoint E by the focal length on a straight line representing the camera angle direction. The line-of-sight direction vector is a unit vector having a length of 1 from the viewpoint E on the straight line. In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is set so as to be perpendicular to the camera angle direction with respect to the line of sight vector and to include the focal point F. Straight lines connecting the four corner points of the camera screen are obtained from the coordinates of the viewpoint E, and a three-dimensional space formed by four half lines extending from the viewpoint E is defined as a visual field space. FIG. 6 shows an example of the visual field space in the three-dimensional map space. XZ 3D map space
It is viewed from a plane. FIG. 7 is a cross-sectional view along the XY plane of a space that is surrounded by oblique lines in FIG. 6 and that belongs to the viewing space. In the example of FIG. 6, buildings and mountains in the visual field space are included.

【0036】さらに、地図情報管理部5では、求めた視
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図7のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、その構造物は視野空間
と重なり部分を持つものとする。
Further, the map information management unit 5 determines a structure existing in the determined visual space. For each structure, it is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. For structures in the overlapping 3D unit map space,
Investigate whether there is any overlap with the visual field space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained. If the straight line has an intersection with the camera screen of FIG. 7, it is within the visual field space. If at least one vertex of the plurality of vertices constituting the structure satisfies this condition, the structure has an overlapping portion with the viewing space.

【0037】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図7に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
If a structure is included in the view space or a part of the structure, the process enters a process of three-dimensionally projecting each structure onto the projection surface using the camera screen as a projection surface (step 29). ). Here, as shown in FIG. 7, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .

【0038】[0038]

【化1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):支線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
て表現した場合の座標 r=(lx2 +ly21/2 交点4点Q=(x,y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。
Embedded image Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): branch line direction vector (Unit vector) Point P ′ = (x ′, y ′, z ′): coordinates r = (lx 2 + ly 2 ) 1/2 when the point P is expressed based on the viewpoint E of the point P = 4 points Q = ( x, y): The projection point t of the point P on the camera screen is the focal length. In the three-dimensional projection conversion, first, for each structure, the surface on which the vertex extends is obtained. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, the depth value (Z
Value) and store it in memory. Note that z ′ in (Equation 1) represents a depth value (Z value) from the viewpoint.

【0039】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
Among the structures three-dimensionally projected and transformed on the camera screen, there are structures visible from the viewpoint and structures not visible. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 3
0). There are various methods for processing the hidden surface.
Use the buffer method. Other scan line methods and ray tracing methods may be used.

【0040】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is determined. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased.

【0041】こうしてできた領域がCG画像領域を形成
する(ステップ31)。
The area thus formed forms a CG image area (step 31).

【0042】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
With respect to the vertex coordinates of the two-dimensional figure constituting the CG image area, three-dimensional coordinates before projection transformation are obtained, and the correspondence between the two is stored in the memory as link information. It is used to determine which structure the two-dimensional area is a projection of based on the link information.

【0043】隠線消去して残った線データを基にして、
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図9に示す。
Based on the line data remaining after erasing hidden lines,
The CG image is divided into regions. Since the three-dimensional map DB is used, the name of the structure serving as the basis of each area can be associated with each area. The divided areas of the CG image are numbered sequentially. FIG. 9 shows an example in which a CG image is divided into a plurality of partial areas.

【0044】CG画像の領域分割処理が完了したら、制
御部11はラベル情報作成部7に対して、CG画像の分
割領域と景観画像の分割領域の対応付けを行うように命
令する。ラベル情報作成部7では、テンプレートマッチ
ングによりCG画像の分割領域と景観画像の分割領域の
対応付けを行う(ステップ32、図11参照)。
When the CG image region division processing is completed, the control unit 11 instructs the label information creation unit 7 to associate the CG image division region with the landscape image division region. The label information creating unit 7 associates the divided regions of the CG image with the divided regions of the landscape image by template matching (step 32, see FIG. 11).

【0045】景観画像の分割領域のうち、番号の若い領
域(例えば、1番)から順にCG画像の分割領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
ッチング方法のうちのどれをとってもよいが、ここでは
単純なテンプレートマッチング法をとる。つまり、比較
する2つの領域を重ね合わせ、重なり合う部分の比率
が、しきい値として決めた一定の比率以上にある場合に
同一の構造物に関する領域として対応付けることとする
(ステップ33)。例えば、景観画像の分割領域1番目
のR1に関して、その領域内にある各画素の座標値を
(A,B)とする。座標(A,B)での画素の値は、領
域の内部ゆえに1である。CG画像の1番目の分割領域
S1において、座標(A,B)が領域S1内ならば画素
値1であり重なるが、S1の外ならば画素値0であり重
ならない。こうして座標(A,B)での重なり係数K
(A,B)として、重なる場合1、重ならない場合0で
決まる。座標(A,B)を領域R1内で動かして、重な
り係数K(A,B)を求める。そして、領域R1内で動
かした座標(A,B)の数N1に対して、重なり係数K
(A,B)が1であった座標の数N2を求めて、N1/
N2がしきい値以上である場合に、景観画像の分割領域
R1とCG画像の分割領域S1が対応するものと決め
る。この対応付けを景観画像の分割領域の1番目から最
後のものまで行う。なお、マッチング方法としてこの
他、XY方向に多少の位置ずれがあっても同じ値になる
ような評価関数を用いてもよい。
Among the divided regions of the landscape image, the regions are sequentially associated with the divided regions of the CG image in ascending order of the number (for example, No. 1). For matching, any of the conventional matching methods may be used, but here, a simple template matching method is used. That is, the two regions to be compared are superimposed, and when the ratio of the overlapping portion is equal to or more than a certain ratio determined as the threshold value, the regions are associated as the region relating to the same structure (step 33). For example, the coordinate value of each pixel in the first divided region R1 of the landscape image is set to (A, B). The value of the pixel at coordinates (A, B) is 1 because it is inside the area. In the first divided area S1 of the CG image, if the coordinates (A, B) are within the area S1, the pixel value is 1 and overlaps. Thus, the overlap coefficient K at the coordinates (A, B)
(A, B) is determined to be 1 when overlapping and 0 when not overlapping. The coordinates (A, B) are moved in the region R1, and the overlap coefficient K (A, B) is obtained. Then, for the number N1 of coordinates (A, B) moved in the region R1, the overlap coefficient K
The number N2 of coordinates where (A, B) was 1 is obtained, and N1 /
When N2 is equal to or larger than the threshold value, it is determined that the divided region R1 of the landscape image and the divided region S1 of the CG image correspond to each other. This association is performed from the first to the last divided area of the landscape image. In addition, as the matching method, an evaluation function that has the same value even if there is a slight displacement in the XY directions may be used.

【0046】ラベル情報作成部7では、景観画像の部分
領域に対してCG画像の部分領域を対応付けた後、さら
に景観画像の部分領域毎に重畳すべき情報を求め、重畳
すべき位置とともにラベル情報として作成する処理(ス
テップ34)に入る。まず、景観画像の部分領域に対し
て、対応するCG画像の部分領域を取り出す。取り出し
たCG画像の部分領域はもともと3次元地図空間の中の
3次元構造物のある面をカメラ画面に対して3次元投影
変換して得られたものである。そこで、3次元投影変換
の基となった3次元構造物の面を、CG画像の部分領域
が持つ奥行き値(Z値)をキーとして求める。先に3次
元投影変換した際に作成しておいたリンク情報をキーに
してもよい。もととなった構造物の面をもとに、3次元
地図DBにアクセスしてその構造物の名称または属性情
報を取得する。ここで属性情報とは、その構造物に関し
て付随する情報を意味し、その構造物に係る情報ならば
何でもよい。そして、名称または属性情報を重畳すべき
位置座標を、景観画像の部分領域に対して決める。決め
方は、どのように決めてもよい。例えば、部分領域を張
る図形の重心でもよい。その構造物の名称または属性情
報および付与位置座標からラベル情報を作成する(ステ
ップ34)。その際、利用者が目的条件指定部12で指
定した目的条件である構造物については目的条件である
ことを示すため目的地識別フラグを“1”にする。表1
にラベル情報の例を示す。
After associating the partial area of the CG image with the partial area of the landscape image, the label information creating unit 7 further obtains information to be superimposed on each partial area of the landscape image, The process for creating information (step 34) is entered. First, a partial area of the CG image corresponding to the partial area of the landscape image is extracted. The partial region of the extracted CG image is originally obtained by three-dimensionally projecting and converting a certain surface of the three-dimensional structure in the three-dimensional map space onto the camera screen. Therefore, the surface of the three-dimensional structure on which the three-dimensional projection conversion is based is obtained using the depth value (Z value) of the partial region of the CG image as a key. The link information created at the time of the three-dimensional projection conversion may be used as a key. Based on the surface of the original structure, the three-dimensional map DB is accessed to acquire the name or attribute information of the structure. Here, the attribute information means information accompanying the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined for the partial area of the landscape image. How to decide may be decided any way. For example, the center of gravity of the figure extending the partial area may be used. Label information is created from the name or attribute information of the structure and the assigned position coordinates (step 34). At this time, the destination identification flag is set to “1” to indicate that the structure is the target condition specified by the user in the target condition specifying unit 12 to indicate the target condition. Table 1
Shows an example of label information.

【0047】[0047]

【表1】 ラベル情報作成部7は、ラベル情報を作成し終ったら
、制御部11にラベル情報を渡す。
[Table 1] When the label information creation unit 7 finishes creating the label information, it passes the label information to the control unit 11.

【0048】制御部11は、ラベル情報を受け取ると、
ラベル情報出力部8に対して視覚機器に対してラベル情
報を表示するように命令する。ここでは視覚機器は、デ
ィスプレイ、ヘッドマウントディスプレイ等の映像表示
装置を含む。ラベル情報出力部8はラベル情報中の構造
物の名称または属性情報を景観画像中の位置に重畳し
(ステップ35)、重畳された景観画像を映像表示装置
に表示する(ステップ36)。ここで、目的地識別フラ
グが“1”である構造物については、その構造物が目的
条件に合致することを表示する。
Upon receiving the label information, the control unit 11
It instructs the label information output unit 8 to display the label information on the visual device. Here, the visual device includes a video display device such as a display or a head-mounted display. The label information output unit 8 superimposes the name or attribute information of the structure in the label information at a position in the landscape image (step 35), and displays the superimposed landscape image on the video display device (step 36). Here, for a structure whose destination identification flag is “1”, it is displayed that the structure matches the destination condition.

【0049】ここで、利用者が画面位置指定部6により
視覚機器の画面上の位置を指示すると、制御部11は、
指示された画面位置に対応するラベル情報中の構造物を
求め、求めた構造物に関連する通信装置の通信アドレス
を通信アドレス記憶部9から求め、通信アドレスを通信
処理部10に渡す(ステップ37)。通信処理部10
は、受け取った通信アドレス情報を一旦視覚機器の画面
に表示し、利用者の通信開始要求に応じて該通信アドレ
スとの通信パスを設定する(ステップ38)。
Here, when the user designates the position on the screen of the visual device by the screen position designation unit 6, the control unit 11
The structure in the label information corresponding to the designated screen position is obtained, the communication address of the communication device associated with the obtained structure is obtained from the communication address storage unit 9, and the communication address is passed to the communication processing unit 10 (step 37). ). Communication processing unit 10
Displays the received communication address information on the screen of the visual device, and sets a communication path with the communication address in response to the user's communication start request (step 38).

【0050】なお、通信アドレスは通信処理部10に渡
さずにラベル情報出力部8が視覚機器の画面に表示する
ようにしてもよい。
The label information output unit 8 may display the communication address on the screen of the visual device without passing the communication address to the communication processing unit 10.

【0051】連続して景観ラベリングの処理を行う場合
は先に示した一連の処理手順を再び実行する。
When the scenery labeling process is performed continuously, the above-described series of processing procedures is executed again.

【0052】図12は図1の通信装置を通信システムに
適用した景観ラベル利用型通信システムの構成図であ
る。
FIG. 12 is a configuration diagram of a landscape label-based communication system in which the communication device of FIG. 1 is applied to a communication system.

【0053】景観ラベル利用型通信システムは通信端末
40と通信センター50と通信網60で構成される。
The landscape label-based communication system includes a communication terminal 40, a communication center 50, and a communication network 60.

【0054】通信端末40は、画像を取得する画像取得
部41と、画像取得時のカメラ位置を取得する位置情報
取得部42と、画像取得時のカメラ角と焦点距離と画像
サイズを取得するカメラ属性情報取得部43と、取得し
た画像を複数の部分領域に分割する画像処理部45と、
画像の領域分割に関する情報とカメラ位置とカメラ角と
焦点距離と画像サイズと目的とする場所または建物であ
ることを示す目的地識別情報とラベル情報中の構造物の
情報を通信網60を介して通信センター50に送信し、
通信センター50からラベル情報と通信アドレスを受信
する通信制御部46と、ラベル情報中の構造物の名称ま
たは属性情報を画像中の付与位置に対応する位置に重畳
し、重畳された画像の視覚機器に出力し、その際ラベル
情報中の目的地識別フラグが“1”であると、その構造
物が目的とする場所または建物であることを表示するラ
ベル情報出力部47と、通信アドレスを渡されると、そ
の通信アドレスとのパスを設定する通信処理部48と、
視覚機器の画面上の位置を利用者に指示させ得、利用者
が視覚機器の画面上の位置を指示すると、指示された画
面位置に対応するラベル情報中の構造物を求め、該構造
物の情報を通信制御部46に出力し、通信制御部46で
受信された、前記構造物に関連する通信装置の通信アド
レスを通信処理部10に渡す画面位置指定部44と、目
的とする条件を利用者に指定させる目的条件指定部4
4’と、端末制御部49で構成されている。
The communication terminal 40 includes an image acquisition unit 41 for acquiring an image, a position information acquisition unit 42 for acquiring a camera position at the time of image acquisition, and a camera for acquiring a camera angle, a focal length, and an image size at the time of image acquisition. An attribute information acquisition unit 43, an image processing unit 45 that divides the acquired image into a plurality of partial areas,
Via the communication network 60, information relating to the area division of the image, the camera position, the camera angle, the focal length, the image size, the destination identification information indicating the target place or the building, and the information of the structure in the label information are transmitted. Send to the communication center 50,
A communication control unit 46 for receiving label information and a communication address from the communication center 50; and superimposing the name or attribute information of the structure in the label information at a position corresponding to the assigned position in the image, and visualizing the superimposed image. If the destination identification flag in the label information is “1”, a label information output unit 47 that indicates that the structure is a target place or building and a communication address are passed. A communication processing unit 48 for setting a path to the communication address;
The user can indicate the position on the screen of the visual device, and when the user specifies the position on the screen of the visual device, a structure in the label information corresponding to the specified screen position is obtained. A screen position specifying unit 44 that outputs information to the communication control unit 46 and passes the communication address of the communication device associated with the structure received by the communication control unit 46 to the communication processing unit 10, and uses a target condition. Condition specification part 4 to be specified by the user
4 'and a terminal control unit 49.

【0055】通信センター50は通信網60を介して通
信端末40から前記画像の領域分割に関する情報とカメ
ラ位置とカメラ角と焦点距離と画像サイズと目的地識別
情報とラベル情報中の構造物の情報を受信し、通信端末
40にラベル情報と通信アドレスを送信する通信制御部
53と、地図情報を管理し、受信したカメラ位置とカメ
ラ角と焦点距離と画像サイズを基に地図情報空間の中で
視野空間を求め、その視野空間中に存在する構造物を獲
得する地図情報管理部51と、各構造物に関連する通信
装置の通信アドレスを記憶し、ラベル情報中の構造物の
情報が示す構造物の通信アドレスを出力する通信アドレ
ス記憶部55と、画像の前記部分領域に対して前記獲得
した構造物をパターンマッチングにより対応付け、対応
付けられた前記構造物の名称または属性情報および付与
位置を含むラベル情報を作成し、その構造物が利用者が
指定した目的とする場所または構造物であるならば(目
的地識別情報が受信されたならば)目的地識別フラグを
“1”にするラベル情報作成部52と、上記各部を制御
するセンター制御部54で構成される。
The communication center 50 receives information from the communication terminal 40 via the communication network 60 on the area division of the image, the camera position, the camera angle, the focal length, the image size, the destination identification information, and the information on the structure in the label information. And a communication control unit 53 that transmits label information and a communication address to the communication terminal 40, manages the map information, and stores the map information space in the map information space based on the received camera position, camera angle, focal length, and image size. A map information management unit 51 for obtaining a view space and acquiring structures existing in the view space, and a communication address of a communication device associated with each structure are stored, and a structure indicated by information of the structure in the label information A communication address storage unit 55 that outputs a communication address of an object, and the acquired structure is associated with the partial region of an image by pattern matching, and the associated structure is Create label information including the name or attribute information of the object and the assigned position, and if the structure is the target place or structure specified by the user (if the destination identification information is received), the purpose It is composed of a label information creation unit 52 that sets the location identification flag to “1”, and a center control unit 54 that controls the above units.

【0056】[0056]

【発明の効果】以上説明したように本発明によれば、コ
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けて利用者に提示することができるため、
人間がコンピュータ上の地図と実風景を見比べて人間の
方で対応付けせずとも済み、また画面のある場所をタッ
チ等するだけでその場所にある建物に住む住人等の電話
番号を知ることができそのまま電話等をかけることがで
き、利用者にとっても便利な新規の電話帳となりうる。
As described above, according to the present invention, the geographical information on the computer and each part in the scenery image of the actual scene can be presented to the user in association with each other.
It is not necessary for a human to compare the map on the computer with the actual scenery and associate it with the human, and it is possible to know the telephone number of the resident etc. living in the building at that place simply by touching the place on the screen It is possible to make a telephone call or the like as it is, and it can be a new telephone directory convenient for the user.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の景観ラベル利用型通信装
置の構成図である。
FIG. 1 is a configuration diagram of a landscape label-based communication device according to an embodiment of the present invention.

【図2】図1の景観ラベル利用型通信装置の処理の流れ
図である。
FIG. 2 is a flowchart of a process of the communication device using a landscape label of FIG. 1;

【図3】景観画像ファイルのデータ構造を示す図であ
る。
FIG. 3 is a diagram showing a data structure of a landscape image file.

【図4】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
FIG. 4 is a diagram showing an example of a two-dimensional map (FIG. 1 (1)) and its three-dimensional map (FIG. 2 (2)).

【図5】視野空間の計算方法を示す図である。FIG. 5 is a diagram illustrating a calculation method of a visual field space.

【図6】3次元地図空間での視野空間の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a visual field space in a three-dimensional map space.

【図7】投影図の例を示す図である。FIG. 7 is a diagram showing an example of a projection view.

【図8】景観画像の領域分割例を示す図である。FIG. 8 is a diagram showing an example of area division of a landscape image.

【図9】CG画像の領域分割例を示す図である。FIG. 9 is a diagram illustrating an example of area division of a CG image.

【図10】景観画像の部分領域とCG画像の部分領域の
パターンマッチングの説明図である。
FIG. 10 is an explanatory diagram of pattern matching between a partial region of a landscape image and a partial region of a CG image.

【図11】景観画像へのラベル情報の重畳の例を示す図
である。
FIG. 11 is a diagram illustrating an example of superimposition of label information on a landscape image.

【図12】本発明の景観通信システムの構成図である。FIG. 12 is a configuration diagram of a landscape communication system of the present invention.

【図13】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
FIG. 13 is a configuration diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000.

【図14】動画像の表示例を示す図である。FIG. 14 is a diagram illustrating a display example of a moving image.

【符号の説明】[Explanation of symbols]

1 画像取得部 2 位置情報取得部 3 カメラ属性情報取得部 4 画像処理部 5 地図情報管理部 6 画面位置指定部 7 ラベル情報作成部 8 ラベル情報出力部 9 通信アドレス記憶部 10 通信処理部 11 制御部 12 目的条件指定部 21〜38 ステップ 40 通信端末 41 画像取得部 42 位置情報取得部 43 カメラ属性情報取得部 44 画面位置指定部 44’ 目的条件指定部 45 画像処理部 46 通信制御部 47 ラベル情報出力部 48 通信処理部 49 端末制御部 50 通信センター 51 地図情報管理部 52 ラベル情報作成部 53 通信制御部 54 センター制御部 55 通信アドレス記憶部 60 通信網 DESCRIPTION OF SYMBOLS 1 Image acquisition part 2 Position information acquisition part 3 Camera attribute information acquisition part 4 Image processing part 5 Map information management part 6 Screen position specification part 7 Label information creation part 8 Label information output part 9 Communication address storage part 10 Communication processing part 11 Control Unit 12 target condition specifying unit 21 to 38 step 40 communication terminal 41 image obtaining unit 42 position information obtaining unit 43 camera attribute information obtaining unit 44 screen position specifying unit 44 'target condition specifying unit 45 image processing unit 46 communication control unit 47 label information Output unit 48 Communication processing unit 49 Terminal control unit 50 Communication center 51 Map information management unit 52 Label information creation unit 53 Communication control unit 54 Center control unit 55 Communication address storage unit 60 Communication network

フロントページの続き (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日 本電信電話株式会社内 (72)発明者 鈴木 晃 東京都新宿区西新宿三丁目19番2号 日 本電信電話株式会社内 (56)参考文献 特開 平8−255239(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 - 17/50 G09B 23/00 - 29/14 G08G 1/00 - 9/02 Continued on the front page (72) Inventor Takeshi Ikeda 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Akira Suzuki 3-192-1, Nishi-Shinjuku, Shinjuku-ku, Tokyo Sun (56) References JP-A-8-255239 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 1/00-17/50 G09B 23/00 -29/14 G08G 1/00-9/02

Claims (12)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像取得時のカメラ角と焦点距離と画像サイズを取得す
るカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、 前記画像の前記部分領域に対して前記獲得した構造物を
対応付け、対応付けられた前記構造物の名称または属性
情報および付与位置を含むラベル情報を作成するラベル
情報作成手段と、 前記構造物に関連する通信装置の通信アドレスを記憶す
る通信アドレス記憶手段と、 受け取った前記通信アドレスをもとに前記通信アドレス
との通信パスの設定を行う通信処理手段と、 取得したラベル情報中の付与位置に対応する画像中の位
置に構造物の名称またはその属性情報を重畳し、重畳さ
れた画像を視覚機器に表示するラベル情報出力手段と、 前記視覚機器の画面上の位置を利用者に指示させ得、前
記利用者が前記視覚機器の画面上の位置を指示すると、
指示された画面位置に対応する前記ラベル情報中の前記
構造物を求め、求めた前記構造物に関連する通信装置の
通信アドレスを前記通信アドレス記憶手段から求め、前
記通信アドレスを前記通信処理手段に渡す画面位置指定
手段と、 前記各手段を制御する制御手段を有する景観ラベル利用
型通信装置。
An image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; a camera attribute information acquisition unit for acquiring a camera angle, a focal length, and an image size at the time of image acquisition. , Image processing means for dividing the acquired image into a plurality of partial areas, managing map information, and calculating a visual field space in the map information space based on the acquired camera position, camera angle, focal length, and image size, Map information management means for acquiring a structure existing in the visual field space, and associating the acquired structure with the partial region of the image, and assigning the name or attribute information of the associated structure and assignment Label information creating means for creating label information including a position; communication address storage means for storing a communication address of a communication device associated with the structure; Communication processing means for setting a communication path with the communication address based on the information, and the name of the structure or its attribute information is superimposed on the position in the image corresponding to the assigned position in the acquired label information. Label information output means for displaying the image on a visual device, and allowing a user to indicate a position on the screen of the visual device, wherein the user indicates a position on the screen of the visual device,
The structure in the label information corresponding to the designated screen position is obtained, the communication address of the communication device associated with the obtained structure is obtained from the communication address storage unit, and the communication address is sent to the communication processing unit. A landscape label-based communication device, comprising: a screen position designation unit to be passed; and a control unit that controls each of the units.
【請求項2】 前記通信処理手段は、前記利用者が前記
視覚機器の画面上の位置を指示すると、 受け取った前記通信アドレス情報を一旦前記視覚機器の
画面に表示し、利用者の通信開始要求に応じて前記通信
アドレスとの通信パスの設定を行うように構成される、
請求項1に記載の装置。
2. The communication processing means, when the user designates a position on the screen of the visual device, displays the received communication address information on the screen of the visual device, and requests the user to start communication. It is configured to set a communication path with the communication address according to
The device according to claim 1.
【請求項3】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像取得時のカメラ角と焦点距離と画像サイズを取得す
るカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、 前記画像の前記部分領域に対して前記獲得した構造物を
対応付け、対応付けられた前記構造物の名称または属性
情報および付与位置を含むラベル情報を作成するラベル
情報作成手段と、 前記構造物に関連する通信装置の通信アドレスを記憶す
る通信アドレス記憶手段と、 取得したラベル情報中の付与位置に対応する画像中の位
置に構造物の名称またはその属性情報を重畳し、重畳さ
れた画像を視覚機器に表示し、また前記通信アドレスを
受け取ると、これを該視覚機器に表示するラベル情報出
力手段と、 前記視覚機器の画面上の位置を利用者に指示させ得、前
記利用者が前記視覚機器の画面上の位置を指示すると、
指示された画面位置に対応する前記ラベル情報中の前記
構造物を求め、求めた前記構造物に関連する通信装置の
通信アドレスを前記通信アドレス記憶手段から求め、前
記通信アドレスを前記ラベル情報出力手段に渡す画面位
置指定手段と、 前記各手段を制御する制御手段を有する景観ラベル利用
型通信装置。
3. An image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, a camera attribute information acquisition unit for acquiring a camera angle, a focal length, and an image size at the time of image acquisition. , Image processing means for dividing the acquired image into a plurality of partial areas, managing map information, and calculating a visual field space in the map information space based on the acquired camera position, camera angle, focal length, and image size, Map information management means for acquiring a structure existing in the visual field space, and associating the acquired structure with the partial region of the image, and assigning the name or attribute information of the associated structure and assignment Label information creating means for creating label information including a position; communication address storage means for storing a communication address of a communication device associated with the structure; Label information for superimposing the name of the structure or its attribute information at a position in the image corresponding to the position, displaying the superimposed image on a visual device, and receiving the communication address on the visual device. Output means, and may allow a user to indicate the position on the screen of the visual device, and when the user indicates the position on the screen of the visual device,
The structure in the label information corresponding to the designated screen position is obtained, the communication address of a communication device associated with the obtained structure is obtained from the communication address storage means, and the communication address is output to the label information output means. A landscape position using type communication device, comprising: a screen position designating means for passing to a user; and a control means for controlling each of the means.
【請求項4】 目的とする条件を利用者に指定させる目
的条件指定手段をさらに有し、 前記ラベル情報作成手段は前記利用者が指定した目的条
件については目的条件であることを示す目的条件識別情
報を前記ラベル情報に付加するように構成され、 前記ラベル情報出力手段は、目的地識別情報が前記ラベ
ル情報に付加されているとき、その構造物が目的条件に
合致することを表示するように構成される、請求項1か
ら3のいずれか1項記載の装置。
4. The apparatus according to claim 1, further comprising a target condition designating unit for designating a target condition by the user, wherein the label information creating unit identifies the target condition designated by the user as a target condition. Information is added to the label information, and the label information output means displays, when the destination identification information is added to the label information, that the structure matches the destination condition. Apparatus according to any one of the preceding claims, wherein the apparatus is configured.
【請求項5】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域を対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項1から4のいずれか1項記載
の装置。
5. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and a part of the CG image by pattern matching with respect to the partial area of the image. The apparatus according to any one of claims 1 to 4, wherein the regions are associated with each other, a structure of the associated partial region is obtained, and label information including the name or attribute information of the structure and an assigned position is created.
【請求項6】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項1から4の
いずれか1項記載の装置。
6. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and generates a contour of a partial area in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and the structure that is the basis of the partial area of the CG image is determined for the partial area of the image. The apparatus according to claim 1, wherein label information including name or attribute information and an assigned position is created.
【請求項7】 通信端末と通信センターからなり、 前記通信端末は、画像を取得する画像取得手段と、画像
取得時のカメラ位置を取得する位置情報取得手段と、画
像取得時のカメラ角と焦点距離と画像サイズを取得する
カメラ属性情報取得手段と、取得した画像を複数の部分
領域に分割する画像処理手段と、前記画像の領域分割に
関する情報と前記カメラ位置と前記カメラ角と前記焦点
距離と前記画像サイズとラベル情報中の構造物の情報を
通信網を介して前記通信端末に送信し、前記通信センタ
ーからラベル情報と通信アドレスを受信する通信制御手
段と、受け取った前記通信アドレスをもとに前記通信ア
ドレスとのパス設定を行う通信処理手段と、前記ラベル
情報中の構造物の名称または属性情報を画像中の付与位
置に対応する位置に重畳し、重畳された画像を視覚機器
に表示するラベル情報出力手段と、前記視覚機器の画面
上の位置を利用者に指示させ得、前記利用者が前記視覚
機器の画面上の位置を指示すると、指示された画面位置
に対応する前記ラベル情報中の前記構造物を求め、該構
造物の情報を前記通信制御手段に出力し、前記通信制御
手段で受信された、前記構造物に関連する通信装置の通
信アドレスを前記通信処理手段に渡す画面位置指定手段
と、前記各手段を制御する端末制御手段を有し、 前記通信センターは、前記通信網を介して前記通信端末
から前記画像の領域分割に関する情報と前記カメラ位置
と前記カメラ角と前記焦点距離と前記画像サイズと前記
ラベル情報中の構造物の情報を受信し、前記通信端末に
前記ラベル情報と通信アドレスを送信する通信制御手段
と、地図情報を管理し、受信したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る地図情報管理手段と、前記画像の前記部分領域に対し
て前記獲得した構造物を対応付け、対応付けられた前記
構造物の名称または属性情報および付与位置を含む前記
ラベル情報を作成するラベル情報作成手段と、前記構造
物に関連する通信装置の通信アドレスを記憶し、前記ラ
ベル情報中の構造物の情報が示す構造物の通信アドレス
を出力する通信アドレス記憶手段と、前記各手段を制御
するセンター制御手段を有する景観ラベル利用通信シス
テム。
7. A communication terminal, comprising: a communication terminal; a communication center; wherein the communication terminal is an image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, a camera angle and a focus at the time of image acquisition. Camera attribute information acquiring means for acquiring distance and image size, image processing means for dividing the acquired image into a plurality of partial areas, information on area division of the image, the camera position, the camera angle, the focal length, Communication control means for transmitting the information on the structure in the image size and label information to the communication terminal via a communication network, and receiving label information and a communication address from the communication center, based on the received communication address Communication processing means for setting a path with the communication address, and overlapping the name or attribute information of the structure in the label information with a position corresponding to the assigned position in the image. Then, label information output means for displaying the superimposed image on a visual device, and can cause a user to indicate the position on the screen of the visual device, when the user indicates the position on the screen of the visual device, A communication device associated with the structure, which obtains the structure in the label information corresponding to the instructed screen position, outputs information of the structure to the communication control means, and is received by the communication control means; Screen position specifying means for passing a communication address of the image processing apparatus to the communication processing means, and terminal control means for controlling each of the means. The communication center relates to area division of the image from the communication terminal via the communication network. Communication for receiving information, the camera position, the camera angle, the focal length, the image size, and information on a structure in the label information, and transmitting the label information and a communication address to the communication terminal; A map that manages control means and map information, obtains a visual space in the map information space based on the received camera position, camera angle, focal length, and image size, and acquires structures existing in the visual space. Information management means for associating the acquired structure with the partial area of the image, and label information creating means for creating the label information including the name or attribute information and the assigned position of the associated structure Communication address storage means for storing a communication address of a communication device associated with the structure, and outputting a communication address of the structure indicated by the information of the structure in the label information, and a center control for controlling the respective means Landscape label using communication system having means.
【請求項8】 前記利用者が前記視覚機器の画面上の位
置を指示すると、 前記通信処理手段は、受け取った前記通信アドレス情報
を一旦前記視覚機器の画面に表示し、利用者の通信開始
要求に応じて前記通信アドレスとの通信パスの設定を行
うように構成される、請求項7記載のシステム。
8. When the user designates a position on the screen of the visual device, the communication processing means displays the received communication address information on the screen of the visual device, and requests the user to start communication. The system according to claim 7, wherein the system is configured to set a communication path with the communication address in response to the request.
【請求項9】 通信端末と通信センターからなり、 前記通信端末は、画像を取得する画像取得手段と、画像
取得時のカメラ位置を取得する位置情報取得手段と、画
像取得時のカメラ角と焦点距離と画像サイズを取得する
カメラ属性情報取得手段と、取得した画像を複数の部分
領域に分割する画像処理手段と、前記画像の領域分割に
関する情報と前記カメラ位置と前記カメラ角と前記焦点
距離と前記画像サイズとラベル情報中の構造物の情報を
通信網を介して前記端末に送信し、前記通信センターか
らラベル情報と通信アドレスを受信する通信制御手段
と、前記ラベル情報中の構造物の名称または属性情報を
画像中の付与位置に対応する位置に重畳し、重畳された
画像を視覚機器に表示し、また前記通信アドレスを受け
取ると、これを該視覚機器に表示するラベル情報出力手
段と、前記視覚機器の画面上の位置を利用者に指示させ
得、前記利用者が前記視覚機器の画面上の位置を指示す
ると、指示された画面位置に対応する前記ラベル情報中
の前記構造物を求め、該構造物の情報を前記通信制御手
段に出力し、前記通信制御手段で受信された、前記構造
物に関連する通信装置の通信アドレスを前記ラベル情報
出力手段に渡す画面位置指定手段と、前記各手段を制御
する端末制御手段を有し、 前記通信センターは、前記通信網を介して前記通信端末
から前記画像の領域分割に関する情報と前記カメラ位置
と前記カメラ角と前記焦点距離と前記画像サイズと前記
ラベル情報中の構造物の情報を受信し、前記通信端末に
前記ラベル情報と前記通信アドレスを送信する通信制御
手段と、地図情報を管理し、受信したカメラ位置とカメ
ラ角と焦点距離と画像サイズを基に地図情報空間の中で
視野空間を求め、その視野空間中に存在する構造物を獲
得する地図情報管理手段と、前記画像の前記部分領域に
対して前記獲得した構造物を対応付け、対応付けられた
前記構造物の名称または属性情報および付与位置を含む
前記ラベル情報を作成するラベル情報作成手段と、前記
構造物に関連する通信装置の通信アドレスを記憶し、前
記ラベル情報中の構造物の情報が示す構造物の通信アド
レスを出力する通信アドレス記憶手段と、前記各手段を
制御するセンター制御手段を有する景観ラベル利用通信
システム。
9. A communication terminal, comprising: a communication center; an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; a camera angle and a focus at the time of image acquisition. Camera attribute information acquiring means for acquiring distance and image size, image processing means for dividing the acquired image into a plurality of partial areas, information on area division of the image, the camera position, the camera angle, the focal length, Communication control means for transmitting the information on the structure in the image size and the label information to the terminal via a communication network, and receiving the label information and the communication address from the communication center; and the name of the structure in the label information Alternatively, the attribute information is superimposed on a position corresponding to the application position in the image, the superimposed image is displayed on a visual device, and when the communication address is received, the attribute information is displayed on the visual device. Label information output means to be displayed on the screen and the user to indicate a position on the screen of the visual device, and when the user indicates a position on the screen of the visual device, the user corresponds to the specified screen position. Obtaining the structure in the label information, outputting the information of the structure to the communication control means, and receiving the communication address of the communication device associated with the structure, received by the communication control means, in the label information output means And a terminal control unit for controlling each of the units, wherein the communication center is configured to provide information on area division of the image, the camera position, and the camera from the communication terminal via the communication network. Communication control means for receiving information on a corner, the focal length, the image size, and a structure in the label information, and transmitting the label information and the communication address to the communication terminal; Map information management means for obtaining a view space in the map information space based on the received camera position, camera angle, focal length, and image size, and acquiring a structure existing in the view space, Label information creating means for associating the acquired structure with the partial region of the image, and creating the label information including the name or attribute information and the assigned position of the associated structure, Use of a landscape label having communication address storage means for storing a communication address of an associated communication device and outputting a communication address of a structure indicated by the information of the structure in the label information, and a center control means for controlling the respective means Communications system.
【請求項10】 前記通信端末は、目的とする条件を利
用者に指定させる目的条件指定手段を有し、 前記ラベル情報作成手段は前記利用者が指定した目的条
件については目的条件であることを示す目的条件識別情
報を前記ラベル情報に付加するように構成され、 前記ラベル情報出力手段は、目的地識別情報が前記ラベ
ル情報に付加されているとき、その構造物が目的条件に
合致することを表示するように構成される、請求項7か
ら9のいずれか1項記載のシステム。
10. The communication terminal includes a target condition designating unit that allows a user to designate a target condition, and the label information creating unit determines that the target condition designated by the user is a target condition. The label information output means is configured to add the destination condition identification information to the label information, and that the destination object identification information is added to the label information, and that the structure matches the destination condition. 10. The system according to any one of claims 7 to 9, configured to display.
【請求項11】 前記ラベル情報作成手段は、獲得した
構造物を基にしてコンピュータグラフィックス画像であ
るCG画像を作成し、前記画像の前記部分領域に対して
パターンマッチングにより前記CG画像中の部分領域を
対応付け、対応付けられた部分領域の構造物を求め、そ
の構造物の名称または属性情報および付与位置を含むラ
ベル情報を作成する、請求項7から10のいずれか1項
記載のシステム。
11. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and a part in the CG image by pattern matching with respect to the partial area of the image. The system according to any one of claims 7 to 10, wherein regions are associated with each other, a structure of the associated partial region is obtained, and label information including a name or attribute information of the structure and an assigned position is created.
【請求項12】 前記ラベル情報作成手段は、獲得した
構造物をカメラ画面に3次元投影変換し、視点から見え
ない構造物を消去してCG画像を作成し、CG画像中の
部分領域の輪郭線によってCG画像を部分領域に分割
し、前記画像の前記部分領域と前記CG画像の前記部分
領域とをパターンマッチングにより対応付け、画像の部
分領域に対して対応付けCG画像の部分領域の基となっ
た構造物を求め、その構造物の名称または属性情報およ
び付与位置を含むラベル情報を作成する、請求項7から
10のいずれか1項記載のシステム。
12. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and generates a contour of a partial area in the CG image. The CG image is divided into partial regions by lines, and the partial regions of the image and the partial regions of the CG image are associated by pattern matching, and the base of the partial region of the CG image is associated with the partial regions of the image. The system according to any one of claims 7 to 10, wherein the system obtains a structure that has become unusual, and creates label information including the name or attribute information of the structure and the assigned position.
JP9213251A 1997-03-27 1997-08-07 Communication device and system using landscape label Expired - Lifetime JP3053169B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP9213251A JP3053169B2 (en) 1997-08-07 1997-08-07 Communication device and system using landscape label
US09/042,685 US6222583B1 (en) 1997-03-27 1998-03-12 Device and system for labeling sight images
EP98400695A EP0867690B1 (en) 1997-03-27 1998-03-25 Device and system for labeling sight images
EP03075157A EP1306648A3 (en) 1997-03-27 1998-03-25 Device and system for labeling sight images
DE69818889T DE69818889T2 (en) 1997-03-27 1998-03-25 Device and system for labeling digital images
CNB981097650A CN1163760C (en) 1997-03-27 1998-03-27 Device and system for labeling sight images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9213251A JP3053169B2 (en) 1997-08-07 1997-08-07 Communication device and system using landscape label

Publications (2)

Publication Number Publication Date
JPH1153583A JPH1153583A (en) 1999-02-26
JP3053169B2 true JP3053169B2 (en) 2000-06-19

Family

ID=16636017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9213251A Expired - Lifetime JP3053169B2 (en) 1997-03-27 1997-08-07 Communication device and system using landscape label

Country Status (1)

Country Link
JP (1) JP3053169B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101474171B1 (en) 2013-12-13 2014-12-17 안준홍 Apparatus of wire rewind

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4427140B2 (en) * 1999-09-28 2010-03-03 株式会社東芝 Object video display device
JP5679521B2 (en) 2012-05-18 2015-03-04 横河電機株式会社 Information display device and information display system
DE102014208663A1 (en) * 2014-05-08 2015-11-12 Conti Temic Microelectronic Gmbh DEVICE AND METHOD FOR PROVIDING INFORMATION DATA TO A VEHICLE ENVIRONMENT OBJECT IN A VIDEO IMAGE CURRENT
CN113781893A (en) * 2021-09-18 2021-12-10 万翼科技有限公司 Traffic route three-dimensional model generation method, device, equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101474171B1 (en) 2013-12-13 2014-12-17 안준홍 Apparatus of wire rewind

Also Published As

Publication number Publication date
JPH1153583A (en) 1999-02-26

Similar Documents

Publication Publication Date Title
JP3225882B2 (en) Landscape labeling system
US6222583B1 (en) Device and system for labeling sight images
JPH1165431A (en) Device and system for car navigation with scenery label
CN108460815B (en) Method and device for editing map road elements
JP3437555B2 (en) Specific point detection method and device
US4084184A (en) Tv object locator and image identifier
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
JPH09292833A (en) Navigation device
JP2003132068A (en) Navigation system and navigation terminal
KR20090000186A (en) Point of interest displaying apparatus and method for using augmented reality
JP3156646B2 (en) Search-type landscape labeling device and system
JP2000050156A (en) News supporting system
JPH1186034A (en) Human navigati0n device with scenery label and system therefor
JP6110780B2 (en) Additional information display system
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP2004265396A (en) Image forming system and image forming method
JP3053172B2 (en) Distance reference type landscape labeling device and system
JP3053169B2 (en) Communication device and system using landscape label
JPH1157209A (en) Rally game system using view label
JP3114862B2 (en) An interactive landscape labeling system
JP2003319388A (en) Image processing method and apparatus
JP3156649B2 (en) Deformable label landscape labeling device and system
CN107478235A (en) The dynamic map based on template obtains system under network environment
KR20040055308A (en) Texture mapping method of 3D feature model using the CCD line camera
JP2009239621A (en) Method and device of orientation representation on image, and photograph

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 14

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term