JPH1186035A - Distance reference type scenery labeling device and system therefor - Google Patents

Distance reference type scenery labeling device and system therefor

Info

Publication number
JPH1186035A
JPH1186035A JP28072797A JP28072797A JPH1186035A JP H1186035 A JPH1186035 A JP H1186035A JP 28072797 A JP28072797 A JP 28072797A JP 28072797 A JP28072797 A JP 28072797A JP H1186035 A JPH1186035 A JP H1186035A
Authority
JP
Japan
Prior art keywords
image
information
camera
point
partial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28072797A
Other languages
Japanese (ja)
Other versions
JP3053172B2 (en
Inventor
Masaji Katagiri
雅二 片桐
Takahiro Matsumura
隆宏 松村
Toshiaki Sugimura
利明 杉村
Akira Suzuki
晃 鈴木
Takeshi Ikeda
武史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP28072797A priority Critical patent/JP3053172B2/en
Priority to US09/042,685 priority patent/US6222583B1/en
Priority to DE69818889T priority patent/DE69818889T2/en
Priority to EP98400695A priority patent/EP0867690B1/en
Priority to EP03075157A priority patent/EP1306648A3/en
Priority to CNB981097650A priority patent/CN1163760C/en
Publication of JPH1186035A publication Critical patent/JPH1186035A/en
Application granted granted Critical
Publication of JP3053172B2 publication Critical patent/JP3053172B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To show geographic information on a computer and respective parts in a scenery image of an actual scene to a user while making them correspond to each other. SOLUTION: An image acquisition part 1 acquires the scenery image, a position information acquisition part 2 acquires the position at the time of the image acquisition by the image acquisition part 1, and a camera attribute information acquisition part 3 obtains the camera angle, focal length, and scenery image size. A map information management part 5 finds a visual field space in a map information space from the obtained camera position, camera angle, focal length, and image size to obtain a structure present in the visual field space. A label information generation part 7 makes the structure correspond to partial areas of the scenery image by pattern matching by using the ratio of depth values at respective points by the partial areas of the scenery image and depth values at respective points by partial areas of a CG scenery image to generate the name or its attribute information of the structure and label information including its imparting position. A label information output part 8 superimposes the name or attribute information of the map information on an image corresponding to the information of the imparting position in the label information and displays the superimposed image on a visual equipment.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a device that teaches a user by voice guidance or the like.

【0002】[0002]

【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.

【0003】図15は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示道路データおよび
表示用背景データを発生させる表示用データ発生部72
と、これらの表示用データに基づいて3次元動画像デー
タを作成する3次元動画像データ作成部73と、記憶部
74を有し、ナビゲーション装置のユーザが目的地、経
由地を含む走行経路を事前に設定する場合に、地図画面
でなく実際に存在する道路に沿ったリアルな動画像表示
画面を見ながら経路を設定できる機能を有する。
FIG. 15 is a block diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device, when inputting vehicle position data and motion data, generates a position update unit 71 that updates the position of the vehicle with reference to road map data, and generates display road data and display background data based on map data and the like. Display data generator 72
A three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on the display data; and a storage unit 74. The user of the navigation device can determine a travel route including a destination and a waypoint. When setting in advance, it has a function of setting a route while watching a real moving image display screen along a road that actually exists instead of a map screen.

【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図16)を見ることができる。
According to this device, when a user travels along an actual route, the user can view a moving image display (for example, FIG. 16) along the route.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べて方角を把握したり目印を見つけたりし
てその方向を注視し、その方向にある建物の特徴を理解
した上で再度地図を見てその建物が何であるかを理解し
ている。
However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. You have to recognize what is. In other words, humans rely on the naked eye to work the human brain unconsciously, based on the symbols in the map displayed as a moving image, to determine what the actual buildings, roads, and mountains are in front of the user. It must be understood by performing the work of association. For street corners, etc., compare the map on the computer with the actual scenery, grasp the direction, find landmarks, gaze at the direction, understand the characteristics of the building in that direction, look at the map again, Understand what a building is.

【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
[0006] For this reason, there is a problem that the trouble of comparing the map on the computer with the actual scenery many times and associating with the human cannot be omitted. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.

【0007】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示する景観ラベリング装
置およびシステムを提供することである。
An object of the present invention is to provide a landscape labeling apparatus and system for associating a user with geographical information on a computer and each part in an image of a real landscape (hereinafter referred to as a landscape image). It is to be.

【0008】[0008]

【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときの位置とカメラの角度と焦点距離
と画像サイズを撮影時に取得し、コンピュータ上の3次
元地図空間内で実風景撮影時の位置とカメラの角度と焦
点距離から眺望した場合のコンピュータグラフィックス
(以下、CGとする。)画像内での地理的情報を取得
し、その地理的情報を、実風景である景観画像に重畳表
示することで対応付けを実現するものである。この地理
的情報とは画像での、構造物等の称またはその属性情報
であり、属性情報とはその構造物に関するあらゆる属性
(例えば輪郭、色等)についての情報を意味する。この
明細書の中では構造物という言葉を人工の構造物以外
に、山や川や海等の天然の地形も含めて地図DBでの何
らかの地理的構造を有するデータ全ての意味で用いるこ
ととする。地理的情報の取得に当たっては、カメラ位
置、カメラ角、焦点距離、画像サイズを基に景観画像を
求め、複数画像の構造物を求める。その構造物が写って
いるはずの景観画像の位置(以下、付与位置と称す)を
求めて、構造物の名称または属性情報を重畳表示する。
According to the present invention, map data on a computer is created in advance as three-dimensional data, and a position at which an image (hereinafter referred to as a landscape image to distinguish it from a CG image) is input. , Camera angle, focal length, and image size at the time of shooting, and computer graphics (hereinafter referred to as CG) when viewed from the position at the time of shooting the actual scenery, the camera angle, and the focal length in the three-dimensional map space on the computer. This is to achieve the association by acquiring geographical information in the image and superimposing and displaying the geographical information on a landscape image which is a real scene. The geographical information is a name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, contour, color, etc.) of the structure. In this specification, the term structure is used to mean all data having a certain geographical structure in the map DB, including natural topography such as mountains, rivers, and the sea, in addition to artificial structures. . In obtaining geographic information, a landscape image is obtained based on a camera position, a camera angle, a focal length, and an image size, and a structure of a plurality of images is obtained. The position of the landscape image where the structure is to be taken (hereinafter referred to as the assigned position) is obtained, and the name or attribute information of the structure is superimposed and displayed.

【0009】さらに、景観画像での構造物とCG画像で
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。本発明は、パター
ンマッチングを行うのに画像の各点での奥行き値を利用
する。画像取得時のカメラ位置に対する景観画像の各点
までの距離である、景観画像の部分領域毎の各点での奥
行き値を求める。同様に、画像取得時のカメラ位置に対
するCG画像の部分領域毎の各点までの距離である奥行
き値を求める。そして例えばCG画像の部分領域毎の奥
行き値の組の平均に対する、景観画像の部分領域毎の奥
行き値の組の平均の比率を求める。その比率から景観画
像の部分領域とCG画像の部分領域が対応付けられるか
否かを決定する。あるいはさらに景観画像の部分領域と
CG画像の部分領域の重複比率を求め、両平均奥行き値
の比率と部分領域の重複比率から景観画像の部分領域と
CG画像の部分領域が対応付けられるか否かを決定する
ようにしてもよい。獲得した構造物を基にしてCG画像
を作成し、景観画像の前記部分領域に対してパターンマ
ッチングによりCG画像中の部分領域を対応付け、対応
付けられた部分領域の基となった構造物を求める。な
お、平均奥行き値に限らず奥行きの組から得られる統計
値であれば何でもよい。
Further, in order to further improve the accuracy of associating the structure in the landscape image with the structure in the CG image,
The previously acquired structure is associated with each partial region of the landscape image by pattern matching. The present invention utilizes the depth value at each point of the image to perform pattern matching. The depth value at each point of each partial region of the landscape image, which is the distance from the camera position at the time of image acquisition to each point of the landscape image, is determined. Similarly, a depth value that is a distance from the camera position at the time of image acquisition to each point of each partial region of the CG image is obtained. Then, for example, the ratio of the average of the depth value set for each partial region of the landscape image to the average of the depth value set for each partial region of the CG image is obtained. From the ratio, it is determined whether or not the partial area of the landscape image is associated with the partial area of the CG image. Alternatively, the overlapping ratio between the partial region of the landscape image and the partial region of the CG image is obtained, and whether the partial region of the landscape image and the partial region of the CG image are associated with each other based on the ratio of the average depth values and the overlapping ratio of the partial regions. May be determined. A CG image is created based on the acquired structure, a partial region in the CG image is associated with the partial region of the landscape image by pattern matching, and the structure on which the associated partial region is based is defined. Ask. The statistical value is not limited to the average depth value and may be any statistical value obtained from a set of depths.

【0010】ここで、CG画像の作成法の一例について
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域の基となる構
造物の名称を対応付けできる。
Here, an example of a method for creating a CG image will be described. By accessing the three-dimensional map DB based on the camera position, camera angle, focal length, and image size obtained earlier,
Obtain the visual field space in the three-dimensional map space. A structure in the visual field space is obtained, and three-dimensional data of each structure is three-dimensionally projected and converted onto the projection plane using the camera screen as a projection plane. Further, of the line data constituting the projected figure of each structure, line data hidden by other structures and invisible is erased using a normal vector method or the like. The CG image is divided into regions based on the line data remaining after the elimination of the hidden lines. 3D map DB
Is used, the name of the structure serving as the basis of the area can be associated with each area.

【0011】そうして、パターンマチングにより景観画
像の各部分領域に対応付けられたCG画像の部分領域の
構造物名称を抽出する。抽出した構造物名称を重畳すべ
き実風景画像の位置座標を、3次元地図空間中での構造
物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、視覚機器に
表示する。
Then, the structure names of the partial areas of the CG image corresponding to the respective partial areas of the landscape image are extracted by pattern matching. The position coordinates of the actual scenery image on which the extracted structure name is to be superimposed are obtained by three-dimensionally projecting the position coordinates of the structure in the three-dimensional map space onto the projection plane. Label information is created from the position coordinates of the actual scenery image on which the extracted structure name is to be superimposed. Based on the label information, the structure name is superimposed on a landscape image as a real scene and displayed on a visual device.

【0012】本発明の距離参照型景観ラベリング装置
は、画像を取得する画像取得手段と、画像取得時のカメ
ラ位置を取得する位置情報取得手段と、画像を取得した
ときのカメラ角と焦点距離と画像サイズを取得するカメ
ラ属性情報取得手段と、取得した画像を複数の部分領域
に分割する画像処理手段と、前記画像取得時のカメラ位
置に対する画像の各点までの距離である、画像の部分領
域毎の各点での奥行き値を求める距離情報取得手段と、
地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、前記地図情報管理手段で獲得された
構造物を基にしてコンピュータグラフィックス画像であ
るCG画像を作成した後、前記画像取得時の前記カメラ
位置に対するCG画像の部分領域毎の各点までの距離で
ある奥行き値を求め、前記CG画像の部分領域毎の各点
での奥行き値の組と、前記画像の部分領域毎の各点での
奥行きの組の比較により、前記画像の部分領域をCG画
像中の部分領域と対応付け、対応付けられた部分領域の
構造物を求め、その構造物の名称または属性情報および
付与位置を含むラベル情報を作成するラベル情報作成手
段と、作成されたラベル情報中の付与位置の情報に対応
する画像中の位置に構造物の名称またはその属性情報を
重畳し、重畳された画像を視覚機器に表示するラベル情
報出力手段と、上記各手段を制御する制御手段を有す
る。
[0012] A distance reference type landscape labeling apparatus according to the present invention comprises: an image obtaining means for obtaining an image; a position information obtaining means for obtaining a camera position at the time of obtaining an image; a camera angle and a focal length when the image is obtained; Camera attribute information acquiring means for acquiring an image size; image processing means for dividing the acquired image into a plurality of partial areas; and a partial area of the image, which is a distance from a camera position at the time of the image acquisition to each point of the image. Distance information obtaining means for obtaining a depth value at each point for each,
Map information management means for managing map information, obtaining a view space in the map information space based on the acquired camera position, camera angle, focal length and image size, and acquiring a structure existing in the view space; After creating a CG image, which is a computer graphics image, based on the structure acquired by the map information management means, the distance from the camera position at the time of image acquisition to each point in each partial area of the CG image Is obtained by comparing a depth value set at each point for each partial area of the CG image with a depth set at each point for each partial area of the image. Label information creating means for associating with the partial area in the image, obtaining the structure of the associated partial area, and creating label information including the name or attribute information of the structure and the assigned position; A label information output unit that superimposes the name of the structure or its attribute information at a position in the image corresponding to the information of the assigned position in the bell information and displays the superimposed image on a visual device, and controls the above units. It has control means.

【0013】本発明の他の距離参照型景観ラベリング装
置は、画像を取得する画像取得手段と、画像取得時のカ
メラ位置を取得する位置情報取得手段と、画像を取得し
たときのカメラ角と焦点距離と画像サイズを取得するカ
メラ属性情報取得手段と、取得した画像を複数の部分領
域に分割する画像処理手段と、前記画像取得時のカメラ
位置に対する前記画像の各点までの距離である、前記画
像の部分領域毎の各点での奥行き値を求める距離情報取
得手段と、地図情報を管理し、取得したカメラ位置とカ
メラ角と焦点距離と画像サイズを基に地図情報空間の中
で視野空間を求め、その視野空間中に存在する構造物を
獲得する地図情報管理手段と、前記地図情報管理手段で
獲得された構造物を基にしてコンピュータグラフィック
ス画像であるCG画像を作成した後、前記画像取得時の
前記カメラ位置に対するCG画像の部分領域毎の各点ま
での距離である奥行き値を求め、CG画像の部分領域毎
の各点での奥行き値の組と、前記画像の部分領域毎の各
点での奥行き値の組の比と、CG画像の部分領域と画像
の部分領域の重複比率とから、前記画像の部分領域をC
G画像中の部分領域と対応付け、対応付けられた部分領
域の構造物を求め、その構造物の名称または属性情報お
よび付与位置を含むラベル情報を作成するラベル情報作
成手段と、作成されたラベル情報中の付与位置の情報に
対応する画像中の位置に構造物の名称またはその属性情
報を重畳し、重畳された画像を視覚機器に表示するラベ
ル情報出力手段と、上記各手段を制御する制御手段を有
する。
According to another aspect of the present invention, there is provided a distance reference type landscape labeling apparatus, comprising: an image acquiring unit for acquiring an image; a position information acquiring unit for acquiring a camera position at the time of acquiring the image; a camera angle and a focus when the image is acquired. A camera attribute information acquisition unit that acquires a distance and an image size, an image processing unit that divides the acquired image into a plurality of partial areas, and a distance from a camera position at the time of the image acquisition to each point of the image. A distance information obtaining means for obtaining a depth value at each point of each partial region of the image, and managing the map information, and a view space within the map information space based on the obtained camera position, camera angle, focal length, and image size. Map information management means for obtaining a structure existing in the visual field space, and CG which is a computer graphics image based on the structure obtained by the map information management means. After creating the image, a depth value that is a distance to each point of each partial region of the CG image with respect to the camera position at the time of acquiring the image is obtained, and a set of depth values at each point of each partial region of the CG image is obtained. From the ratio of the set of depth values at each point for each partial region of the image and the overlap ratio of the partial region of the CG image and the partial region of the image,
Label information creating means for associating with the partial area in the G image, obtaining the structure of the associated partial area, and creating label information including the name or attribute information of the structure and the assigned position; Label information output means for superimposing the name of the structure or its attribute information at a position in the image corresponding to the information of the assigned position in the information, and displaying the superimposed image on a visual device, and control for controlling each of the above means Having means.

【0014】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割する。
According to an embodiment of the present invention, the label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, erases a structure that cannot be seen from the viewpoint, creates a CG image, and creates a CG image. The CG image is divided into partial areas by the outline of the middle partial area.

【0015】本発明の実施態様によれば、画像取得手段
と位置情報取得手段とカメラ属性情報取得手段を複数有
する。
According to an embodiment of the present invention, there are provided a plurality of image obtaining means, position information obtaining means, and camera attribute information obtaining means.

【0016】本発明の距離参照型景観ラベリングシステ
ムは、景観ラベリング端末と景観ラベリングセンターか
らなり、景観ラベリング端末は、画像を取得する画像取
得手段と、画像取得時のカメラ位置を取得する位置情報
取得手段と、画像取得時のカメラ角と焦点距離と画像サ
イズを取得するカメラ属性情報取得手段と、取得した画
像を複数の部分領域に分割する画像処理手段と、前記画
像取得時のカメラ位置に対する前記画像の各点までの距
離である、画像の部分領域毎の各点での奥行き値を求め
る距離情報取得手段と、前記画像の領域分割に関する情
報と前記カメラ位置と前記カメラ角と前記焦点距離と前
記画像サイズとを通信網を介して前記景観ラベリングセ
ンターに送信し、前記景観ラベリングセンターからラベ
ル情報を受信する通信制御手段と、前記ラベル情報中の
構造物の名称またはその属性情報を画像中の付与位置に
対応する位置に重畳し、重畳された画像を視覚機器に表
示するラベル情報出力手段と、上記各手段を制御する端
末制御手段を有し、前記景観ラベリングセンターは、前
記通信網を介して前記景観ラベリング端末から前記画像
の領域分割に関する情報と前記カメラ位置と前記カメラ
角と前記焦点距離と前記画像サイズと前記奥行き値を受
信し、前記景観ラベリング端末に前記ラベル情報を送信
する通信制御手段と、地図情報を管理し、受信したカメ
ラ位置とカメラ角と焦点距離と画像サイズを基に地図情
報空間の中で視野空間を求め、その視野空間中に存在す
る構造物を獲得する地図情報管理手段と、前記地図情報
管理手段で獲得された構造物を基にしてコンピュータグ
ラフィックス画像であるCG画像を作成した後、前記画
像取得時のカメラ位置に対するCG画像の部分領域毎の
各点までの距離である奥行き値を部分領域毎に求め、C
G画像の部分領域毎の奥行き値の組と、前記画像の部分
領域毎の各点での奥行き値の組の比較により前記画像の
部分領域をCG画像中の部分領域と対応付け、対応付け
られた部分領域の構造物を求め、その構造物の名称また
は属性情報および付与位置を含むラベル情報を作成する
ラベル情報作成手段と、上記各手段を制御するセンター
制御手段を有する。
The distance reference type landscape labeling system of the present invention comprises a landscape labeling terminal and a landscape labeling center. The landscape labeling terminal has an image obtaining means for obtaining an image and a position information obtaining means for obtaining a camera position at the time of obtaining the image. Means, camera attribute information acquiring means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; image processing means for dividing the acquired image into a plurality of partial regions; and A distance information obtaining unit that obtains a depth value at each point for each partial area of the image, which is a distance to each point of the image, and information regarding area division of the image, the camera position, the camera angle, the focal length, and the like. Transmitting the image size to the landscape labeling center via a communication network and receiving label information from the landscape labeling center Signal control means, label information output means for superimposing the name of the structure in the label information or its attribute information at a position corresponding to the application position in the image, and displaying the superimposed image on a visual device; Terminal control means for controlling means, the landscape labeling center, information on the area division of the image from the landscape labeling terminal via the communication network, the camera position, the camera angle, the focal length, and the image Communication control means for receiving the size and the depth value and transmitting the label information to the landscape labeling terminal; managing the map information; and a map information space based on the received camera position, camera angle, focal length and image size. A map information management means for obtaining a visual space in the visual space and acquiring a structure existing in the visual space, and a structure obtained by the map information management means. After creating a CG image is a computer graphic image Te, obtains a depth value is the distance to each point of each partial area of the CG image to the camera position at the time of the image acquired for each partial region, C
By comparing the set of depth values for each partial region of the G image with the set of depth values at each point for each partial region of the image, the partial region of the image is associated with the partial region in the CG image, and It has a label information creating means for finding a structure in the partial area and creating label information including the name or attribute information of the structure and the assigned position, and a center control means for controlling each of the above means.

【0017】本発明の他の距離参照型景観ラベリングシ
ステムは、景観ラベリング端末と景観ラベリングセンタ
ーからなり、前記景観ラベリング端末は、画像を取得す
る画像取得手段と、画像取得時のカメラ位置を取得する
位置情報取得手段と、画像取得時のカメラ角と焦点距離
と画像サイズを取得するカメラ属性情報取得手段と、取
得した画像を複数の部分領域に分割する画像処理手段
と、前記画像取得時のカメラ位置に対する前記画像の各
点までの距離である、画像の部分領域毎の各点での奥行
き値を求める距離情報取得手段と、前記画像の領域分割
に関する情報と前記カメラ位置と前記カメラ角と前記焦
点距離と前記画像サイズと前記奥行き値を通信網を介し
て前記景観ラベリングセンターに送信し、前記景観ラベ
リングセンターからラベル情報を受信する通信制御手段
と、前記ラベル情報中の構造物の名称またはその属性情
報を画像中の付与位置に対応する位置に重畳し、重畳さ
れた画像を視覚機器に表示するラベル情報出力手段と、
上記各手段を制御する端末制御手段を有し、前記景観ラ
ベリングセンターは、前記通信網を介して前記景観ラベ
リング端末から前記画像の領域分割に関する情報と前記
カメラ位置と前記カメラ角と前記焦点距離と前記画像サ
イズと前記奥行き値を受信し、前記景観ラベリング端末
に前記ラベル情報を送信する通信制御手段と、地図情報
を管理し、受信したカメラ位置とカメラ角と焦点距離と
画像サイズを基に地図情報空間の中で視野空間を求め、
その視野空間中に存在する構造物を獲得する地図情報管
理手段と、前記地図情報管理手段で獲得された構造物を
基にしてコンピュータグラフィックス画像であるCG画
像を作成した後、前記画像取得時の前記カメラ位置に対
するCG画像の部分領域毎の各点までの距離である奥行
き値を部分領域毎に求め、前記CG画像の部分領域毎の
各点での奥行き値の組と、前記画像の部分領域毎の各点
での奥行き値の組の比と、前記CG画像の部分領域と前
記画像の部分領域の重複比率とから、前記画像の部分領
域をCG画像中の部分領域と対応付け、対応付けられた
部分領域の構造物を求め、その構造物の名称または属性
情報および付与位置を含むラベル情報を作成するラベル
情報作成手段と、上記各手段を制御するセンター制御手
段を有する。
According to another aspect of the present invention, there is provided a distance reference type landscape labeling system including a landscape labeling terminal and a landscape labeling center, wherein the landscape labeling terminal obtains an image obtaining means for obtaining an image and a camera position at the time of obtaining the image. Position information acquiring means, camera attribute information acquiring means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; image processing means for dividing the acquired image into a plurality of partial regions; A distance information obtaining unit that obtains a depth value at each point for each partial region of the image, which is a distance to each point of the image with respect to a position, information on region division of the image, the camera position, the camera angle, and The focal length, the image size, and the depth value are transmitted to the landscape labeling center via a communication network, and from the landscape labeling center. Communication control means for receiving the bell information, and label information output for superimposing the name of the structure in the label information or its attribute information at a position corresponding to the application position in the image, and displaying the superimposed image on a visual device Means,
Having a terminal control means for controlling each of the above means, the landscape labeling center, information on the area division of the image from the landscape labeling terminal via the communication network, the camera position, the camera angle, the focal length and Communication control means for receiving the image size and the depth value, transmitting the label information to the landscape labeling terminal, managing the map information, and generating a map based on the received camera position, camera angle, focal length, and image size. Find the viewing space in the information space,
A map information management means for acquiring a structure existing in the visual field space, and a CG image which is a computer graphics image is created based on the structure acquired by the map information management means. A depth value which is a distance from the camera position to each point of each partial area of the CG image is obtained for each partial area, and a set of depth values at each point of each partial area of the CG image, The partial area of the image is associated with the partial area of the CG image based on the ratio of the set of depth values at each point in each area and the overlapping ratio of the partial area of the CG image and the partial area of the image. It has a label information creating means for finding a structure of the attached partial area and creating label information including the name or attribute information of the structure and an assigned position, and a center control means for controlling each of the above means.

【0018】[0018]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0019】図1は本発明の第1の一実施形態の景観ラ
ベリング装置の構成図、図2は図1の景観ラベリング装
置の処理の流れ図である。
FIG. 1 is a configuration diagram of a landscape labeling apparatus according to a first embodiment of the present invention, and FIG. 2 is a flowchart of processing of the landscape labeling apparatus of FIG.

【0020】本実施形態の景観ラベリング装置は、画像
を取得する、例えばディジタルカメラである画像取得部
1と、画像を取得する際の画像取得部1の位置を取得す
る、例えばGPS受信機である位置情報取得部2と、画
像取得部1が画像を取得する際にカメラ角と焦点距離と
画像サイズを取得する、例えばディジタルカメラにに取
り付けられた3次元電子コンパスであるカメラ属性情報
取得部3と、取得した画像を複数の部分領域に分割する
画像処理部4と、前記画像取得時のカメラ位置に対する
前記画像の各点までの距離(奥行き値)を前記画像の部
分領域毎に求める距離情報取得部5と、地図情報を管理
し、取得した位置(カメラ位置)とカメラ角と焦点距離
と画像サイズを基に地図情報空間の中で視野空間を求
め、その視野空間中に存在する構造物を獲得する地図情
報管理部6と、地図情報管理部6で獲得された構造物を
基にしてCG画像を作成した後、画像取得時のカメラ位
置に対するCG画像の部分領域毎の各点までの距離であ
る奥行きを求め、CG画像の部分領域毎の各点での平均
奥行き値の組と、前記画像の部分領域毎の各点での奥行
き値の組の比率により、画像の部分領域をCG画像の部
分領域とパターンマッチングにより対応づけ、対応付け
られた構造物の名称または属性情報および付与位置を含
むラベル情報を作成するラベル情報作成部7と、作成さ
れたラベル情報中の構造物の名称または属性情報を画像
中の付与位置に対応する位置に重畳し、重畳された画像
を視覚機器に出力するラベル情報出力部8と、上記各部
1〜8を制御する制御部9で構成されている。
The landscape labeling apparatus according to the present embodiment is, for example, an image acquisition unit 1 which is an image acquisition unit, for example, a digital camera, and a GPS receiver, for example, which acquires the position of the image acquisition unit 1 when acquiring an image. A position information acquisition unit 2 and a camera attribute information acquisition unit 3 that acquires a camera angle, a focal length, and an image size when the image acquisition unit 1 acquires an image, for example, a three-dimensional electronic compass attached to a digital camera. And an image processing unit 4 for dividing the acquired image into a plurality of partial regions; and distance information for obtaining a distance (depth value) to each point of the image with respect to a camera position at the time of acquiring the image for each partial region of the image The map information is managed by the acquisition unit 5 and a visual field space is obtained in the map information space based on the obtained position (camera position), camera angle, focal length, and image size. A map information management unit 6 for acquiring an existing structure, and a CG image is created based on the structure acquired by the map information management unit 6, and then a CG image for each partial area with respect to a camera position at the time of image acquisition is created. The depth, which is the distance to each point, is determined, and the ratio of the set of the average depth value at each point for each partial region of the CG image to the set of the depth value at each point for each partial region of the image is calculated. A label information creating unit 7 for associating the partial area with the partial area of the CG image by pattern matching and creating label information including the name or attribute information of the associated structure and the assigned position; The label information output unit 8 that superimposes the name or attribute information of the structure on the position corresponding to the application position in the image, and outputs the superimposed image to the visual device, and the control unit 9 that controls the above units 1 to 8 Composed There.

【0021】距離情報取得部5では、3次元計測法に関
する従来技術を利用して画像取得部1により得られた景
観画像中の部分領域毎の各点と画像取扱時の画像取得部
1(カメラ位置)との距離を求める。ここで、3次元計
測法の従来技術に関する参考文献として画像電子学会誌
第24巻第5号474ページ〜482ページを挙げる。
この文献の中では、光レーダ法(パルス光投影法や変調
光投影法)や、単眼視法、ステレオ画像法、アクティブ
ステレオ法(スリット光投影法やパターン光投影法な
ど)等が説明されている。例えば、パルス光投影法は、
光パルスを投影し反射して帰ってくるまでの時間を計測
して距離を求める方式であり、変調光投影法は、正弦波
または矩形波で強度を時間変調した光ビームを投影し、
反射波との位相差から距離を求める方式である。例え
ば、ステレオ画像法は、複数台のカメラから得られた画
像間で三角測量法を適用して3次元位置を求める手法で
あり、スリット光投影法はスリット光を投影してできる
像の位置から三角測量法により距離得る方式であり、パ
ターン光投影法は計測空間を光パターンでコード化する
ことにより少数枚の画像から緻密な距離画像を得る方式
である。
The distance information acquisition unit 5 uses each point of each partial area in the landscape image obtained by the image acquisition unit 1 using the conventional technique relating to the three-dimensional measurement method and the image acquisition unit 1 (camera) when handling images. Position). Here, as a reference related to the conventional technique of the three-dimensional measurement method, the Journal of the Institute of Image Electronics Engineers of Japan, Vol.
In this document, the optical radar method (pulse light projection method or modulated light projection method), monocular vision method, stereo image method, active stereo method (slit light projection method, pattern light projection method, etc.) are described. I have. For example, the pulsed light projection method
The modulated light projection method projects a light beam whose intensity is time-modulated by a sine wave or a rectangular wave, by measuring the time until the light pulse is projected and reflected and returns.
In this method, the distance is obtained from the phase difference with the reflected wave. For example, the stereo image method is a method of obtaining a three-dimensional position by applying triangulation between images obtained from a plurality of cameras, and the slit light projection method is based on a position of an image formed by projecting slit light. The pattern light projection method is a method of obtaining a distance image from a small number of images by coding a measurement space with a light pattern.

【0022】本実施形態では、画像取得部1は1つであ
るので、距離情報取得部5は取得画像が1つで済む光レ
ーダ法等の3次元計測法を用いて距離を求める。
In the present embodiment, since there is one image acquisition unit 1, the distance information acquisition unit 5 obtains the distance by using a three-dimensional measurement method such as an optical radar method that requires only one acquired image.

【0023】制御部9は画像取得部1を基準カメラとし
て画像取得部1から得られた画像を景観画像として扱
う。画像取得部1により位置/カメラ属性/画像情報が
制御部9を経て、距離情報取得部5に渡される。
The control unit 9 handles the image obtained from the image acquisition unit 1 as a landscape image using the image acquisition unit 1 as a reference camera. The position / camera attribute / image information is passed to the distance information acquiring unit 5 via the control unit 9 by the image acquiring unit 1.

【0024】景観ラベリング装置が起動されると、まず
制御部9が景観画像に関する情報を取得するために、画
像取得部1、位置情報取得部2、カメラ属性情報取得部
3に対して処理開始コマンドを送る。位置情報取得部1
は、制御部9から命令を受けてGPS受信機等により位
置情報を毎秒収集し、制御部9に渡す(ステップ2
0)。ここで、時間間隔は秒単位に限らずどのようにと
ってもよい。画像取得部1は、制御部9から命令を受け
て毎秒の景観画像を取得し、制御部9に渡す(ステップ
21)。カメラ属性情報取得部3は、制御部9の命令を
受けて画像撮影時のカメラ等景観画像記録装置のカメラ
角を水平角と仰角の組で取得し(ステップ22)、同時
にズーム機能を有する景観画像装置であれば焦点距離を
取得する(ステップ23)。画像サイズは景観画像装置
毎に固定なので、制御部9が画像サイズ情報を保持して
おく。距離情報取得部5は画像取得時のカメラ位置に対
する画像の各点までの距離である、部分領域毎の各点で
の奥行き値を求める(ステップ24)。制御部9は収集
した情報を景観画像ファイルとして保持する。
When the landscape labeling device is started, first, the control unit 9 sends a processing start command to the image acquisition unit 1, the position information acquisition unit 2, and the camera attribute information acquisition unit 3 to acquire information on the landscape image. Send. Location information acquisition unit 1
Receives a command from the control unit 9, collects position information every second by a GPS receiver or the like, and passes it to the control unit 9 (step 2).
0). Here, the time interval is not limited to the unit of seconds, but may be any value. The image acquisition unit 1 receives a command from the control unit 9, acquires a landscape image every second, and passes it to the control unit 9 (step 21). The camera attribute information acquisition unit 3 receives a command from the control unit 9 to acquire a camera angle of a landscape image recording device such as a camera at the time of image capturing as a set of a horizontal angle and an elevation angle (Step 22), and at the same time, a landscape having a zoom function. If it is an image device, the focal length is obtained (step 23). Since the image size is fixed for each landscape image device, the control unit 9 holds the image size information. The distance information obtaining unit 5 obtains a depth value at each point of each partial area, which is a distance from the camera position at the time of obtaining the image to each point of the image (step 24). The control unit 9 holds the collected information as a landscape image file.

【0025】図3は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式を持つ。
FIG. 3 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.

【0026】制御部9は景観画像ファイルを格納する
と、画像処理部4に対して、景観画像から輪郭線を抽出
し、景観画像を複数の領域に分割するように命令する。
画像処理部4では、大まかに言えば景観画像内の濃度差
を基に微分処理を行って輪郭線を抽出し(ステップ2
5)、その輪郭線を境界としたラベリングを行うことに
よって領域分割する(ステップ26)。なお、ここで用
いたラベリングと言う技術用語は画像の領域分割におい
て用いられる技術用語であって、本発明の名称である景
観ラベリングとは異なるものである。手順としてはま
ず、画像を白黒濃淡画像に変換する。輪郭は明るさの急
変する部分であるから、微分処理を行って微分値が閾値
より大きい部分を求めることで輪郭線の抽出を行う、こ
のとき輪郭線の線幅は1画素であり、輪郭線は連結して
いるようにする。そのために細線化処理を行って、線幅
1画素の連結した線を得る。ここで微分処理、細線化処
理は従来からある手法を用いれば十分である。
After storing the landscape image file, the control unit 9 instructs the image processing unit 4 to extract the outline from the landscape image and divide the landscape image into a plurality of regions.
The image processing unit 4 performs a differentiation process on the basis of the density difference in the landscape image to extract a contour line (step 2).
5) The region is divided by performing labeling with the outline as a boundary (step 26). Note that the technical term of labeling used here is a technical term used in image area division, and is different from landscape labeling, which is the name of the present invention. As a procedure, first, the image is converted into a monochrome grayscale image. Since the contour is a portion where the brightness changes suddenly, the contour is extracted by performing a differentiation process to find a portion where the differential value is larger than a threshold value. At this time, the line width of the contour is 1 pixel, Are connected. For this purpose, a thinning process is performed to obtain a connected line having a line width of one pixel. Here, it is sufficient to use a conventional method for the differentiation processing and the thinning processing.

【0027】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図8に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
The obtained contour is regarded as the contour of the area, and an operation of numbering the area constituted by the contour is performed.
The largest number among the numbers is the number of areas, and the number of pixels in the area indicates the area of the area. FIG. 8 shows an example in which a landscape image is divided into a plurality of partial regions. Note that a measure of similarity (closeness) between regions may be introduced, and a clustering process may be performed to combine a plurality of regions having similar properties into one region. Any existing clustering method may be used.

【0028】制御部9は景観画像の領域分割処理を完了
させると、地図情報管理部6に対して景観画像ファイル
のヘッダ情報を渡して視野空間の算出処理を行う処理要
求を出す(ステップ27)。地図情報管理部6の例とし
ては、地図データベースプログラムがある。地図情報管
理部6は3次元地図データを管理している。2次元地図
データでもよいが、その場合は高さ情報がないために実
風景へのラベリングの付与位置の精度が劣る。なお、2
次元地図データを基にする場合は、高さ情報を補って処
理する。例えば、家屋の2次元データである場合に、家
屋が何階建てかを表す階数情報があれば、階数に一定数
を掛けてその家屋の高さを推定し、2次元データと推定
して求めた高さ情報を基に3次元データを作成する。階
数情報がない場合でも、家屋図形の面積に応じて一定数
の高さを割り振る等して高さ情報を推定することがで
き、同様に推定高さ情報を基に3次元データを作成す
る。こうして3次元データを作成して処理を進める。
When the control section 9 completes the area division processing of the landscape image, it issues a processing request to the map information management section 6 to calculate the view space by passing the header information of the landscape image file (step 27). . An example of the map information management unit 6 is a map database program. The map information management unit 6 manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height information, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. In addition, 2
When it is based on the dimensional map data, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house, the number of floors is multiplied by a certain number to estimate the height of the house, and the two-dimensional data is obtained. 3D data is created based on the height information. Even when there is no floor information, the height information can be estimated by allocating a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. In this way, three-dimensional data is created and the process proceeds.

【0029】3次元地図データの例を図4に示す。図4
(1)に2次元で表現した地図情報空間を示し、図4
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部6では制御
部9の命令を受けて景観画像ファイルのヘッダ情報を基
に視野空間を算出する(ステップ28)。図5に視野空
間の計算例を示す。まず、水平方向にXY軸が張り、垂
直方向にZ軸が張るものとする。景観画像ファイルのヘ
ッダ情報中の位置情報から、視点Eの位置を3次元地図
情報空間の中で設定する。例えば、東経137度55分
19秒、北緯34度34分30秒、標高101m33c
mであれば、それに対応する地図メッシュ番号中の対応
する座標を設定する。同じくヘッダ情報中のカメラ角情
報中の水平角と仰角を基にカメラ角方向を設定する。カ
メラ角方向を表す直線上に視点Eから焦点距離分進んだ
点に焦点Fをとる。視線方向ベクトルはその直線上で視
点Eから出る長さ1の単位ベクトルである。景観画像フ
ァイルの画像サイズで横方向のサイズからカメラ画面の
X軸での幅xを設定し、縦方向のサイズからY軸での幅
yを設定する。横x縦yの平面は視線方向ベクトルに対
してカメラ角方向に垂直で、かつ焦点Fを含むように設
定される。視点Eの座標からカメラ画面の4隅の点とを
結ぶ直線を各々求め、視点Eから伸びる4本の半直線が
作る3次元空間を視野空間とする。図6に、3次元地図
空間での視野空間の例を示す。3次元地図空間をXZ平
面から眺めたものである。図6中で斜線で囲まれた部分
は視野空間に属する空間の、XZ平面での断面図であ
る。図6の例では、視野空間の中のビルや山が含まれて
いる。
FIG. 4 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
With respect to the three-dimensional map information space, the map information management unit 6 receives a command from the control unit 9 and calculates a visual field space based on the header information of the landscape image file (step 28). FIG. 5 shows a calculation example of the visual field space. First, it is assumed that the XY axes extend in the horizontal direction and the Z axis extends in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, 137 degrees 55 minutes 19 seconds east longitude, 34 degrees 34 minutes 30 seconds north latitude, 101 m33c altitude
If m, the corresponding coordinates in the corresponding map mesh number are set. Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the camera angle information in the header information. The focal point F is set at a point advanced from the viewpoint E by the focal length on a straight line representing the camera angle direction. The line-of-sight direction vector is a unit vector having a length of 1 from the viewpoint E on the straight line. In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is set so as to be perpendicular to the camera angle direction with respect to the line of sight vector and to include the focal point F. Lines connecting the four corner points of the camera screen are obtained from the coordinates of the viewpoint E, and a three-dimensional space formed by four half-lines extending from the viewpoint E is defined as a visual field space. FIG. 6 shows an example of the visual field space in the three-dimensional map space. The three-dimensional map space is viewed from the XZ plane. In FIG. 6, a portion surrounded by oblique lines is a cross-sectional view of the space belonging to the viewing space on the XZ plane. In the example of FIG. 6, buildings and mountains in the visual field space are included.

【0030】さらに、地図情報管理部6では、求めた視
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図7のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、その構造物は視野空間
と重なり部分を持つものとする。
Further, the map information management unit 6 obtains a structure existing in the obtained visual field space. For each structure, it is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. For structures in the overlapping 3D unit map space,
Investigate whether there is any overlap with the visual field space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained. If the straight line has an intersection with the camera screen of FIG. 7, it is within the visual field space. If at least one vertex of the plurality of vertices constituting the structure satisfies this condition, the structure has an overlapping portion with the viewing space.

【0031】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図7に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
When a structure is included in the view space or a part of the structure, the process enters a process of three-dimensionally projecting each structure onto the projection surface using the camera screen as a projection surface (step 29). ). Here, as shown in FIG. 7, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .

【0032】[0032]

【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):視線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,x’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly21/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換に当たっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお、式(1)中の
z’は視点からの奥行き値(Z値)を表す。
(Equation 1) Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): gaze direction vector (Unit vector) Point P ′ = (x ′, y ′, x ′): coordinates in a coordinate system based on the viewpoint E of the point P r = (lx 2 + ly 2 ) 1/2 intersection Q = (X, Y): The projection point t of the point P on the camera screen is the focal length. In the three-dimensional projection conversion, first, for each of the structures, the surface on which the vertex extends is determined. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, the depth value (Z
Value) and store it in memory. Note that z ′ in Expression (1) represents a depth value (Z value) from the viewpoint.

【0033】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
The structures three-dimensionally transformed on the camera screen include structures that can be seen from the viewpoint and structures that cannot be seen. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 3
0). There are various methods for processing the hidden surface.
Use the buffer method. Other scan line methods and ray tracing methods may be used.

【0034】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is determined. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased.

【0035】こうしてできた領域がCG画像領域を形成
する(ステップ31)。
The area thus formed forms a CG image area (step 31).

【0036】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
With respect to the coordinates of the vertices of the two-dimensional figure constituting the CG image area, three-dimensional coordinates before projection transformation are obtained, and the correspondence between the two is stored in the memory as link information. It is used to determine which structure the two-dimensional area is a projection of based on the link information.

【0037】隠線消去して残った線データを基にして、
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図9に示す。
Based on the line data remaining after erasing hidden lines,
The CG image is divided into regions. Since the three-dimensional map DB is used, the name of the structure serving as the basis of each area can be associated with each area. The divided areas of the CG image are numbered sequentially. FIG. 9 shows an example in which a CG image is divided into a plurality of partial areas.

【0038】CG画像の領域分割処理が完了したら、制
御部9はラベル情報作成部7に対して、CG画像の分割
領域と景観画像の分割領域の対応づけを行うよう命令す
る。
When the CG image region division processing is completed, the control unit 9 instructs the label information creation unit 7 to associate the CG image division region with the landscape image division region.

【0039】ラベル情報作成部7では、CG画像を作成
した後、画像取得時のカメラ位置に対するCG画像の部
分領域の各点での距離である奥行き値を求める。次に、
CG画像の部分領域の各点での奥行き値を基に、CG画
像の部分領域毎の平均奥行き値を求める(ステップ3
2)。例えば、CG画像の第m番目の部分領域が、ある
構造物Zの像が占める領域であるとする。そのとき、そ
の構造物Zが景観画像中に実際に写っているか否かを、
視点と画像中の点との距離(奥行き値)の比較によって
推定したいわけである。そこで、CG画像中の第m番目
の部分領域中に、複数個のサンプル座標X1、X2、X3
をとり、視点(カメラ位置)と点X1との距離、視点と
点X2との距離、視点と点X3との距離を計算する(図1
5(1)参照)。点X1、X2、X3の座標に対応する、
景観画像中の座標を有する点を各々X1’、X2’、
3’とする。視点と点X1’との距離、視点と点X2
との距離、視点と点X3’との距離を各々距離情報取得
部5を用いて計測する。視点と点X1、X2、X3との距
離がそれぞれ101m、103m、102mであったな
らば、平均奥行き値は102mである。視点と点
1’、X2’、X3’との距離がそれぞれ99m、10
3m、101mであったならば、平均奥行き値は101
mである。このとき距離比率は、0.99019とな
る。値が0.90に設定されていたとすると、0.99
019>0.90なので、構造物Zが景観画像中に存在
するとみなす。次に、CG画像の部分領域毎の平均奥行
き値に対する景観画像の部分領域毎の平均奥行き値の比
率(距離比率)を求める。一方、景観画像とCG景観画
像の比較する2つの領域を重ね合わせ、重なり部分の比
率(重複比率)を求める。そして比較する両領域の距離
比率と重複比率を乗算し、その結果を設定された閾値と
比較して、閾値以上であれば、同一の構造物に関する領
域として対応付けることになる。この対応付けは、景観
画像の分割領域のうち、番号の若い領域(例えば、1
番)から順にCG画像の分割領域と行う(ステップ3
3)。重複比率の計算は次のように行う。例えば、景観
画像の分割領域1番目のR1に関して、その領域内にあ
る各画素の座標値を(A,B)とする。座標(A,B)
での画素の値は、領域の内部ゆえに1である。CG画像
の1番目の分割領域S1において、座標(A,B)が領
域S1内ならば画素値1であり重なるが、S1の外なら
ば画素値0であり重ならない。こうして座標(A,B)
での重なり係数K(A、B)として、重なる場合1、重
ならない場合0で決まる。座標(A,B)を領域R1内
で動かして、重なり係数K(A,B)を求める。そし
て、領域R1内で動かした座標(A,B)の数N1に対
して、重なり係数K(A,B)が1であった座標の数N
2を求めて、N1/N2が重複比率となる。
After creating the CG image, the label information creating unit 7 obtains a depth value which is the distance between each point of the partial area of the CG image and the camera position at the time of image acquisition. next,
An average depth value for each partial region of the CG image is determined based on the depth value at each point of the partial region of the CG image (step 3).
2). For example, it is assumed that the m-th partial region of the CG image is a region occupied by an image of a certain structure Z. At that time, it is determined whether or not the structure Z is actually shown in the landscape image.
It is desired to estimate by comparing the distance (depth value) between the viewpoint and a point in the image. Therefore, a plurality of sample coordinates X 1 , X 2 , X 3 are placed in the m-th partial area in the CG image.
Taken to calculate the distance of the viewpoint and (camera position) distance between the point X 1, the distance between the viewpoint and the point X 2, the viewpoint and the point X 3 (Fig. 1
5 (1)). Corresponding to the coordinates of points X 1 , X 2 , X 3 ,
Points having coordinates in the landscape image are represented by X 1 ′, X 2 ′, respectively.
X 3 '. Distance between viewpoint and point X 1 ′, viewpoint and point X 2
, And the distance between the viewpoint and the point X 3 ′ are measured using the distance information acquiring unit 5. If the distances between the viewpoint and points X 1 , X 2 , and X 3 are 101 m, 103 m, and 102 m, respectively, the average depth value is 102 m. The distance between the viewpoint and the points X 1 ′, X 2 ′, X 3 ′ is 99 m, respectively.
If they were 3m and 101m, the average depth value would be 101
m. At this time, the distance ratio is 0.99019. If the value were set to 0.90, then 0.99
Since 019> 0.90, it is considered that the structure Z exists in the landscape image. Next, a ratio (distance ratio) of the average depth value of each partial region of the landscape image to the average depth value of each partial region of the CG image is determined. On the other hand, two areas to be compared between the landscape image and the CG landscape image are overlapped, and the ratio of overlapping portions (overlap ratio) is determined. Then, the distance ratio of the two regions to be compared is multiplied by the overlap ratio, and the result is compared with a set threshold value. If the result is equal to or larger than the threshold value, the regions are associated with the same structure. This association is made with an area with a small number (for example, 1
(No.) in order from the CG image divided area (step 3)
3). The calculation of the overlap ratio is performed as follows. For example, the coordinate value of each pixel in the first divided region R1 of the landscape image is set to (A, B). Coordinates (A, B)
Is 1 because of the interior of the region. In the first divided area S1 of the CG image, if the coordinates (A, B) are within the area S1, the pixel value is 1 and overlaps, but if the coordinates (A, B) are outside of S1, the pixel value is 0 and does not overlap. Thus the coordinates (A, B)
The overlap coefficient K (A, B) is determined to be 1 if they overlap and 0 if they do not overlap. The coordinates (A, B) are moved in the region R1, and the overlap coefficient K (A, B) is obtained. Then, with respect to the number N1 of coordinates (A, B) moved in the region R1, the number N of coordinates where the overlap coefficient K (A, B) is 1
2, N1 / N2 is the overlap ratio.

【0040】なお、マッチング方法としてこの他、XY
方向に多少の位置ずれがあっても同じ値になるような評
価関数を用いてもよい。
In addition, as the matching method, XY
It is also possible to use an evaluation function that has the same value even if there is some displacement in the direction.

【0041】ラベル情報作成部7では、景観画像の部分
領域に対してCG画像の部分領域を対応付けた後、対応
は付けられた部分領域の構造物を抽出し(ステップ3
4)、さらに景観画像の部分領域毎に重畳すべき情報を
求め、重畳すべき位置とともにラベル情報として作成す
る処理(ステップ35)に入る。まず、景観画像の部分
領域に対して、対応するCG画像の部分領域を取り出
す。取り出したCG画像の部分領域はもともと3次元地
図空間の中の3次元構造物のある面をカメラ画面に対し
て3次元投影変換して得られたものである。そこで、3
次元投影変換の基となった3次元構造物の面を、CG画
像の部分領域が持つ奥行き値(Z値)をキーとして求め
る。さきに3次元投影変換した際に作成しておいたリン
ク情報をキーにしてもよい。もととなった構造物の面を
もとに、3次元地図DBにアクセスしてその構造物の名
称または属性情報を取得する。ここで属性情報とは、そ
の構造物に関して付随する情報を意味し、その構造物に
係る情報ならば何でもよい。そして、名称または属性情
報を重畳すべき位置座標を、景観画像の部分領域に対し
て決める。決め方は、どのように決めてもよい。例え
ば、部分領域を張る図形の重心でもよい。その構造物の
名称または属性情報、および付与位置座標からラベル情
報を作成する。表1にラベル情報の例を示す。
After associating the partial area of the landscape image with the partial area of the CG image, the label information creating section 7 extracts the structure of the associated partial area (step 3).
4) Further, processing to obtain information to be superimposed for each partial area of the landscape image and create label information together with the position to be superimposed (step 35) is entered. First, a partial area of the CG image corresponding to the partial area of the landscape image is extracted. The partial region of the extracted CG image is originally obtained by three-dimensionally projecting and converting a certain surface of the three-dimensional structure in the three-dimensional map space onto the camera screen. So 3
The surface of the three-dimensional structure that is the basis of the three-dimensional projection transformation is determined using the depth value (Z value) of the partial region of the CG image as a key. The link information created at the time of the three-dimensional projection conversion may be used as a key. Based on the surface of the original structure, the three-dimensional map DB is accessed to acquire the name or attribute information of the structure. Here, the attribute information means information accompanying the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined for the partial area of the landscape image. How to decide may be decided any way. For example, the center of gravity of the figure extending the partial area may be used. Label information is created from the name or attribute information of the structure and the assigned position coordinates. Table 1 shows an example of label information.

【0042】[0042]

【表1】 ラベル情報作成部7は、ラベル情報を作成し終ったら、
制御部9にラベル情報を渡す。
[Table 1] When the label information creating unit 7 finishes creating the label information,
The label information is passed to the control unit 9.

【0043】制御部9は、ラベル情報を受け取ると、ラ
ベル情報出力部8に対して視覚機器に対してラベル情報
を表示等して出力するように命令する。ここでは視覚機
器は、ディスプレイ、ヘッドマウントディプレイ等の映
像表示装置を含む。ラベル情報中の構造物の名称または
属性情報を景観画像中の位置に重畳し(ステップ3
6)、重畳された景観画像を映像表示装置に出力する
(ステップ37)。図12にラベル情報が重畳された景
観画像の例を示す。
When receiving the label information, the control section 9 instructs the label information output section 8 to display and output the label information to the visual device. Here, the visual device includes a video display device such as a display or a head-mounted display. The name or attribute information of the structure in the label information is superimposed on the position in the landscape image (step 3).
6) Output the superimposed landscape image to the video display device (step 37). FIG. 12 shows an example of a landscape image on which label information is superimposed.

【0044】ラベル情報出力部8はラベル情報を出力す
ると、出力完了を制御部9に通知する。制御部9は出力
完了通知を受け取ると、連続して景観ラベリングの処理
を行う場合は先に示した一連の処理手順を再び実行す
る。
When the label information output section 8 outputs the label information, it notifies the control section 9 of the completion of the output. When receiving the output completion notification, the control unit 9 executes the above-described series of processing procedures again when performing the landscape labeling process continuously.

【0045】図13は本発明の第2の実施形態の景観ラ
ベリング装置の構成図である。
FIG. 13 is a configuration diagram of a landscape labeling apparatus according to a second embodiment of the present invention.

【0046】本実施形態の景観ラベリング装置は、それ
ぞれ第1、第2の画像を取得する、例えばディジタルカ
メラである第1、第2の画像取得部1A,1Bと、画像
を取得する際の第1、第2の画像取得部1A,1Bの位
置をそれぞれ取得する、例えばGPS受信機である第
1、第2の位置情報取得部2A,2Bと、第1、第2の
画像取得部1,2が画像を取得する際にカメラ角と焦点
距離と画像サイズを取得する、例えばディジタルカメラ
にに取り付けられた3次元電子コンパスである第1、第
2のカメラ属性情報取得部3A,3Bと、取得した画像
を複数の部分領域に分割する画像処理部4と、第2の画
像に対する第1の画像の各点までの距離(奥行き値)を
第1の画像の部分領域毎に求める距離情報取得部5と、
地図情報を管理し、取得した位置(カメラ位置)とカメ
ラ角と焦点距離と画像サイズを基に地図情報空間の中で
視野空間を求め、その視野空間中に存在する構造物を獲
得する地図情報管理部6と、画像の前記部分領域に対し
て獲得した構造物を画像とCG画像の部分領域毎の平均
奥行き値の比率とパターンマッチングにより対応付け、
対応付けられた構造物の名称または属性情報および付与
位置を含むラベル情報を作成するラベル情報作成部7
と、作成されたラベル情報中の構造物の名称または属性
情報を画像中の付与位置に対応する位置に重畳し、重畳
された画像を視覚機器に出力するラベル情報出力部8
と、上記各部1〜8を制御する制御部9で構成されてい
る。
The landscape labeling apparatus according to the present embodiment acquires first and second images, respectively, for example, first and second image acquisition units 1A and 1B, which are digital cameras, and second and third image acquisition units 1A and 1B, respectively. 1. First and second position information obtaining units 2A and 2B, which are, for example, GPS receivers, which obtain the positions of the first and second image obtaining units 1A and 1B, respectively, and first and second image obtaining units 1 and 1B. A first and a second camera attribute information acquisition units 3A and 3B, which are three-dimensional electronic compasses attached to a digital camera, for example, acquire a camera angle, a focal length, and an image size when acquiring an image; An image processing unit 4 that divides the acquired image into a plurality of partial areas, and distance information acquisition that obtains a distance (depth value) from the second image to each point of the first image for each partial area of the first image Part 5,
Map information that manages map information, obtains a visual space in the map information space based on the acquired position (camera position), camera angle, focal length, and image size, and acquires structures existing in the visual space. The management unit 6 associates the structure acquired for the partial region of the image with the ratio of the average depth value for each partial region of the image and the CG image by pattern matching,
Label information creating section 7 for creating label information including the name or attribute information of the associated structure and the assigned position
And a label information output unit 8 that superimposes the name or attribute information of the structure in the created label information at a position corresponding to the application position in the image, and outputs the superimposed image to the visual device.
And a control unit 9 for controlling the above units 1 to 8.

【0047】本実施形態では、画像取得部、位置情報取
得部、カメラ属性情報取得部を複数有しているので、距
離情報取得部5は、光レーダ法のみならず、複数の取得
画像を必要とする前述したステレオ画像法、アクティブ
ステレオ画像法等の3次元計測法を用いて景観画像中の
部分領域の各点と画像取得時のカメラ位置を求める。
In the present embodiment, since a plurality of image acquisition units, position information acquisition units, and camera attribute information acquisition units are provided, the distance information acquisition unit 5 needs not only the optical radar method but also a plurality of acquired images. Each point of the partial region in the landscape image and the camera position at the time of image acquisition are obtained using a three-dimensional measurement method such as the stereo image method and the active stereo image method described above.

【0048】制御部9は第1の画像取得部1Aを基準カ
メラとして第1の画像取得部1Aから得られた画像(第
1の画像)を景観画像として扱う。第2の画像取得部1
Bは距離情報を得るために設置するカメラであり、第1
の画像取得部1Aと同様に位置/カメラ属性/画像を取
得する第2の画像取得部1Bによる画像(第2の画像)
は景観画像としては扱われない。第1および第2の画像
取得部1A,1Bからの位置/カメラ属性/画像情報が
制御部9を経て、距離情報取得部5に渡される。
The control section 9 treats the image (first image) obtained from the first image acquisition section 1A as a landscape image using the first image acquisition section 1A as a reference camera. Second image acquisition unit 1
B is a camera installed to obtain distance information.
Image (second image) by the second image acquisition unit 1B that acquires the position / camera attribute / image in the same manner as the image acquisition unit 1A
Is not treated as a landscape image. The position / camera attribute / image information from the first and second image acquisition units 1A and 1B is passed to the distance information acquisition unit 5 via the control unit 9.

【0049】景観ラベリング装置が起動されると、まず
制御部9が景観画像に関する情報を取得するために、画
像取得部1A,1B、位置情報取得部2A,2B、カメ
ラ属性情報取得部3A,3Bに対して処理開始コマンド
を送る。位置情報取得部1A,1Bは、制御部9から命
令を受けてGPS受信機等により位置情報を毎秒収集
し、制御部9に渡す(ステップ20)。ここで、時間間
隔は秒単位に限らずどのようにとってもよい。画像取得
部1A,1Bは、制御部9から命令を受けて毎秒の景観
画像を取得し、制御部9に渡す(ステップ21)。カメ
ラ属性情報取得部3A,3Bは、制御部9の命令を受け
て画像撮影時のカメラ等景観画像記録装置のカメラ角を
水平角と仰角の組で取得し(ステップ22)、同時にズ
ーム機能を有する景観画像装置であれば焦点距離を取得
する(ステップ23)。画像サイズは景観画像装置毎に
固定なので、制御部9が画像サイズ情報を保持してお
く。距離情報取得部5は第2の画像に対する第1の画像
の各点までの距離(奥行き値)を部分領域毎に求める
(ステップ24)。制御部9は収集した情報を景観画像
ファイルとして保持する。以下の動作は第1の実施形態
と同様である。
When the landscape labeling device is activated, first, the control unit 9 obtains information on the landscape image, so that the image acquisition units 1A and 1B, the position information acquisition units 2A and 2B, and the camera attribute information acquisition units 3A and 3B. Send a processing start command to The position information acquisition units 1A and 1B receive a command from the control unit 9, collect the position information with a GPS receiver or the like every second, and pass it to the control unit 9 (step 20). Here, the time interval is not limited to the unit of seconds, but may be any value. The image acquisition units 1A and 1B receive a command from the control unit 9, acquire a landscape image every second, and pass it to the control unit 9 (step 21). The camera attribute information acquisition units 3A and 3B acquire a camera angle of a landscape image recording device such as a camera at the time of image capture in a set of a horizontal angle and an elevation angle in response to an instruction from the control unit 9 (step 22), and simultaneously perform a zoom function. If it is a landscape image device having the same, the focal length is acquired (step 23). Since the image size is fixed for each landscape image device, the control unit 9 holds the image size information. The distance information acquisition unit 5 obtains the distance (depth value) from the second image to each point of the first image for each partial area (step 24). The control unit 9 holds the collected information as a landscape image file. The following operation is the same as in the first embodiment.

【0050】画像取得部、位置情報取得部、カメラ属性
情報取得部は3つ以上備えてもよい。
[0050] Three or more image acquisition units, position information acquisition units, and camera attribute information acquisition units may be provided.

【0051】図14は図1の景観ラベリング装置を通信
システムに適用した景観ラベリングシステムの構成図で
ある。
FIG. 14 is a configuration diagram of a landscape labeling system in which the landscape labeling device of FIG. 1 is applied to a communication system.

【0052】景観ラベリングシステムは景観ラベリング
端末40と景観ラベリングセンター50と通信網60で
構成される。
The landscape labeling system includes a landscape labeling terminal 40, a landscape labeling center 50, and a communication network 60.

【0053】景観ラベリング端末40は、画像を取得す
る画像取得部41と、画像取得時のカメラ位置を取得す
る位置情報取得部42と、画像取得時のカメラ角と焦点
距離と画像サイズを取得するカメラ属性情報取得部43
と、取得した画像を複数の部分領域に分割する画像処理
部44と、画像取得時のカメラ位置に対する画像の各点
までの距離である、画像の部分領域毎の各点での奥行き
値を求める距離情報取得部45と、画像の領域分割に関
する情報とカメラ位置とカメラ角と焦点距離と画像サイ
ズとを通信網60を介して景観ラベリングセンター50
に送信し、景観ラベリングセンター50からラベル情報
を受信する通信制御部46と、ラベル情報中の構造物の
名称または属性情報を画像中の付与位置に対応する位置
に重畳し、重畳された画像を視覚機器に出力するラベル
情報出力部47と、上記各部を制御する端末制御部48
で構成される。
The landscape labeling terminal 40 acquires an image acquiring section 41 for acquiring an image, a position information acquiring section 42 for acquiring a camera position when acquiring an image, and acquires a camera angle, a focal length, and an image size when acquiring an image. Camera attribute information acquisition unit 43
And an image processing unit 44 that divides the acquired image into a plurality of partial regions, and obtains a depth value at each point of each partial region of the image, which is a distance from the camera position at the time of image acquisition to each point of the image. A distance information acquisition unit 45, a scene labeling center 50 via a communication network 60, and information on image area division, a camera position, a camera angle, a focal length, and an image size.
And the communication control unit 46 that receives the label information from the landscape labeling center 50, and superimposes the name or attribute information of the structure in the label information at a position corresponding to the assigned position in the image, and displays the superimposed image. A label information output unit 47 for outputting to a visual device, and a terminal control unit 48 for controlling the above units
It consists of.

【0054】景観ラベリングセンター50は通信網60
を介して景観ラベリング端末40から前記画像の領域分
割に関する情報とカメラ位置とカメラ角と焦点距離と画
像サイズと平均奥行き値を受信し、景観ラベリング端末
40にラベル情報を送信する通信制御部51と、地図情
報を管理し、受信したカメラ位置とカメラ角と焦点距離
と画像サイズを基に地図情報空間の中で視野空間を求
め、その視野空間中に存在する構造物を獲得する地図情
報管理部52と、地図情報管理部52で獲得された構造
物を基にしてコンピュターグラフィックス画像であるC
G画像を作成した後、前記画像画像取得時のカメラ位置
に対するCG画像の部分領域毎の各点までの距離である
奥行き値を求め、該CG画像の部分領域毎の各点での奥
行き値の組と、画像の部分領域毎の各点での奥行き値の
組の比較により前記画像の部分領域をCG画像の部分領
域と対応付け、対応付けられた部分領域の構造物を求
め、その構造物の名称または属性情報および付与位置を
含むラベル情報を作成するラベル情報作成部53と、上
記各部を制御するセンター制御部54で構成される。
The landscape labeling center 50 has a communication network 60.
A communication control unit 51 that receives information related to area division of the image, a camera position, a camera angle, a focal length, an image size, and an average depth value from the landscape labeling terminal 40 via the landscape labeling terminal 40, and transmits label information to the landscape labeling terminal 40; A map information management unit that manages map information, obtains a view space in the map information space based on the received camera position, camera angle, focal length, and image size, and obtains structures existing in the view space. 52, and a computer graphics image C based on the structure acquired by the map information management unit 52.
After creating the G image, a depth value which is a distance from the camera position at the time of acquiring the image image to each point of each partial region of the CG image is obtained, and the depth value at each point of each partial region of the CG image is calculated. By comparing the set and the set of depth values at each point for each partial area of the image, the partial area of the image is associated with the partial area of the CG image, and the structure of the associated partial area is determined. A label information creating unit 53 for creating label information including the name or attribute information and the assigned position, and a center control unit 54 for controlling the above units.

【0055】なお、本システムの動作は図1の装置の動
作と同様である。また、画像取得部、位置情報取得部、
カメラ属性情報取得部は2つ以上備えてもよい。
The operation of this system is the same as the operation of the apparatus shown in FIG. Further, an image acquisition unit, a position information acquisition unit,
Two or more camera attribute information acquisition units may be provided.

【0056】[0056]

【発明の効果】以上説明したように本発明によれば、コ
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けて利用者に提示することができるため、
人間がコンピュータ上の地図と実風景を見比べて人間の
方で対応付けせずとも済む。
As described above, according to the present invention, the geographical information on the computer and each part in the scenery image of the actual scene can be presented to the user in association with each other.
This eliminates the need for a human to compare the map on the computer with the actual scenery and associate it with the human.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の距離参照型景観ラベ
リング装置の構成図である。
FIG. 1 is a configuration diagram of a distance reference type landscape labeling device according to a first embodiment of the present invention.

【図2】図1の実施形態の景観ラベリング装置の処理の
流れ図である。
FIG. 2 is a flowchart of processing of the landscape labeling device of the embodiment of FIG. 1;

【図3】景観画像ファイルのデータ構造を示す図であ
る。
FIG. 3 is a diagram showing a data structure of a landscape image file.

【図4】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
FIG. 4 is a diagram showing an example of a two-dimensional map (FIG. 1 (1)) and its three-dimensional map (FIG. 2 (2)).

【図5】視野空間の計算方法を示す図である。FIG. 5 is a diagram illustrating a calculation method of a visual field space.

【図6】3次元地図空間での視野空間の例を示す図であ
る。
FIG. 6 is a diagram illustrating an example of a visual field space in a three-dimensional map space.

【図7】投影図の例を示す図である。FIG. 7 is a diagram showing an example of a projection view.

【図8】景観画像の領域分割例を示す図である。FIG. 8 is a diagram showing an example of area division of a landscape image.

【図9】CG画像の領域分割例を示す図である。FIG. 9 is a diagram illustrating an example of area division of a CG image.

【図10】景観画像の部分領域とCG画像の部分領域の
パターンマッチングの説明図である。
FIG. 10 is an explanatory diagram of pattern matching between a partial region of a landscape image and a partial region of a CG image.

【図11】CG画像の第m番目の部分領域内の点と(図
11(1))、これに対応する景観画像内の点を示す図
である。
FIG. 11 is a diagram showing points in the m-th partial region of the CG image (FIG. 11A) and corresponding points in the landscape image.

【図12】景観画像へのラベル情報の重畳の例を示す図
である。
FIG. 12 is a diagram illustrating an example of superimposition of label information on a landscape image.

【図13】本発明の第2の実施形態の距離参照型景観ラ
ベリング装置の構成図である。
FIG. 13 is a configuration diagram of a distance reference type landscape labeling device according to a second embodiment of the present invention.

【図14】本発明の一実施形態の距離参照型景観ラベリ
ングシステムの構成図である。
FIG. 14 is a configuration diagram of a distance reference type landscape labeling system according to an embodiment of the present invention.

【図15】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
FIG. 15 is a configuration diagram of a navigation device disclosed in JP-A-8-273000.

【図16】動画像の表示例を示す図である。FIG. 16 is a diagram illustrating a display example of a moving image.

【符号の説明】[Explanation of symbols]

1、1A、1B 画像取得部 2、2A、2B 位置情報取得部 3、3A、3B カメラ属性情報取得部 4 画像処理部 5 距離情報取得部 6 地図情報管理部 7 ラベル情報作成部 8 ラベル情報出力部 9 制御部 20〜37 ステップ 40 景観ラベリング端末 41 画像取得部 42 位置情報取得部 43 カメラ属性情報取得部 44 画像処理部 45 距離情報取得部 46 通信制御部 48 ラベル情報出力部 47 端末制御部 50 景観ラベリングセンター 51 通信制御部 52 地図情報管理部 53 ラベル情報作成部 54 センター制御部 60 通信網 1, 1A, 1B Image acquisition unit 2, 2A, 2B Position information acquisition unit 3, 3A, 3B Camera attribute information acquisition unit 4 Image processing unit 5 Distance information acquisition unit 6 Map information management unit 7 Label information creation unit 8 Label information output Unit 9 Control unit 20 to 37 Step 40 Scenery labeling terminal 41 Image acquisition unit 42 Position information acquisition unit 43 Camera attribute information acquisition unit 44 Image processing unit 45 Distance information acquisition unit 46 Communication control unit 48 Label information output unit 47 Terminal control unit 50 Landscape labeling center 51 Communication control unit 52 Map information management unit 53 Label information creation unit 54 Center control unit 60 Communication network

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鈴木 晃 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Akira Suzuki 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Japan Telegraph and Telephone Corporation (72) Inventor Takeshi Ikeda 3- 192-1 Nishi-Shinjuku, Shinjuku-ku, Tokyo No. Japan Telegraph and Telephone Corporation

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像を取得したときのカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 前記画像取得時のカメラ位置に対する前記画像の各点ま
での距離である、前記画像の部分領域毎の各点での奥行
き値を求める距離情報取得手段と、 地図情報を管理し、前記の取得したカメラ位置とカメラ
角と焦点距離と画像サイズを基に地図情報空間の中で視
野空間を求め、その視野空間中に存在する構造物を獲得
する地図情報管理手段と、 前記地図情報管理手段で獲得された構造物を基にしてコ
ンピュータグラフィックス画像であるCG画像を作成し
た後、前記画像取得時の前記カメラ位置に対するCG画
像の部分領域毎の各点までの距離である奥行き値を求
め、該CG画像の部分領域毎の各点での奥行き値の組
と、前記画像の部分領域毎の各点での奥行き値の組の比
較により、画像の部分領域を前記CG画像中の部分領域
と対応付け、対応付けられた部分領域の構造物を求め、
その構造物の名称または属性情報および付与位置を含む
ラベル情報を作成するラベル情報作成手段と、 作成されたラベル情報中の付与位置の情報に対応する画
像中の位置に構造物の名称またはその属性情報を重畳
し、重畳された画像を視覚機器に表示するラベル情報出
力手段と、 前記各手段を制御する制御手段を有する距離参照型景観
ラベリング装置。
An image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; and a camera attribute information acquisition for acquiring a camera angle, a focal length, and an image size when the image is acquired. Means, image processing means for dividing the acquired image into a plurality of partial areas, and depth at each point for each partial area of the image, which is a distance from the camera position at the time of image acquisition to each point of the image. A distance information obtaining means for obtaining a value; managing map information; obtaining a visual field space in the map information space based on the obtained camera position, camera angle, focal length, and image size; Map information management means for acquiring a structure to be obtained, and after creating a CG image which is a computer graphics image based on the structure obtained by the map information management means, A depth value which is a distance from the camera position to each point of each partial area of the CG image is obtained, and a set of depth values at each point of each partial area of the CG image and each point of each partial area of the image are obtained. By comparing the set of depth values in the above, the partial area of the image is associated with the partial area in the CG image, and the structure of the associated partial area is obtained.
Label information creating means for creating label information including the name or attribute information of the structure and the assigned position, and the name of the structure or its attribute at a position in the image corresponding to the information of the assigned position in the created label information A distance reference type landscape labeling device, comprising: label information output means for superimposing information and displaying the superimposed image on a visual device; and control means for controlling the respective means.
【請求項2】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像を取得したときのカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 前記画像取得時のカメラ位置に対する前記画像取得時の
カメラ位置の部分領域の各点までの距離である、前記画
像の部分領域毎の各点での奥行き値を求める距離情報取
得手段と、 地図情報を管理し、前記の取得したカメラ位置とカメラ
角と焦点距離と画像サイズを基に地図情報空間の中で視
野空間を求め、その視野空間中に存在する構造物を獲得
する地図情報管理手段と、 前記地図情報管理手段で獲得された構造物を基にしてコ
ンピュータグラフィックス画像であるCG画像を作成し
た後、前記画像取得時の前記カメラ位置に対するCG画
像の部分領域の各点までの距離である奥行き値を求め、
該CG画像の部分領域毎の各点での奥行き値の組と、前
記画像の部分領域毎の各点での奥行き値の組の比と、前
記CG画像の部分領域と前記画像の部分領域の重複比率
とから、前記画像の部分領域を前記CG画像中の部分領
域と対応付け、対応付けられた部分領域の構造物を求
め、その構造物の名称または属性情報および付与位置を
含むラベル情報を作成するラベル情報作成手段と、 作成されたラベル情報中の付与位置の情報に対応する画
像中の位置に構造物の名称またはその属性情報を重畳
し、重畳された画像を視覚機器に表示するラベル情報出
力手段と、 前記各手段を制御する制御手段を有する距離参照型景観
ラベリング装置。
2. An image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, and a camera attribute information acquisition for acquiring a camera angle, a focal length, and an image size when an image is acquired. Means, an image processing means for dividing the acquired image into a plurality of partial areas, and a part of the image, which is a distance from a camera position at the time of image acquisition to each point of the partial area of the camera position at the time of image acquisition. Distance information obtaining means for obtaining a depth value at each point in each area; managing map information; and setting a visual field space in a map information space based on the obtained camera position, camera angle, focal length, and image size. Map information management means for obtaining a structure existing in the visual space, and a CG image which is a computer graphics image based on the structure obtained by the map information management means. After the creation, a depth value which is a distance from the camera position at the time of the image acquisition to each point of the partial area of the CG image is obtained,
The ratio of the set of depth values at each point for each partial area of the CG image, the ratio of the set of depth values at each point for each partial area of the image, and the difference between the partial area of the CG image and the partial area of the image From the overlap ratio, the partial area of the image is associated with the partial area in the CG image, a structure of the associated partial area is obtained, and label information including the name or attribute information of the structure and the assigned position is obtained. Label information creating means to be created, and a label for superimposing the name of the structure or its attribute information at a position in the image corresponding to the information of the assigned position in the created label information, and displaying the superimposed image on a visual device A distance reference type landscape labeling device, comprising: information output means; and control means for controlling each of the means.
【請求項3】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割す
る、請求項1または2記載の景観ラベリング装置。
3. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and creates a contour of a partial area in the CG image. 3. The landscape labeling device according to claim 1, wherein the CG image is divided into partial regions by lines.
【請求項4】 前記画像取得手段と前記位置情報取得手
段と前記カメラ属性情報取得手段を各々複数有する、請
求項1から3のいずれか1項記載の装置。
4. The apparatus according to claim 1, further comprising a plurality of each of the image acquiring unit, the position information acquiring unit, and the camera attribute information acquiring unit.
【請求項5】 景観ラベリング端末と景観ラベリングセ
ンターからなり、 前記景観ラベリング端末は、画像を取得する画像取得手
段と、画像取得時のカメラ位置を取得する位置情報取得
手段と、画像取得時のカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、取得した画像を
複数の部分領域に分割する画像処理手段と、前記画像取
得時のカメラ位置に対する前記画像の各点までの距離で
ある、前記画像の部分領域毎の各点での奥行き値を求め
る距離情報取得手段と、前記画像の領域分割に関する情
報と前記カメラ位置と前記カメラ角と前記焦点距離と前
記画像サイズと前記奥行き値を通信網を介して前記景観
ラベリングセンターに送信し、前記景観ラベリングセン
ターからラベル情報を受信する通信制御手段と、前記ラ
ベル情報中の構造物の名称またはその属性情報を前記画
像中の付与位置に対応する位置に重畳し、重畳された画
像を視覚機器に表示するラベル情報出力手段と、上記各
手段を制御する端末制御手段を有し、 前記景観ラベリングセンターは、前記通信網を介して前
記景観ラベリング端末から前記画像の領域分割に関する
情報と前記カメラ位置と前記カメラ角と前記焦点距離と
前記画像サイズと前記奥行き値とを受信し、前記景観ラ
ベリング端末に前記ラベル情報を送信する通信制御手段
と、地図情報を管理し、受信したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る地図情報管理手段と、前記地図情報管理手段で獲得さ
れた構造物を基にしてコンピュータグラフィックス画像
であるCG画像を作成した後、前記画像取得時のカメラ
位置に対するCG画像の部分領域毎の各点までの距離で
ある奥行き値を部分領域毎に求め、該CG画像の部分領
域毎の各点での奥行き値の組と、前記画像の部分領域毎
の各点での奥行き値の組の比較により前記画像の部分領
域を前記CG画像中の部分領域と対応付け、対応付けら
れた部分領域の構造物を求め、その構造物の名称または
属性情報および付与位置を含むラベル情報を作成するラ
ベル情報作成手段と、前記各手段を制御するセンター制
御手段を有する距離参照型景観ラベリングシステム。
5. A landscape labeling terminal and a landscape labeling center, wherein the landscape labeling terminal is an image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, and a camera at the time of image acquisition. Camera attribute information acquiring means for acquiring an angle, a focal length, and an image size; image processing means for dividing an acquired image into a plurality of partial regions; and a distance from a camera position at the time of the image acquisition to each point of the image. Distance information obtaining means for obtaining a depth value at each point for each partial region of the image; information on area division of the image; the camera position; the camera angle; the focal length; the image size; and the depth value Communication control means for transmitting the label information to the landscape labeling center via a communication network, and receiving label information from the landscape labeling center; Label information output means for superimposing the name of the structure in the file information or its attribute information at a position corresponding to the application position in the image, and displaying the superimposed image on a visual device, and a terminal for controlling each of the above means Control means, the landscape labeling center, from the landscape labeling terminal via the communication network, information on area division of the image, the camera position, the camera angle, the focal length, the image size, and the depth value And communication control means for transmitting the label information to the landscape labeling terminal, managing the map information, and viewing the map in the map information space based on the received camera position, camera angle, focal length, and image size. Map information management means for obtaining a space and obtaining a structure existing in the visual field space; and a computer based on the structure obtained by the map information management means. After creating a CG image which is a raster image, a depth value which is a distance from a camera position at the time of image acquisition to each point of each partial region of the CG image is obtained for each partial region, and a depth value is obtained for each partial region of the CG image. By comparing the set of depth values at each point with the set of depth values at each point for each partial region of the image, the partial region of the image was associated with the partial region in the CG image, A distance reference type landscape labeling system comprising: a label information creating unit that obtains a structure in a partial area and creates label information including the name or attribute information of the structure and an assigned position; and a center control unit that controls each of the units.
【請求項6】 景観ラベリング端末と景観ラベリングセ
ンターからなり、 前記景観ラベリング端末は、画像を取得する画像取得手
段と、画像取得時のカメラ位置を取得する位置情報取得
手段と、画像取得時のカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、取得した画像を
複数の部分領域に分割する画像処理手段と、前記画像取
得時のカメラ位置に対する画像の各点までの距離であ
る、画像の部分領域毎の各点での奥行き値を求める距離
情報取得手段と、前記画像の領域分割に関する情報と前
記カメラ位置と前記カメラ角と前記焦点距離と前記画像
サイズと前記奥行き値を通信網を介して前記景観ラベリ
ングセンターに送信し、前記景観ラベリングセンターか
らラベル情報を受信する通信制御手段と、前記ラベル情
報中の構造物の名称またはその属性情報を前記画像中の
付与位置に対応する位置に重畳し、重畳された画像を視
覚機器に表示するラベル情報出力手段と、上記各手段を
制御する端末制御手段を有し、 前記景観ラベリングセンターは、前記通信網を介して前
記景観ラベリング端末から前記画像の領域分割に関する
情報と前記カメラ位置と前記カメラ角と前記焦点距離と
前記画像サイズと前記奥行き値を受信し、前記景観ラベ
リング端末に前記ラベル情報を送信する通信制御手段
と、地図情報を管理し、受信したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る地図情報管理手段と、前記地図情報管理手段で獲得さ
れた構造物を基にしてコンピュータグラフィックス画像
であるCG画像を作成した後、前記画像取得時の前記カ
メラ位置に対するCG画像の部分領域毎の各点までの距
離である奥行き値を部分領域毎に求め、前記CG画像の
部分領域毎の各点での奥行き値の組と、前記画像の部分
領域毎の各点での奥行き値の組の比と、前記CG画像の
部分領域と前記画像の部分領域の重複比率とから、前記
画像の部分領域をCG画像中の部分領域と対応付け、対
応付けられた部分領域の構造物を求め、その構造物の名
称または属性情報および付与位置を含むラベル情報を作
成するラベル情報作成手段と、上記各手段を制御するセ
ンター制御手段を有する距離参照型景観ラベリングシス
テム。
6. A landscape labeling terminal and a landscape labeling center, wherein the landscape labeling terminal is an image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, and a camera at the time of image acquisition. Camera attribute information acquiring means for acquiring an angle, a focal length, and an image size; image processing means for dividing an acquired image into a plurality of partial areas; and distances to respective points of the image with respect to a camera position at the time of the image acquisition. A distance information obtaining unit for obtaining a depth value at each point for each partial region of the image, and communicating information on region division of the image, the camera position, the camera angle, the focal length, the image size, and the depth value. Communication control means for transmitting to the landscape labeling center via a network and receiving label information from the landscape labeling center; Label information output means for superimposing the name of the structure or its attribute information at a position corresponding to the application position in the image, and displaying the superimposed image on a visual device, and a terminal control means for controlling each of the above means Having the landscape labeling center, receives information about the area division of the image, the camera position, the camera angle, the focal length, the image size, and the depth value from the landscape labeling terminal via the communication network. Communication control means for transmitting the label information to the landscape labeling terminal, and manages the map information, to determine the view space in the map information space based on the received camera position, camera angle, focal length and image size, Map information management means for acquiring structures existing in the visual field space; and computer graphics based on the structures acquired by the map information management means. After creating a CG image which is a source image, a depth value which is a distance from the camera position at the time of image acquisition to each point of each partial region of the CG image is obtained for each partial region, and for each partial region of the CG image, From the set of depth values at each point, the ratio of the set of depth values at each point for each partial area of the image, and the overlap ratio between the partial area of the CG image and the partial area of the image. Label information creating means for associating the partial area with the partial area in the CG image, finding the structure of the associated partial area, and creating label information including the name or attribute information of the structure and the assigned position; A distance reference type landscape labeling system having a center control unit for controlling each of the above units.
【請求項7】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割す
る、請求項4または6記載の景観ラベリングシステム。
7. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and creates a contour of a partial region in the CG image. 7. The landscape labeling system according to claim 4, wherein the CG image is divided into partial regions by lines.
【請求項8】 前記画像取得手段と前記位置情報手段と
前記カメラ属性情報とを各々複数有する、請求項5から
7のいずれか1項に記載のシステム。
8. The system according to claim 5, comprising a plurality of each of said image acquisition unit, said position information unit, and said camera attribute information.
JP28072797A 1997-03-27 1997-10-14 Distance reference type landscape labeling device and system Expired - Lifetime JP3053172B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP28072797A JP3053172B2 (en) 1997-07-11 1997-10-14 Distance reference type landscape labeling device and system
US09/042,685 US6222583B1 (en) 1997-03-27 1998-03-12 Device and system for labeling sight images
DE69818889T DE69818889T2 (en) 1997-03-27 1998-03-25 Device and system for labeling digital images
EP98400695A EP0867690B1 (en) 1997-03-27 1998-03-25 Device and system for labeling sight images
EP03075157A EP1306648A3 (en) 1997-03-27 1998-03-25 Device and system for labeling sight images
CNB981097650A CN1163760C (en) 1997-03-27 1998-03-27 Device and system for labeling sight images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-186679 1997-07-11
JP18667997 1997-07-11
JP28072797A JP3053172B2 (en) 1997-07-11 1997-10-14 Distance reference type landscape labeling device and system

Publications (2)

Publication Number Publication Date
JPH1186035A true JPH1186035A (en) 1999-03-30
JP3053172B2 JP3053172B2 (en) 2000-06-19

Family

ID=26503909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28072797A Expired - Lifetime JP3053172B2 (en) 1997-03-27 1997-10-14 Distance reference type landscape labeling device and system

Country Status (1)

Country Link
JP (1) JP3053172B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004095374A1 (en) * 2003-04-21 2004-11-04 Nec Corporation Video object recognition device and recognition method, video annotation giving device and giving method, and program
WO2008149537A1 (en) * 2007-05-31 2008-12-11 Panasonic Corporation Image capturing device, additional information providing server, and additional information filtering system
JP2009076096A (en) * 2008-11-27 2009-04-09 Mitsubishi Electric Corp Object specifying device
KR100968837B1 (en) * 2010-01-20 2010-07-09 (주)테슬라시스템 Portable camera system provides information about captured objects
KR101363317B1 (en) * 2009-07-21 2014-02-14 에스케이플래닛 주식회사 Method for Providing Location Based Services by Using Information Of Direction, Server And Portable Terminal Therefor
CN105467994A (en) * 2015-11-27 2016-04-06 长春诺惟拉智能科技有限责任公司 Vision and ranging fusion-based food delivery robot indoor positioning system and positioning method
WO2016157406A1 (en) * 2015-03-31 2016-10-06 日立マクセル株式会社 Image acquisition device, image file generation method, and image file generation program
KR20190137087A (en) * 2017-04-03 2019-12-10 로베르트 보쉬 게엠베하 Automated image labeling for vehicles based on maps

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110136562B (en) * 2019-05-21 2021-12-24 黄朝广 Teaching method capable of displaying internal construction requirements of concrete structure

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004095374A1 (en) * 2003-04-21 2004-11-04 Nec Corporation Video object recognition device and recognition method, video annotation giving device and giving method, and program
WO2008149537A1 (en) * 2007-05-31 2008-12-11 Panasonic Corporation Image capturing device, additional information providing server, and additional information filtering system
US8264584B2 (en) 2007-05-31 2012-09-11 Panasonic Corporation Image capturing apparatus, additional information providing server, and additional information filtering system
JP2009076096A (en) * 2008-11-27 2009-04-09 Mitsubishi Electric Corp Object specifying device
KR101363317B1 (en) * 2009-07-21 2014-02-14 에스케이플래닛 주식회사 Method for Providing Location Based Services by Using Information Of Direction, Server And Portable Terminal Therefor
KR100968837B1 (en) * 2010-01-20 2010-07-09 (주)테슬라시스템 Portable camera system provides information about captured objects
WO2016157406A1 (en) * 2015-03-31 2016-10-06 日立マクセル株式会社 Image acquisition device, image file generation method, and image file generation program
CN105467994A (en) * 2015-11-27 2016-04-06 长春诺惟拉智能科技有限责任公司 Vision and ranging fusion-based food delivery robot indoor positioning system and positioning method
CN105467994B (en) * 2015-11-27 2019-01-18 长春瑶光科技有限公司 The meal delivery robot indoor orientation method that vision is merged with ranging
KR20190137087A (en) * 2017-04-03 2019-12-10 로베르트 보쉬 게엠베하 Automated image labeling for vehicles based on maps

Also Published As

Publication number Publication date
JP3053172B2 (en) 2000-06-19

Similar Documents

Publication Publication Date Title
US6222583B1 (en) Device and system for labeling sight images
JP3225882B2 (en) Landscape labeling system
JPH1165431A (en) Device and system for car navigation with scenery label
CN108460815B (en) Method and device for editing map road elements
JP3437555B2 (en) Specific point detection method and device
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
JPH09292833A (en) Navigation device
JP2004348575A (en) Three-dimensional model construction system and its program
JP2006503379A (en) Enhanced virtual environment
KR20090000186A (en) Point of interest displaying apparatus and method for using augmented reality
JP2022077976A (en) Image-based positioning method and system
JP3156646B2 (en) Search-type landscape labeling device and system
KR20190114696A (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
JP3053172B2 (en) Distance reference type landscape labeling device and system
JPH1186034A (en) Human navigati0n device with scenery label and system therefor
KR102441100B1 (en) Road Fingerprint Data Construction System and Method Using the LAS Data
JP2000050156A (en) News supporting system
JP2004265396A (en) Image forming system and image forming method
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP3114862B2 (en) An interactive landscape labeling system
JPH1157209A (en) Rally game system using view label
JP3053169B2 (en) Communication device and system using landscape label
KR20040055308A (en) Texture mapping method of 3D feature model using the CCD line camera
CN111868656B (en) Operation control system, operation control method, device, equipment and medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090407

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100407

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110407

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120407

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130407

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140407

Year of fee payment: 14

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term