JPH1186034A - Human navigati0n device with scenery label and system therefor - Google Patents

Human navigati0n device with scenery label and system therefor

Info

Publication number
JPH1186034A
JPH1186034A JP9240869A JP24086997A JPH1186034A JP H1186034 A JPH1186034 A JP H1186034A JP 9240869 A JP9240869 A JP 9240869A JP 24086997 A JP24086997 A JP 24086997A JP H1186034 A JPH1186034 A JP H1186034A
Authority
JP
Japan
Prior art keywords
image
information
camera
label
label information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9240869A
Other languages
Japanese (ja)
Inventor
Takahiro Matsumura
隆宏 松村
Toshiaki Sugimura
利明 杉村
Masaji Katagiri
雅二 片桐
Masaji Takano
正次 高野
Takeshi Ikeda
武史 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP9240869A priority Critical patent/JPH1186034A/en
Publication of JPH1186034A publication Critical patent/JPH1186034A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To show geographic information on a computer and respective parts in a scenery image of an actual scene to a user while making them correspond to each other. SOLUTION: The scenery image is obtained by an image acquisition part 1, the position at the time of the image acquisition is obtained by a position information acquisition part 2, and the camera angle, focal length, and scenery image size are obtained by a camera attribute information acquisition part 3. A map information management part 5 finds a visual field space in a map information space from the position of the acquisition, the camera angle, and image size to acquire a structure present in the visual field space. A label information generating means 6A generates the name or attribute information of the structure and generates label information including its imparting position and a label information output means 7A superimposes the name or attribute information of the map information on an image corresponding to the position on the position in the label information and projects and displays the superimposed image on a head-mount display device.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ等の景観画
像入力機器を用いて利用者が撮影した画像に対してその
画像中の各部分領域に関する地理的な情報を画像表示装
置に重畳表示したり音声案内等して利用者に教示する装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention superimposes and displays, on an image display device, geographical information about each partial area in an image taken by a user using a landscape image input device such as a camera. The present invention relates to a device that teaches a user by voice guidance or the like.

【0002】[0002]

【従来の技術】従来、利用者がいる周辺に関する地理的
情報を利用者に教示するシステムとして種々のナビゲー
ションシステムがあった。
2. Description of the Related Art Conventionally, there have been various navigation systems as systems for instructing users on geographical information about the area where the users are located.

【0003】図15は特開平8−273000号に開示
されたナビゲーション装置の構成図である。この装置
は、車両の位置データと動きデータを入力すると、道路
地図データを参照して車両の位置を更新する位置更新部
71と、地図データ等に基づいて表示用道路データおよ
び表示用背景データを発生させる表示用データ発生部7
2と、これらの表示用データに基づいて3次元動画像デ
ータを作成する3次元動画像データ作成部73と、記憶
部74を有し、ナビゲーション装置のユーザが目的地、
経由地を含む走行経路を事前に設定する場合に、地図画
面でなく実際に存在する道路に沿ったリアルな動画像表
示画面を見ながら経路を設定できる機能を有する。
FIG. 15 is a block diagram of a navigation device disclosed in Japanese Patent Application Laid-Open No. 8-273000. This device receives a vehicle position data and a movement data, receives a road map data, updates a vehicle position with reference to a position updating unit 71, and displays display road data and display background data based on map data and the like. Display data generator 7 to be generated
2, a three-dimensional moving image data creating unit 73 for creating three-dimensional moving image data based on these display data, and a storage unit 74.
When a travel route including a waypoint is set in advance, the device has a function of setting a route while viewing a real moving image display screen along a road that actually exists instead of a map screen.

【0004】この装置によれば、ユーザは実際に在る経
路に沿って走行するときに、その経路に沿った動画像表
示(例えば、図16)を見ることができる。
According to this device, when a user travels along an actual route, the user can view a moving image display (for example, FIG. 16) along the route.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、同装置
を用いる場合、最終的には人間が現実の風景とコンピュ
ータの世界での地理的情報とを肉眼で対応付けることに
よって、現実の風景の中のものが何であるかを認識しな
ければならない。つまり、利用者の眼前にある実際の建
物や道路や山が何であるかを、動画像表示された地図中
の記号等を基にして人間が肉眼を頼りにして人間の脳を
無意識に働かせて対応付けの作業を行って理解しなけれ
ばならない。街角等では、コンピュータでの地図と実際
の景観を見比べては方角を把握したり目印を見つけたり
してその方向を注視し、その方向にある建物の特徴を理
解した上で再度地図を見てその建物が何であるかを理解
している。
However, in the case of using the same device, the human finally associates the real scene with the geographical information in the computer world with the naked eye, so that the person in the real scene can be used. You have to recognize what is. In other words, humans rely on the naked eye to work the human brain unconsciously, based on the symbols in the map displayed as a moving image, to determine what the actual buildings, roads, and mountains are in front of the user. It must be understood by performing the work of association. At street corners, etc., comparing the map on the computer with the actual scenery, grasping the direction and finding landmarks, gazing at the direction, understanding the characteristics of the building in that direction, and then looking at the map again Understand what the building is.

【0006】このため、何度もコンピュータ上の地図と
実風景を見比べて人間の方で対応付けする手間は省略で
きないという問題点がある。特に薄暗がりや夜間等は実
風景が見にくくて対応を取りにくい。
[0006] For this reason, there is a problem that the trouble of comparing the map on the computer with the actual scenery many times and associating with the human cannot be omitted. Especially in the dark or at night, it is difficult to see the actual scenery and to take measures.

【0007】本発明の目的は、コンピュータ上の地理的
情報と実風景の画像(以下、景観画像と呼ぶ。)中の各
部分とを対応付けて利用者に教示する景観ラベル付ヒュ
ーマンナビゲーション装置およびシステムを提供するこ
とである。
SUMMARY OF THE INVENTION An object of the present invention is to provide a human navigation device with a landscape label that teaches a user by associating geographic information on a computer with each part in an image of a real landscape (hereinafter, referred to as a landscape image). Is to provide a system.

【0008】[0008]

【課題を解決するための手段】本発明は、コンピュータ
上の地図データを3次元データとして予め作成してお
き、画像(CG画像と区別するため以降景観画像と呼
ぶ)が入力されるときのカメラ位置とカメラの角度と焦
点距離と画像サイズを撮影時に取得し、コンピュータ上
の3次元地図空間内で実風景撮影時の位置とカメラの角
度と焦点距離から眺望した場合のコンピュータグラフィ
ックス(以下、CGとする。)画像内での地理的情報を
取得し、その地理的情報を、実風景である景観画像に重
畳表示することで対応付けを実現するものである。この
地理的情報とは画像での、構造物等の名称またはその属
性情報であり、属性情報とはその構造物に関するあらゆ
る属性(例えば輪郭、色等)についての情報を意味す
る。この明細書の中では構造物という言葉を人工の構造
物以外に、山や川や海等の天然の地形も含めて地図DB
での何らかの地理的構造を有するデータ全ての意味で用
いることとする。地理的情報の取得にあたっては、カメ
ラ位置、カメラ角、焦点距離、画像サイズをもとに景観
画像を求め、複数画像の構造物を求める。その構造物が
写っているはずの景観画像の位置(以下、付与位置と称
す)を求めて、構造物の名称または属性情報を重畳表示
する。
According to the present invention, there is provided a camera in which map data on a computer is created in advance as three-dimensional data, and an image (hereinafter referred to as a landscape image to distinguish it from a CG image) is input. Acquires the position, camera angle, focal length, and image size at the time of shooting, and obtains computer graphics (hereinafter, referred to as "the following") in the three-dimensional map space on the computer when viewing from the position, camera angle, and focal length at the time of actual scenery shooting. This is to realize association by acquiring geographical information in an image and superimposing and displaying the geographical information on a landscape image which is a real scene. The geographic information is the name of a structure or the like or its attribute information in an image, and the attribute information means information on all attributes (for example, contour, color, etc.) of the structure. In this specification, the term "structure" refers to a map DB including not only man-made structures but also natural terrain such as mountains, rivers, and the sea.
Will be used in the meaning of all data having some geographical structure. When acquiring geographic information, a landscape image is obtained based on a camera position, a camera angle, a focal length, and an image size, and a structure of a plurality of images is obtained. The position of the landscape image where the structure is to be taken (hereinafter referred to as the assigned position) is obtained, and the name or attribute information of the structure is superimposed and displayed.

【0009】さらに、景観画像での構造物とCG画像で
の構造物との対応付けの精度をさらに上げるためには、
景観画像の各部分領域に対して先に獲得した構造物をパ
ターンマッチングにより対応付ける。獲得した構造物を
基にしてCG画像を作成し、景観画像の前記部分領域に
対してパターンマッチングによりCG画像中の部分領域
を対応付け、対応付けられた部分領域のもととなった構
造物を求める。
Further, in order to further improve the accuracy of associating the structure in the landscape image with the structure in the CG image,
The previously acquired structure is associated with each partial region of the landscape image by pattern matching. A CG image is created on the basis of the acquired structure, a partial region in the CG image is associated with the partial region of the landscape image by pattern matching, and the structure as a source of the associated partial region Ask for.

【0010】ここで、CG画像の作成法の一例について
述べる。先に取得したカメラ位置とカメラ角度と焦点距
離と画像サイズを基に3次元地図DBにアクセスして、
3次元地図空間内での視野空間を求める。視野空間中の
構造物を求め、カメラ画面を投影面として、各構造物の
立体データをこの投影面に3次元投影変換する。さらに
各構造物の投影図形を構成する線データのうち、他の構
造物に隠れて見えない線データを法線ベクトル法等の手
法を用いて隠線消去する。隠線消去して残った線データ
を基にして、CG画像を領域分割する。3次元地図DB
を利用しているため、各領域毎にその領域のもととなる
構造物の名称を対応付けできる。
Here, an example of a method for creating a CG image will be described. By accessing the three-dimensional map DB based on the camera position, camera angle, focal length, and image size obtained earlier,
Obtain the visual field space in the three-dimensional map space. A structure in the visual field space is obtained, and three-dimensional data of each structure is three-dimensionally projected and converted onto the projection plane using the camera screen as a projection plane. Further, of the line data constituting the projected figure of each structure, line data hidden by other structures and invisible is erased using a normal vector method or the like. The CG image is divided into regions based on the line data remaining after the elimination of the hidden lines. 3D map DB
Is used, the name of the structure that is the basis of the area can be associated with each area.

【0011】そうして、パターンマッチングにより景観
画像の各部分領域に対応付けられたCG画像の部分領域
の構造物名称を抽出する。抽出した構造物名称を重畳す
べき実風景画像の位置座標を、3次元地図空間中での構
造物の位置座標を先の投影面に3次元投影変換して求め
る。抽出した構造物名称を重畳すべき実風景画像の位置
座標からラベル情報を作成する。ラベル情報を基に実風
景である景観画像に構造物名称を重畳して、ヘッドマウ
ントディスプレイ装置に投影表示する。
Then, the structure name of the partial area of the CG image associated with each partial area of the landscape image is extracted by pattern matching. The position coordinates of the actual scenery image on which the extracted structure name is to be superimposed are obtained by three-dimensionally projecting the position coordinates of the structure in the three-dimensional map space onto the projection plane. Label information is created from the position coordinates of the actual scenery image on which the extracted structure name is to be superimposed. Based on the label information, the structure name is superimposed on a landscape image which is a real scene, and projected and displayed on a head mounted display device.

【0012】本発明の景観ラベル付ヒューマンナビゲー
ション装置は、画像を取得する画像取得手段と、画像取
得時のカメラ位置を取得する位置情報取得手段と、画像
を取得したときのカメラ角と焦点距離と画像サイズを取
得するカメラ属性情報取得手段と、地図情報を管理し、
取得したカメラ位置とカメラ角と焦点距離と画像サイズ
を基に地図情報空間の中で視野空間を求め、その視野空
間中に存在する構造物を獲得する地図情報管理手段と、
構造物の名称またはその属性情報および付与位置を含む
ラベル情報を作成するラベル情報作成手段と、取得した
ラベル情報中の付与位置の情報に対応する画像中の位置
に地図情報の名称またはその属性情報を重畳し、重畳さ
れた画像をヘッドマウントディスプレイ装置に投影表示
するラベル情報出力手段と、上記各手段を制御する制御
手段を有する。
[0012] A human navigation device with a landscape label according to the present invention comprises: an image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; a camera angle and a focal length when the image is acquired; A camera attribute information acquisition unit for acquiring an image size, and map information,
Map information management means for obtaining a visual space in the map information space based on the acquired camera position, camera angle, focal length, and image size, and acquiring a structure existing in the visual space;
Label information creating means for creating label information including the name of the structure or its attribute information and the assigned position, and the name of the map information or its attribute information at the position in the image corresponding to the information of the assigned position in the acquired label information And label information output means for projecting and displaying the superimposed image on the head-mounted display device, and control means for controlling each of the above means.

【0013】本発明の他の景観ラベル付ヒューマンナビ
ゲーション装置は、画像を取得する画像取得手段と、画
像取得時のカメラ位置を取得する位置情報取得手段と、
画像取得時のカメラ角と焦点距離と画像サイズを取得す
るカメラ属性情報取得手段と、取得した画像を複数の部
分領域に分割する画像処理手段と、地図情報を管理し、
取得したカメラ位置とカメラ角と焦点距離と画像サイズ
を基に地図情報空間のなかで視野空間を求め、その視野
空間中に存在する構造物を獲得する地図情報管理手段
と、前記画像の前記部分領域に対して前記獲得した構造
物を対応付け、対応付けられた前記構造物の名称または
その属性情報および付与位置を含むラベル情報を作成す
るラベル情報作成手段と、前記ラベル情報中の構造物の
名称またはその属性情報を画像中の付与位置に対応する
位置に重畳し、重畳された画像をヘッドマウントディス
プレイ装置に投影表示するラベル情報出力手段と、前記
各手段を制御する制御手段を有する。
According to another aspect of the present invention, there is provided a human navigation device with a landscape label, comprising: an image acquiring unit for acquiring an image; a position information acquiring unit for acquiring a camera position at the time of acquiring the image;
A camera attribute information acquisition unit that acquires a camera angle, a focal length, and an image size at the time of image acquisition, an image processing unit that divides the acquired image into a plurality of partial regions, and manages map information;
Map information management means for obtaining a view space in a map information space based on the acquired camera position, camera angle, focal length, and image size, and acquiring a structure existing in the view space; and the portion of the image Label information creating means for associating the acquired structure with an area, and creating label information including the name of the structure or the attribute information and the assigned position of the structure, and the structure of the structure in the label information A label information output unit that superimposes the name or its attribute information at a position corresponding to the assignment position in the image, and projects and displays the superimposed image on a head-mounted display device, and a control unit that controls each of the units.

【0014】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物を基にしてCG画像を作成
し、前記画像の前記部分領域に対してパターンマッチン
グにより前記CG画像中の部分領域に対応付け、対応付
けられた部分領域の構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
According to an embodiment of the present invention, the label information creating means creates a CG image based on the acquired structure, and performs pattern matching on the partial region of the image to obtain a portion in the CG image. The structure of the partial area associated with the area is obtained, and label information including the name or attribute information of the structure and the assigned position is created.

【0015】本発明の実施態様によれば、ラベル情報作
成手段は、獲得した構造物をカメラ画面に3次元投影変
換し、視点から見えない構造物を消去してCG画像を作
成し、CG画像中の部分領域の輪郭線によってCG画像
を部分領域に分割し、前記画像の前記部分領域と前記C
G画像の前記部分領域とをパターンマッチングにより対
応付け、画像の部分領域に対して対応付けCG画像の部
分領域の基となった構造物を求め、その構造物の名称ま
たは属性情報および付与位置を含むラベル情報を作成す
る。
According to an embodiment of the present invention, the label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, erases a structure that cannot be seen from the viewpoint, creates a CG image, and creates a CG image. The CG image is divided into partial regions by the contour line of the middle partial region, and the partial region of the image is
The partial area of the G image is associated with the partial area of the image by pattern matching, the partial area of the image is associated, the structure on which the partial area of the CG image is based is obtained, and the name or attribute information of the structure and the assigned position are determined. Create label information to include.

【0016】本発明の景観ラベル付ヒューマンナビゲー
ションシステムは、景観ラベル付ヒューマンナビゲーシ
ョン端末と景観ラベリングセンターからなり、景観ラベ
ル付ヒューマンナビゲーション端末は、画像を取得する
画像取得手段と、画像取得時のカメラ位置を取得する位
置情報取得手段と、画像取得時のカメラ角と焦点距離と
画像サイズを取得するカメラ属性情報取得手段と、取得
した画像を複数の部分領域に分割する画像処理手段と、
前記画像の領域分割に関する情報と前記カメラ位置と前
記カメラ角と前記焦点距離と前記画像サイズとを通信網
を介して前記景観ラベリングセンターに送信し、景観ラ
ベリングセンターからラベル情報を受信する通信制御手
段と、ラベル情報中の構造物の名称または属性情報を付
与位置に対応する画像中に対応する位置に重畳し、重畳
された画像をヘッドマウントディスプレイ装置に投影表
示するラベル情報出力手段と、上記各手段を制御する端
末制御手段を有し、景観ラベリングセンターは、前記通
信網を介して前記景観ラベル付ヒューマンナビゲーショ
ン端末から前記画像の領域分割に関する情報と前記カメ
ラ位置と前記カメラ角と前記焦点距離と前記画像サイズ
とを受信し、前記景観ラベル付ヒューマンナビゲーショ
ン端末に前記ラベル情報を送信する通信制御手段と、地
図情報を管理し、受信したカメラ位置とカメラ角と焦点
距離と画像サイズを基に地図情報空間の中で視野空間を
求め、その視野空間中に存在する構造物を獲得する地図
情報管理手段と、前記画像の前記部分領域に対して前記
獲得した構造物を対応付け、対応付けられた前記構造物
の名称または属性情報および付与位置を含む前記ラベル
情報を作成するラベル情報作成手段と、上記各手段を制
御するセンター制御手段を有する。
A landscape-labeled human navigation system according to the present invention comprises a landscape-labeled human navigation terminal and a landscape labeling center. Position information acquisition means for acquiring, camera attribute information acquisition means for acquiring the camera angle and focal length and image size at the time of image acquisition, image processing means for dividing the acquired image into a plurality of partial areas,
Communication control means for transmitting information regarding the area division of the image, the camera position, the camera angle, the focal length, and the image size to the landscape labeling center via a communication network, and receiving label information from the landscape labeling center. Label information output means for superimposing the name or attribute information of the structure in the label information at the position corresponding to the image corresponding to the application position, and projecting and displaying the superimposed image on the head mounted display device; Having a terminal control means for controlling the means, the landscape labeling center, information on the area division of the image from the human navigation terminal with the landscape label via the communication network, the camera position, the camera angle, the focal length and Receiving the image size and sending the label to the landscape-labeled human navigation terminal. A communication control means for transmitting information, a structure that manages map information, obtains a view space in a map information space based on a received camera position, camera angle, focal length, and image size, and exists in the view space. Map information management means for acquiring an object, associating the acquired structure with the partial area of the image, and creating the label information including the name or attribute information of the associated structure and the assigned position And a center control unit for controlling each of the above units.

【0017】[0017]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0018】図1は本発明の第1の実施の景観ラベル付
ヒューマンナビゲーション装置の構成図である。
FIG. 1 is a block diagram of a human navigation apparatus with a landscape label according to a first embodiment of the present invention.

【0019】本実施形態の景観ラベル付ヒューマンナビ
ゲーション装置は、画像を取得する、例えばディジタル
カメラである画像取得部1と、画像を取得する際のカメ
ラ位置を取得する、例えばGPS受信機である位置情報
取得部2と、画像を取得する際にカメラ角と焦点距離と
画像サイズを取得する、例えばディジタルカメラに取り
付けられた3次元電子コンパスであるカメラ属性情報取
得部3と、地図情報を管理し、取得したカメラ位置とカ
メラ角と焦点距離と画像サイズを基に地図情報空間の中
で視野空間を求め、その視野空間中に存在する構造物を
獲得する、例えば地図DB管理プログラムである地図情
報管理部5と、構造物の名称また輪郭および位置を含む
ラベル情報を作成するラベル情報作成部6Aと、取得し
たラベル情報中の位置の情報に対応する画像中の位置に
地図情報の名称また輪郭を重畳し、重畳された画像をヘ
ッドマウントディスプレイ装置に投影表示するラベル情
報出力部7Aと、各部1〜7Aを制御する制御部8Aで
構成されている。
The landscape-labeled human navigation device according to the present embodiment acquires an image, for example, an image acquisition unit 1 which is a digital camera, and acquires a camera position when acquiring an image, for example, a position which is a GPS receiver. An information acquisition unit 2, a camera attribute information acquisition unit 3, which is a three-dimensional electronic compass attached to a digital camera, for example, which acquires a camera angle, a focal length, and an image size when acquiring an image, and manages map information. For example, map information is obtained in the map information space based on the acquired camera position, camera angle, focal length, and image size, and a structure existing in the view space is obtained. A management unit 5, a label information creation unit 6A for creating label information including the name, outline and position of the structure; A label information output unit 7A that superimposes the name or outline of the map information at a position in the image corresponding to the position information, and projects and displays the superimposed image on a head-mounted display device; and a control unit that controls each unit 1 to 7A. 8A.

【0020】図2は本発明の第2の実施形態の景観ラベ
ル付ヒューマンナビゲーション装置の構成図、図4は図
2の景観ラベル付ヒューマンナビゲーション装置の処理
の流れ図である。
FIG. 2 is a block diagram of a human navigation device with a landscape label according to a second embodiment of the present invention, and FIG. 4 is a flowchart of the processing of the human navigation device with a landscape label of FIG.

【0021】本実施形態の景観ラベリング装置は、景観
画像を取得する、例えばディジタルカメラである画像取
得部1と、画像を取得する際のカメラ位置を取得する、
例えばGPS受信機である位置情報取得部2と、同じく
画像を取得する際にカメラ角と焦点距離と画像サイズを
取得する、例えばディジタルカメラに取り付けられた3
次元電子コンパスであるカメラ属性情報取得部3と、取
得した画像を複数の部分領域に分割する画像処理部4
と、地図情報を管理し、取得したカメラ位置とカメラ角
と焦点距離と画像サイズを基に地図情報空間の中で視野
空間を求め、その視野空間中に存在する構造物を獲得す
る地図情報管理部5と、画像の前記部分領域に対して獲
得した構造物をパターンマッチングにより対応付け、対
応付けられた構造物の名称または属性情報および付与位
置を含むラベル情報を作成する情報作成部6Bと、作成
されたラベル情報中の構造物の名称または属性情報を画
像中の付与位置に対応する位置に重畳するラベル情報出
力部7Bと、重畳された画像をヘッドマウントディスプ
レイ装置に投影表示するラベル情報出力部7Bと、上記
各部1〜7Bを制御する制御部8Bで構成されている。
The landscape labeling apparatus of the present embodiment acquires a landscape image, for example, an image acquisition unit 1 which is a digital camera, and acquires a camera position at the time of acquiring an image.
For example, a position information acquisition unit 2 that is a GPS receiver, and a camera angle, a focal length, and an image size that are also acquired when acquiring an image.
Camera attribute information acquisition unit 3 which is a three-dimensional electronic compass, and image processing unit 4 which divides the acquired image into a plurality of partial areas
Map information management that manages map information, obtains a visual space in the map information space based on the acquired camera position, camera angle, focal length, and image size, and acquires structures existing in the visual space. An information creating unit 6B that associates the acquired structure with the partial region of the image by pattern matching and creates label information including the name or attribute information of the associated structure and the assigned position; A label information output unit 7B that superimposes the name or attribute information of the structure in the created label information at a position corresponding to the application position in the image, and a label information output that projects and displays the superimposed image on a head-mounted display device It comprises a unit 7B and a control unit 8B for controlling the above-mentioned units 1 to 7B.

【0022】図3(1)、(2)はヘッドマウントディ
スプレイ装置の構成図である。なお、図3(1)では図
3(2)の中のものが一部省略されている。
FIGS. 3A and 3B are schematic diagrams of a head mounted display device. In FIG. 3A, those in FIG. 3B are partially omitted.

【0023】図3のヘッドマウントディスプレイ装置
は、右眼11R、左眼11Lの動きを測定する眼球運動
測定装置12R、12Lと、平面表示装置13R、13
Lと、レンズ14R、14Lと、眼球運動測定装置12
R、12Lから求めた両眼の動きより人の注視点Pの3
次元位置を算出する注視点算出装置15とから構成され
る。
The head mounted display device shown in FIG. 3 includes eye movement measuring devices 12R and 12L for measuring the movements of the right eye 11R and the left eye 11L, and flat display devices 13R and 13R.
L, lenses 14R, 14L, and eye movement measuring device 12
3 of the point of gazing point P of the person from the movement of both eyes obtained from R and 12L
And a gazing point calculating device 15 for calculating a dimensional position.

【0024】ここで、眼球運動測定装置12R、12L
と注視点算出装置15は例えば特開平8−166559
号公報に開示されたものを使用できる。
Here, the eye movement measuring devices 12R, 12L
And the gazing point calculation device 15 are disclosed in, for example,
The one disclosed in Japanese Unexamined Patent Publication (KOKAI) No. 6-284 can be used.

【0025】次に、本実施形態の動作を詳細に説明す
る。
Next, the operation of this embodiment will be described in detail.

【0026】景観ラベル付ヒューマンナビゲーション装
置が起動されると、まず制御部8Bが景観画像に関する
情報を取得するために、位置情報取得部2、カメラ属性
情報取得部3、画像取得部1に対して処理開始コマンド
を送る。位置情報取得部2は、制御部8Bから命令を受
けてGPS受信機等により位置情報を毎秒収集し、制御
部8Bに渡す(ステップ21)。ここで、時間間隔は秒
単位に限らずどのようにとってもよい。カメラ属性情報
取得部3は、制御部8Bの命令を受けて画像撮影時のカ
メラ等景観画像記録装置のカメラ角を水平角と仰角の組
で取得し(ステップ22)、同時にズーム機能を有する
景観画像装置であれば焦点距離を取得する(ステップ2
3)。画像取得部1は、制御部8Bから命令を受けて毎
秒の景観画像を取得し、制御部8Bに渡す(ステップ2
4)。画像サイズは景観画像装置毎に固定なので、制御
部8Bが画像サイズ情報を保持しておく。制御部8Bは
収集した情報を景観画像ファイルとして保持する。
When the landscape-labeled human navigation device is started, the control unit 8B first sends the position information acquisition unit 2, the camera attribute information acquisition unit 3, and the image acquisition unit 1 to acquire information on the landscape image. Send a processing start command. The position information acquisition unit 2 receives a command from the control unit 8B, collects position information with a GPS receiver or the like every second, and transfers the collected information to the control unit 8B (step 21). Here, the time interval is not limited to the unit of seconds, but may be any value. The camera attribute information acquiring unit 3 receives a command from the control unit 8B to acquire a camera angle of a landscape image recording device such as a camera at the time of image capturing as a set of a horizontal angle and an elevation angle (step 22), and at the same time, a landscape having a zoom function. If it is an image device, the focal length is obtained (Step 2)
3). The image acquiring unit 1 acquires a landscape image every second in response to a command from the control unit 8B, and passes it to the control unit 8B (Step 2).
4). Since the image size is fixed for each landscape image device, the control unit 8B holds the image size information. The control unit 8B holds the collected information as a landscape image file.

【0027】図5は、景観画像ファイルのデータ構造の
ファイル形式を示す。景観画像ファイルはヘッダ情報と
画像データを持つ。ヘッダ情報としては、位置情報、カ
メラ角情報、焦点距離、時刻情報、画像ファイルの画像
サイズ、タイプおよびサイズを持つ。位置情報として、
東経、北緯、標高の各データ(例えば、東経137度5
5分10秒、北緯34度34分30秒、標高101m3
3cm等)を有する。カメラ角として、水平角と仰角の
各データ(例えば、水平角右回り254度、仰角15度
等)を有する。焦点距離データは、画像撮影時のカメラ
レンズの焦点距離(例えば28mm等)である。時刻情
報として、撮影時の時刻(例えば、日本時間1997年
1月31日15時6分17秒等)を持つ。画像ファイル
の画像サイズとして、縦横の画素サイズ(例えば、64
0×480等)を持つ。同じくファイルタイプ(TIF
E形式、8ビットカラー等)を持つ。同じくファイルの
バイト数(307.2KB等)を持つ。画像データその
ものを例えばバイナリー形式で持つ。
FIG. 5 shows the file format of the data structure of the landscape image file. The landscape image file has header information and image data. The header information includes position information, camera angle information, focal length, time information, image size, type, and size of an image file. As location information,
East longitude, north latitude, and elevation data (for example, 137 degrees east 5 degrees
5 minutes 10 seconds, latitude 34 degrees 34 minutes 30 seconds north, altitude 101m3
3 cm). The camera angle includes horizontal angle data and elevation angle data (for example, horizontal angle 254 degrees clockwise, elevation angle 15 degrees, etc.). The focal length data is the focal length (for example, 28 mm) of the camera lens at the time of capturing an image. The time information includes the time at the time of shooting (for example, 15:06:17, January 31, 1997, Japan time). As the image size of the image file, the vertical and horizontal pixel sizes (for example, 64
0 × 480). File type (TIF
E format, 8-bit color, etc.). It also has the number of bytes of the file (307.2 KB, etc.). The image data itself has, for example, a binary format.

【0028】制御部8Bは景観画像ファイルを格納する
と、画像処理部4に対して、景観画像から輪郭線を抽出
し、景観画像を複数の領域に分割するように命令する。
画像処理部4では、大まかに言えば景観画像内の濃度差
を基に微分処理を行って輪郭線を抽出し(ステップ2
5)、その輪郭線を境界としたラベリングを行うことに
よって領域分割する(ステップ26)。なお、ここで用
いたラベリングと言う技術用語は画像の領域分割におい
て用いられる技術用語である。手順としてはまず、画像
を白黒濃淡画像に変換する。輪郭は明るさの急変する部
分であるから、微分処理を行って微分値がしきい値より
大きい部分を求めることで輪郭線の抽出を行う。このと
き輪郭線の線幅は1画素であり、輪郭線は連結している
ようにする。そのために細線化処理を行って、線幅1画
素の連結した線を得る。ここで微分処理、細線化処理は
従来からある手法を用いれば十分である。
After storing the landscape image file, the control unit 8B instructs the image processing unit 4 to extract the outline from the landscape image and divide the landscape image into a plurality of regions.
The image processing unit 4 performs a differentiation process on the basis of the density difference in the landscape image to extract a contour line (step 2).
5) The region is divided by performing labeling with the outline as a boundary (step 26). Note that the technical term of labeling used here is a technical term used in image area division. As a procedure, first, the image is converted into a monochrome grayscale image. Since the contour is a portion where the brightness changes suddenly, the contour is extracted by performing a differentiation process to find a portion where the differential value is larger than a threshold value. At this time, the line width of the outline is one pixel, and the outlines are connected. For this purpose, a thinning process is performed to obtain a connected line having a line width of one pixel. Here, it is sufficient to use a conventional method for the differentiation processing and the thinning processing.

【0029】得られた輪郭線を領域の輪郭線と考え、輪
郭線により構成される領域に番号をつける操作を行う。
その番号の中で最大の数が領域の数となり、領域中の画
素数がその領域の面積を表す。景観画像を複数の部分領
域に分割した例を図10に示す。なお、領域間の類似度
(近さ)の尺度を導入し、性質が似ている複数の領域を
一つの領域にまとめていくクラスタ化処理を行ってもよ
い。既存方法のどのようなクラスタ化方法によってもよ
い。
The obtained outline is regarded as the outline of the region, and an operation of numbering the region constituted by the outline is performed.
The largest number among the numbers is the number of areas, and the number of pixels in the area indicates the area of the area. FIG. 10 shows an example in which a landscape image is divided into a plurality of partial regions. Note that a measure of similarity (closeness) between regions may be introduced, and a clustering process may be performed to combine a plurality of regions having similar properties into one region. Any existing clustering method may be used.

【0030】制御部8Bは景観画像の領域分割処理を完
了させると、地図情報管理部5に対して景観画像ファイ
ルのヘッダ情報を渡して視野空間の算出処理を行う処理
要求を出す。地図情報管理部5の例としては、地図デー
タベースプログラムがある。地図情報管理部5は3次元
地図データを管理している。2次元地図データでもよい
が、その場合は高さ情報がないために実風景へのラベリ
ングの付与位置の精度が劣る。なお、2次元地図データ
を基にする場合は、高さ情報を補って処理する。例え
ば、家屋の2次元データである場合に、家屋が何階建て
かを表す階数情報があれば、階数に一定数を掛けてその
家屋の高さを推定し、2次元データと推定して求めた高
さ情報を基に3次元データを作成する。階数情報がない
場合でも、家屋図形の面積に応じて一定数の高さを割り
振る等して高さ情報を推定することができ、同様に推定
高さ情報をもとに3次元データを作成する。こうして3
次元データを作成して処理を進める。
When the control unit 8B completes the process of dividing the landscape image into regions, the control unit 8B sends the map information management unit 5 a processing request for passing the header information of the landscape image file and calculating the view space. An example of the map information management unit 5 is a map database program. The map information management unit 5 manages three-dimensional map data. Although two-dimensional map data may be used, in this case, since there is no height information, the accuracy of the position at which the labeling is applied to the actual scenery is inferior. When the two-dimensional map data is used as the basis, the processing is performed by supplementing the height information. For example, in the case of two-dimensional data of a house, if there is floor information indicating the number of floors of the house, the number of floors is multiplied by a certain number to estimate the height of the house, and the two-dimensional data is obtained. 3D data is created based on the height information. Even when there is no floor information, the height information can be estimated by assigning a certain number of heights according to the area of the house figure, and similarly, three-dimensional data is created based on the estimated height information. . Thus 3
Create dimensional data and proceed.

【0031】3次元地図データの例を図6に示す。図6
(1)に2次元で表現した地図情報空間を示し、図6
(2)に3次元で表現した地図情報空間を示す。この3
次元地図情報空間に対して、地図情報管理部5では制御
部8Bの命令を受けて地図DBをアクセスし景観画像フ
ァイルのヘッダ情報を基に視野空間を算出する(ステッ
プ27,28)。図7に視野空間の計算例を示す。ま
ず、水平方向にXY軸が張り、垂直方向にZ軸が張るも
のとする。景観画像ファイルのヘッダ情報中の位置情報
から、視点Eの位置を3次元地図情報空間の中で設定す
る。例えば、東経137度55分19秒、北緯34度3
4分30秒、標高101m33cmであれば、それに対
応する地図メッシュ番号中の対応する座標を設定する。
同じくヘッダ情報中のカメラ角情報中の水平角と仰角を
もとにカメラ角方向を設定する。カメラ角方向を表す直
線上に視点Eから焦点距離分進んだ点に焦点Fをとる。
視線W方向ベクトルはその直線上で視点Eから出る長さ
1の単位ベクトルである。景観画像ファイルの画像サイ
ズで横方向のサイズからカメラ画面のX軸での幅xを設
定し、縦方向のサイズからY軸での幅yを設定する。横
x縦yの平面は視線方向ベクトルに対してカメラ角方向
に垂直で、かつ焦点Fを含むように設定される。視点E
の座標からカメラ画面の4隅の点とを結ぶ直線を各々求
め、視点Eから延びる4本の半直線が作る3次元空間を
視野空間とする。図8に、3次元地図空間での視野空間
の例を示す。3次元地図空間をXZ平面から眺めたもの
である。図8中で斜線で囲まれた部分は視野空間に属す
る空間の、XZ平面での断面図である。図8の例では、
視野空間の中のビルや山が含まれている。
FIG. 6 shows an example of three-dimensional map data. FIG.
(1) shows a map information space expressed in two dimensions, and FIG.
(2) shows a map information space expressed in three dimensions. This 3
The map information management unit 5 accesses the map DB in response to a command from the control unit 8B for the three-dimensional map information space, and calculates a visual field space based on the header information of the landscape image file (steps 27 and 28). FIG. 7 shows a calculation example of the visual field space. First, it is assumed that the XY axes extend in the horizontal direction and the Z axis extends in the vertical direction. The position of the viewpoint E is set in the three-dimensional map information space from the position information in the header information of the landscape image file. For example, 137 ° 55'19 ”E, 34 ° 3N
If the time is 4 minutes and 30 seconds and the altitude is 101 m33 cm, the corresponding coordinates in the corresponding map mesh number are set.
Similarly, the camera angle direction is set based on the horizontal angle and the elevation angle in the camera angle information in the header information. The focal point F is set at a point advanced from the viewpoint E by the focal length on a straight line representing the camera angle direction.
The line-of-sight W direction vector is a unit vector having a length of 1 from the viewpoint E on the straight line. In the image size of the landscape image file, the width x on the X-axis of the camera screen is set from the horizontal size, and the width y on the Y-axis is set from the vertical size. The horizontal x vertical y plane is set so as to be perpendicular to the camera angle direction with respect to the line of sight vector and to include the focal point F. Viewpoint E
A straight line connecting the four corner points of the camera screen is obtained from the coordinates of, and a three-dimensional space formed by four half straight lines extending from the viewpoint E is defined as a visual field space. FIG. 8 shows an example of a visual field space in a three-dimensional map space. The three-dimensional map space is viewed from the XZ plane. 8 is a cross-sectional view of the space belonging to the viewing space on the XZ plane. In the example of FIG.
Buildings and mountains in the viewing space are included.

【0032】さらに、地図情報管理部5では、求めら視
野空間の中に存在する構造物を求める。構造物毎に、構
造物を表す立体を構成する各頂点が、視野空間の内部領
域に存在するか否かを計算する。通常2次元地図空間は
一定サイズの2次元メッシュで区切られている。3次元
地図空間のメッシュの切り方としては、縦横の2次元方
向のメッシュに加えて高さ方向にも一定間隔でメッシュ
を切っていく。空間を直方体の単位空間で区切ることに
なる。まず、直方体の単位空間毎視野空間との重なり部
分の有無を調べ、重なり部分がある3次元単位地図空間
の番号を求める。ここでいう3次元単位地図空間の番号
とは、いわゆるメッシュ番号と同様のものである。重な
りを持つ3次元単位地図空間内にある構造物に対して、
視野空間と重なり部分の有無を調べる。構造物を構成す
る頂点の座標と視点の座標とを結ぶ直線を求め、その直
線が図9のカメラ画面に対して交点を持つならば視野空
間内にある。構造物を構成する複数の頂点のうち、一つ
の頂点でもこの条件を満たせば、その構造物は視野空間
と重なり部分を持つものとする。
Further, the map information management unit 5 obtains a structure existing in the visual field space. For each structure, it is calculated whether or not each vertex constituting the solid representing the structure exists in the internal region of the viewing space. Usually, a two-dimensional map space is divided by a two-dimensional mesh of a fixed size. As a method of cutting a mesh in the three-dimensional map space, a mesh is cut at regular intervals in the height direction in addition to the two-dimensional mesh in the vertical and horizontal directions. The space is divided by a rectangular parallelepiped unit space. First, the presence or absence of an overlapping portion between the rectangular parallelepiped unit space and the visual field space is checked, and the number of the three-dimensional unit map space having the overlapping portion is obtained. The number of the three-dimensional unit map space here is the same as a so-called mesh number. For structures in the overlapping 3D unit map space,
Investigate whether there is any overlap with the visual field space. A straight line connecting the coordinates of the vertices constituting the structure and the coordinates of the viewpoint is obtained, and if the straight line has an intersection with the camera screen of FIG. 9, it is within the visual field space. If at least one vertex of the plurality of vertices constituting the structure satisfies this condition, the structure has an overlapping portion with the viewing space.

【0033】構造物が視野空間の内部に含まれるか、ま
たはその一部が含まれる場合、カメラ画面を投影面とし
て、各構造物をこの投影面に3次元投影変換する処理に
入る(ステップ29)。ここで、図8に示すように、点
Pを次式(1)を基にして視点Eを基にした座標系で表
現し直した後、点Pをカメラ画面に投影して交点Qを求
める。
When a structure is included in the view space or a part of the structure, a process for three-dimensionally projecting each structure onto the projection surface using the camera screen as a projection surface is started (step 29). ). Here, as shown in FIG. 8, after the point P is re-expressed in the coordinate system based on the viewpoint E based on the following equation (1), the point P is projected on the camera screen to obtain the intersection Q. .

【0034】[0034]

【数1】 ここで、 点P=(x,y,z):構造物を構成する頂点の座標 点E=(ex,ey,ez):視点の座標 ベクトルL=(lx,ly,lz):視線方向ベクトル
(単位ベクトル) 点P’=(x’,y’,z’):点Pの視点Eを基にし
た座標系で表現した場合の座標 r=(lx2 +ly21/2 交点Q=(X,Y):点Pのカメラ画面への投影点 tは焦点距離 3次元投影変換にあたっては、まず各構造物毎にその頂
点が張る面を求める。例えば、直方体で表現される構造
物ならば、6つの面が求まる。各面をカメラ画面に投影
変換する際に、投影領域に含まれるカメラ画面上の各画
素に対し、視点とその面上の対応点との距離を計算して
奥行き値(Z値)としてメモリに格納する。各構造物の
各面毎に、カメラ画面上の各画素に対する奥行き値(Z
値)を計算し、メモリに格納する。なお(式)1中の
z’は視点からの奥行き値(Z値)を表す。
(Equation 1) Here, point P = (x, y, z): coordinates of the vertices constituting the structure point E = (ex, ey, ez): coordinates of the viewpoint vector L = (lx, ly, lz): gaze direction vector (Unit vector) Point P ′ = (x ′, y ′, z ′): coordinates in a coordinate system based on the viewpoint E of the point P r = (lx 2 + ly 2 ) 1/2 intersection Q = (X, Y): The projection point t of the point P on the camera screen is the focal length. In the three-dimensional projection conversion, first, for each structure, the surface on which the vertex extends is obtained. For example, in the case of a structure represented by a rectangular parallelepiped, six surfaces are obtained. When each plane is projected onto the camera screen, the distance between the viewpoint and the corresponding point on the plane is calculated for each pixel on the camera screen included in the projection area, and stored as a depth value (Z value) in the memory. Store. For each surface of each structure, the depth value (Z
Value) and store it in memory. Note that z ′ in (Equation 1) represents a depth value (Z value) from the viewpoint.

【0035】カメラ画面に3次元投影変換された構造物
のうちには、視点から見える構造物と見えない構造物が
ある。その中で視点から見える構造物のみを求め、視点
から反対側にある面や他の構造物に遮られている面を求
める必要がある。そこで、隠面処理を行う(ステップ3
0)。隠面処理の方法には、いろいろあるが、例えばZ
バッファ法を用いる。他のスキャンライン法、光線追跡
法でもよい。
Among the structures three-dimensionally transformed on the camera screen, there are structures visible from the viewpoint and structures not visible. Among them, it is necessary to find only the structure that can be seen from the viewpoint, and to find the surface on the opposite side from the viewpoint or the surface that is blocked by other structures. Therefore, hidden surface processing is performed (step 3
0). There are various methods for processing the hidden surface.
Use the buffer method. Other scan line methods and ray tracing methods may be used.

【0036】カメラ画面上の画素を任意にとって、その
画素に対して最も小さい奥行き値をとる面を求める。こ
のように各構造物の各面について順次処理を続けていく
と、カメラ画面上の各画素毎に視点に最も近い面が残さ
れる。カメラ画面上の各画素毎に視点に最も近い面が決
定され、また視点に最も近い面が共通するカメラ画面上
画素は一般的に領域を構成するので、カメラ画面では、
共通の面を最も近い面とする画素からなる領域が複数で
きる。こうして求まった領域が、視点から見える構造物
の部分領域を3次元投影変換した結果の領域である。視
点から反対側にある面や他の構造物に遮られている面は
消去されている。
A pixel on the camera screen is arbitrarily determined, and a plane having the smallest depth value for the pixel is obtained. As described above, when processing is sequentially performed on each surface of each structure, the surface closest to the viewpoint is left for each pixel on the camera screen. The plane closest to the viewpoint is determined for each pixel on the camera screen, and pixels on the camera screen that share the plane closest to the viewpoint generally form an area.
There can be a plurality of regions consisting of pixels with the common surface being the closest surface. The region obtained in this way is a region obtained by performing a three-dimensional projection conversion of the partial region of the structure seen from the viewpoint. Surfaces on the other side of the view and those obstructed by other structures have been erased.

【0037】こうしてできた領域がCG画像領域を形成
する(ステップ31)。
The area thus formed forms a CG image area (step 31).

【0038】CG画像領域を構成する2次元図形の頂点
座標に対して、投影変換前の3次元座標を求め、両者の
対応関係をリンク情報としてメモリに格納する。リンク
情報を基にして、その2次元領域がどの構造物の投影図
かということを求めること等に用いる。
With respect to the coordinates of the vertices of the two-dimensional figure constituting the CG image area, three-dimensional coordinates before projection transformation are obtained, and the correspondence between the two is stored in the memory as link information. It is used to determine which structure the two-dimensional area is a projection of based on the link information.

【0039】隠線消去して残った線データを基にして、
CG画像を領域分割する。3次元地図DBを利用してい
るため、各領域毎にその領域の基となる構造物の名称を
対応付けできる。CG画像の分割された領域に順番に番
号を付けていく。CG画像を複数の部分領域に分割した
例を図11に示す。
Based on the line data remaining after erasing hidden lines,
The CG image is divided into regions. Since the three-dimensional map DB is used, the name of the structure serving as the basis of each area can be associated with each area. The divided areas of the CG image are numbered sequentially. FIG. 11 shows an example in which a CG image is divided into a plurality of partial areas.

【0040】CG画像の領域分割処理が完了したら、制
御部8Bはラベル情報作成部6Bに対して、CG画像の
分割領域と景観画像の分割領域の対応付けを行うように
命令する。ラベル情報作成部6Bでは、テンプレートマ
ッチングによりCG画像の分割領域と景観画像の分割領
域の対応付けを行う(ステップ32、図12参照)。
When the CG image region division processing is completed, the control unit 8B instructs the label information creation unit 6B to associate the CG image division region with the landscape image division region. The label information creation unit 6B associates the divided area of the CG image with the divided area of the landscape image by template matching (step 32, see FIG. 12).

【0041】景観画像の分割領域のうち、番号の若い領
域(例えば、1番)から順にCG画像の分割領域と対応
付けしていく。対応付けに当たっては、従来からあるマ
チング方法のうちのどれをとってもよいが、ここでは単
純なテンプレートマッチング法をとる。つまり、比較す
る2つの領域を重ね合わせ、重なり合う部分の比率が、
しきい値として決めた一定の比率以上にある場合に同一
の構造物に関する領域として対応付けることとする。例
えば、景観画像の分割領域1番目のR1に関して、その
領域内にある各画素の座標値を(A,B)とする。座標
(A,B)での画素の値は、領域の内部ゆえに1であ
る。CG画像の1番目の分割領域S1において、座標
(A,B)が領域S1内ならば画素値1であり重なる
が、S1の外ならば画素値0であり重ならない。こうし
て座標(A,B)での重なり係数K(A,B)として、
重なる場合1、重ならない場合0で決まる。座標(A,
B)を領域R1内で動かして、重なり係数K(A,B)
を求める。そして、領域R1内で動かした座標(A,
B)の数N1に対して、重なり係数K(A,B)が1で
あった座標の数N2を求めて、N1/N2がしきい値以
上である場合に、景観画像の分割領域R1とCG画像の
分割領域S1が対応するものと決める。この対応付けを
景観画像の分割領域の1番目から最後のものまで行う。
なお、マッチング方法としてこの他、XY方向に多少の
位置ずれがあっても同じ値になるような評価関数を用い
てもよい。
Among the divided regions of the landscape image, the regions are sequentially associated with the divided regions of the CG image in ascending order of the number (for example, No. 1). For matching, any of the conventional matching methods may be used, but here, a simple template matching method is used. In other words, the two areas to be compared are superimposed, and the ratio of the overlapping portions is
When the ratio is equal to or higher than a certain ratio determined as a threshold value, the regions are associated as regions relating to the same structure. For example, the coordinate value of each pixel in the first divided region R1 of the landscape image is set to (A, B). The value of the pixel at coordinates (A, B) is 1 because it is inside the area. In the first divided area S1 of the CG image, if the coordinates (A, B) are within the area S1, the pixel value is 1 and overlaps, but if the coordinates (A, B) are outside of S1, the pixel value is 0 and does not overlap. Thus, as an overlap coefficient K (A, B) at the coordinates (A, B),
It is determined by 1 when they overlap and 0 when they do not overlap. Coordinates (A,
B) is moved within the region R1, and the overlap coefficient K (A, B)
Ask for. Then, the coordinates (A,
With respect to the number N1 of B), the number N2 of coordinates at which the overlap coefficient K (A, B) was 1 is obtained, and when N1 / N2 is equal to or larger than a threshold value, the divided region R1 of the landscape image It is determined that the divided area S1 of the CG image corresponds. This association is performed from the first to the last divided area of the landscape image.
In addition, as the matching method, an evaluation function that has the same value even if there is a slight displacement in the XY directions may be used.

【0042】ラベル情報作成部6Bでは、景観画像の部
分領域に対してCG画像の部分領域を対応付けた後、対
応付けられた部分領域の構造物を抽出し(ステップ3
3)、さらに景観画像の部分領域毎に重畳すべき情報を
求め、重畳すべき位置とともにラベル情報として作成す
る処理(ステップ34)に入る。まず、景観画像の部分
領域に対して、対応するCG画像の部分領域を取り出
す。取り出したCG画像の部分領域はもともと3次元地
図空間の中の3次元構造物のある面をカメラ画面に対し
て3次元投影変換して得られたものである。そこで、3
次元投影変換の基となった3次元構造物の面を、CG画
像の部分領域が持つ奥行き値(Z値)をキーとして求め
る。先に3次元投影変換した際に作成しておいたリンク
情報をキーにしてもよい。もととなった構造物の面をも
とに、3次元地図DBにアクセスしてその構造物の名称
または属性情報を取得する。ここで属性情報とは、その
構造物に関して付随する情報を意味し、その構造物に係
る情報ならば何でもよい。そして、名称または属性情報
を重畳すべき位置座標を、景観画像の部分領域に対して
決める。決め方は、どのように決めてもよい。例えば、
部分領域を張る図形の重心でもよい。その構造物の名称
または属性情報、および付与位置座標からラベル情報を
作成する。表1にラベル情報の例を示す。
After associating the partial area of the CG image with the partial area of the landscape image, the label information creating unit 6B extracts the structure of the associated partial area (step 3).
3) Further, processing to obtain information to be superimposed for each partial region of the landscape image and create label information together with the position to be superimposed (step 34) is entered. First, a partial area of the CG image corresponding to the partial area of the landscape image is extracted. The partial region of the extracted CG image is originally obtained by three-dimensionally projecting and converting a certain surface of the three-dimensional structure in the three-dimensional map space onto the camera screen. So 3
The surface of the three-dimensional structure that is the basis of the three-dimensional projection transformation is determined using the depth value (Z value) of the partial region of the CG image as a key. The link information created at the time of the three-dimensional projection conversion may be used as a key. Based on the surface of the original structure, the three-dimensional map DB is accessed to acquire the name or attribute information of the structure. Here, the attribute information means information accompanying the structure, and may be any information as long as the information is related to the structure. Then, the position coordinates where the name or attribute information is to be superimposed are determined for the partial area of the landscape image. How to decide may be decided any way. For example,
The center of gravity of the figure extending the partial area may be used. Label information is created from the name or attribute information of the structure and the assigned position coordinates. Table 1 shows an example of label information.

【0043】[0043]

【表1】 ラベル情報作成部6Bは、ラベル情報を作成し終った
ら、制御部8Bにラベル情報を渡す。
[Table 1] After completing the creation of the label information, the label information creating unit 6B passes the label information to the control unit 8B.

【0044】制御部8Bは、ラベル情報を受け取ると、
ラベル情報出力部7Bに対してヘッドマウントディスプ
レイ装置にラベル情報を投影するように命令する。ラベ
ル情報出力部7Bはラベル情報中の構造物の名称または
属性情報を景観画像中の位置に重畳し(ステップ3
5)、重畳された景観画像をヘッドマウントディスプレ
イ装置に投影表示する(ステップ36)。図13にラベ
ル情報が重畳された景観画像の例を示す。
Upon receiving the label information, the control unit 8B
It instructs the label information output unit 7B to project the label information on the head mounted display device. The label information output unit 7B superimposes the name or attribute information of the structure in the label information at a position in the landscape image (step 3).
5) Projecting and displaying the superimposed landscape image on the head mounted display device (step 36). FIG. 13 shows an example of a landscape image on which label information is superimposed.

【0045】ラベル情報出力部7Bはラベル情報を出力
すると、出力完了を制御部8Bに通知する。制御部8B
は出力完了通知を受け取ると、連続して景観ラベリング
の処理を行う場合は先に示した一連の処理手順を再び実
行する。
When the label information output section 7B outputs the label information, it notifies the control section 8B of the completion of the output. Control unit 8B
Upon receiving the output completion notification, if the landscape labeling process is to be performed continuously, the series of processing procedures described above are executed again.

【0046】図14は図2の景観ラベル付ヒューマンナ
ビゲーション装置を通信システムに適用した景観ラベル
付ヒューマンナビゲーションシステムの構成図である。
FIG. 14 is a block diagram of a landscape-labeled human navigation system in which the landscape-labeled human navigation device of FIG. 2 is applied to a communication system.

【0047】本景観ラベル付ヒューマンナビゲーション
システムは景観ラベル付ヒューマンナビゲーション端末
40と景観ラベリングセンター50と通信網60で構成
される。
The landscape-labeled human navigation system includes a landscape-labeled human navigation terminal 40, a landscape labeling center 50, and a communication network 60.

【0048】景観ラベル付ヒューマンナビゲーション端
末40は、画像を取得する画像取得部41と、画像取得
時の位置を取得する位置情報取得部42と、画像取得時
のカメラ角と焦点距離と画像サイズを取得するカメラ属
性情報取得部43と、取得した画像を複数の部分領域に
分割する画像処理部44と、画像の領域分割に関する情
報とカメラ位置とカメラ角と焦点距離と画像サイズとを
通信網60を介して景観ラベリングセンター50に送信
し、景観ラベリングセンター50からラベル情報を受信
する通信制御部45と、ラベル情報中の構造物の名称ま
たは属性情報を画像中の対応する位置に重畳し、重畳さ
れた画像をヘッドマウントディスプレイ装置に投影表示
するラベル情報出力部47と、上記各部を制御する端末
制御部46で構成される。
The landscape-labeled human navigation terminal 40 includes an image acquisition unit 41 for acquiring an image, a position information acquisition unit 42 for acquiring a position at the time of image acquisition, and a camera angle, a focal length, and an image size at the time of image acquisition. A camera attribute information acquisition unit 43 to be acquired; an image processing unit 44 to divide the acquired image into a plurality of partial regions; And a communication control unit 45 that transmits the label information from the landscape labeling center 50 to the landscape labeling center 50 via the interface, and superimposes the name or attribute information of the structure in the label information at a corresponding position in the image, and A label information output unit 47 for projecting and displaying the obtained image on a head-mounted display device, and a terminal control unit 46 for controlling the above units. It is.

【0049】景観ラベリングセンター50は通信網60
を介して景観ラベル付ヒューマンナビゲーション端末4
0から前記画像の領域分割に関する情報とカメラ位置と
カメラ角と焦点距離と画像サイズを受信し、景観ラベル
付ヒューマンナビゲーション端末40にラベル情報を送
信する通信制御部53と、地図情報を管理し、受信した
カメラ位置とカメラ角と焦点距離と画像サイズを基に地
図情報空間の中で視野空間を求め、その視野空間中に存
在する構造物を獲得する地図情報管理部51と、画像の
前記部分領域に対して前記獲得した構造物をパターンマ
ッチングにより対応付け、対応付けられた前記構造物の
名称または属性情報および付与位置を含むラベル情報を
作成するラベル情報作成部52と、上記各部を制御する
センタ−制御部54で構成される。
The landscape labeling center 50 has a communication network 60.
Navigation terminal 4 with landscape label through
From 0, the communication control unit 53 that receives the information regarding the area division of the image, the camera position, the camera angle, the focal length, and the image size, and transmits the label information to the landscape-labeled human navigation terminal 40, and manages the map information; A map information management unit 51 for obtaining a view space in the map information space based on the received camera position, camera angle, focal length, and image size, and acquiring a structure existing in the view space; A label information creation unit 52 for associating the obtained structure with an area by pattern matching, and creating label information including the name or attribute information of the structure and the assigned position of the structure, and controlling the above units It comprises a center control unit 54.

【0050】なお、本システムの動作は図2の装置の動
作と同様である。
The operation of this system is the same as the operation of the apparatus shown in FIG.

【0051】[0051]

【発明の効果】以上説明したように本発明によれば、コ
ンピュータ上の地理的情報と実風景の景観画像中の各部
分とを対応付けてヘッドマウントディスプレイ装置に投
影表示することにより、利用者に提示することができる
ため、人間がコンピュータ上の地図と実風景を見比べて
人間の方で対応付けせずとも済む。
As described above, according to the present invention, a user can be displayed on a head-mounted display device by associating geographical information on a computer with each part in a landscape image of a real scene. , It is not necessary for a human to compare the map on the computer with the actual scenery and associate it with the human.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の景観ラベル付ヒュー
マンナビゲーション装置の構成図である。
FIG. 1 is a configuration diagram of a landscape-labeled human navigation device according to a first embodiment of the present invention.

【図2】本発明の第2の実施形態の景観ラベル付ヒュー
マンナビゲーション装置の構成図である。
FIG. 2 is a configuration diagram of a landscape-labeled human navigation device according to a second embodiment of the present invention.

【図3】特開平8−83397に開示された、ヘッドマ
ウントディスプレイ装置を用いたヘッドアップディスプ
レイ装置の概略図である。
FIG. 3 is a schematic diagram of a head-up display device using a head-mounted display device disclosed in Japanese Patent Application Laid-Open No. 8-83397.

【図4】第2の実施形態の景観ラベル付ヒューマンナビ
ゲーション装置の処理の流れ図である。
FIG. 4 is a flowchart of a process of a human navigation device with a landscape label according to a second embodiment.

【図5】景観画像ファイルのデータ構造を示す図であ
る。
FIG. 5 is a diagram showing a data structure of a landscape image file.

【図6】2次元地図の例(同図(1))とその3次元地
図(同図(2))を示す図である。
FIG. 6 is a diagram showing an example of a two-dimensional map (FIG. (1)) and its three-dimensional map (FIG. (2)).

【図7】視野空間の計算方法を示す図である。FIG. 7 is a diagram illustrating a calculation method of a visual field space.

【図8】3次元地図空間での視野空間の例を示す図であ
る。
FIG. 8 is a diagram illustrating an example of a visual field space in a three-dimensional map space.

【図9】投影図の例を示す図である。FIG. 9 is a diagram showing an example of a projection view.

【図10】景観画像の領域分割例を示す図である。FIG. 10 is a diagram showing an example of area division of a landscape image.

【図11】CG画像の領域分割例を示す図である。FIG. 11 is a diagram showing an example of area division of a CG image.

【図12】景観画像の部分領域とCG画像の部分領域の
パターンマッチングの説明図である。
FIG. 12 is an explanatory diagram of pattern matching between a partial region of a landscape image and a partial region of a CG image.

【図13】景観画像へのラベル情報の重畳の例を示す図
である。
FIG. 13 is a diagram illustrating an example of superimposition of label information on a landscape image.

【図14】本発明の一実施形態の景観ラベル付ヒューマ
ンナビゲーションシステムの構成図である。
FIG. 14 is a configuration diagram of a landscape-labeled human navigation system according to an embodiment of the present invention.

【図15】特開平8−273000号に開示されたナビ
ゲーション装置の構成図である。
FIG. 15 is a configuration diagram of a navigation device disclosed in JP-A-8-273000.

【図16】動画像の表示例を示す図である。FIG. 16 is a diagram illustrating a display example of a moving image.

【符号の説明】[Explanation of symbols]

1 画像取得部 2 位置情報取得部 3 カメラ属性情報取得部 4 画像処理部 5 地図情報管理部 6A,6B ラベル情報作成部 7A,7B ラベル情報出力部 8A,8B 制御部 11R 右眼 11L 左眼 12R、12L 眼球運動測定装置 13R、13L 平面表示装置 14R、14L レンズ 15 注視点算出装置 21〜36 ステップ 40 景観ラベル付ヒューマンナビゲーション端末 41 画像取得部 42 位置情報取得部 43 カメラ属性情報取得部 44 画像処理部 45 通信制御部 46 端末制御部 47 ラベル情報出力部 50 景観ラベリングセンター 51 地図情報管理部 52 ラベル情報作成部 53 通信制御部 54 センター制御部 60 通信網 Reference Signs List 1 image acquisition unit 2 position information acquisition unit 3 camera attribute information acquisition unit 4 image processing unit 5 map information management unit 6A, 6B label information creation unit 7A, 7B label information output unit 8A, 8B control unit 11R right eye 11L left eye 12R , 12L eye movement measuring device 13R, 13L flat display device 14R, 14L lens 15 fixation point calculating device 21-36 step 40 human navigation terminal with landscape label 41 image acquisition unit 42 position information acquisition unit 43 camera attribute information acquisition unit 44 image processing Unit 45 communication control unit 46 terminal control unit 47 label information output unit 50 landscape labeling center 51 map information management unit 52 label information creation unit 53 communication control unit 54 center control unit 60 communication network

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 7/18 G06F 15/62 380 (72)発明者 高野 正次 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 池田 武史 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification symbol FI H04N 7/18 G06F 15/62 380 (72) Inventor Masaji Takano Nippon Telegraph and Telephone No. 19-2, Nishishinjuku, Shinjuku-ku, Tokyo Inside (72) Inventor Takeshi Ikeda Nippon Telegraph and Telephone Corporation

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像を取得したときのカメラ角と焦点距離と画像サイズ
を取得するカメラ属性情報取得手段と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、 構造物の名称またはその属性情報および付与位置を含む
ラベル情報を作成するラベル情報作成手段と、 取得したラベル情報中の付与位置の情報に対応する画像
中の位置に地図情報の名称またはその属性情報を重畳
し、重畳された画像をヘッドマウントディスプレイ装置
に投影表示するラベル情報出力手段と、 上記各手段を制御する制御手段を有する景観ラベル付ヒ
ューマンナビゲーション装置。
An image acquisition unit for acquiring an image; a position information acquisition unit for acquiring a camera position at the time of image acquisition; and a camera attribute information acquisition for acquiring a camera angle, a focal length, and an image size when the image is acquired. Means, managing map information, obtaining a view space in a map information space based on the obtained camera position, camera angle, focal length, and image size, and obtaining map information that acquires structures existing in the view space. Management means; label information creating means for creating label information including the name of the structure or its attribute information and the assigned position; and the name of the map information at the position in the image corresponding to the assigned position information in the acquired label information Or a label information output unit that superimposes the attribute information and projects and displays the superimposed image on a head-mounted display device, and a control unit that controls the above units. A human navigation device with a view label.
【請求項2】 画像を取得する画像取得手段と、 画像取得時のカメラ位置を取得する位置情報取得手段
と、 画像取得時のカメラ角と焦点距離と画像サイズを取得す
るカメラ属性情報取得手段と、 取得した画像を複数の部分領域に分割する画像処理手段
と、 地図情報を管理し、取得したカメラ位置とカメラ角と焦
点距離と画像サイズを基に地図情報空間の中で視野空間
を求め、その視野空間中に存在する構造物を獲得する地
図情報管理手段と、 前記画像の前記部分領域に対して前記獲得した構造物を
対応付け、対応付けられた前記構造物の名称またはその
属性情報および付与位置を含むラベル情報を作成するラ
ベル情報作成手段と、 前記ラベル情報中の構造物の名称またはその属性情報を
画像中の付与位置に対応する位置に重畳し、重畳された
画像をヘッドマウントディスプレイ装置に投影表示する
ラベル情報出力手段と、 前記各手段を制御する制御手段を有する景観ラベル付ヒ
ューマンナビゲーション装置。
2. An image acquisition unit for acquiring an image, a position information acquisition unit for acquiring a camera position at the time of image acquisition, a camera attribute information acquisition unit for acquiring a camera angle, a focal length, and an image size at the time of image acquisition. , Image processing means for dividing the acquired image into a plurality of partial areas, managing map information, and calculating a visual field space in the map information space based on the acquired camera position, camera angle, focal length, and image size, Map information management means for acquiring a structure existing in the visual space, and associating the acquired structure with the partial region of the image, and the name of the associated structure or its attribute information and Label information creating means for creating label information including an application position, and superimposing and superimposing the name of the structure in the label information or its attribute information at a position corresponding to the application position in the image. Label information output means for projecting and displaying an image obtained on a head mounted display device, and a landscape navigation human navigation device having control means for controlling each of the means.
【請求項3】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域に対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項2記載の装置。
3. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and a part in the CG image is subjected to pattern matching with respect to the partial area of the image. 3. The apparatus according to claim 2, wherein the apparatus is associated with the area, a structure of the associated partial area is obtained, and label information including the name or attribute information of the structure and the assigned position is created.
【請求項4】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項2記載の装
置。
4. The label information creating means performs a three-dimensional projection conversion of the acquired structure onto a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and creates a contour of a partial area in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and the structure that is the basis of the partial area of the CG image is determined for the partial area of the image. 3. The apparatus according to claim 2, wherein label information including name or attribute information and an assigned position is created.
【請求項5】 景観ラベル付ヒューマンナビゲーション
端末と景観ラベリングセンターからなり、 前記景観ラベル付ヒューマンナビゲーション端末は、画
像を取得する画像取得手段と、画像取得時のカメラ位置
を取得する位置情報取得手段と、画像取得時のカメラ角
と焦点距離と画像サイズを取得するカメラ属性情報取得
手段と、取得した画像を複数の部分領域に分割する画像
処理手段と、前記画像の領域分割に関する情報と前記カ
メラ位置と前記カメラ角と前記焦点距離と前記画像サイ
ズとを通信網を介して前記景観ラベリングセンターに送
信し、前記景観ラベリングセンターからラベル情報を受
信する通信制御手段と、前記ラベル情報中の構造物の名
称またはその属性情報を画像中の付与位置に対応する位
置に重畳し、重畳された画像をヘッドマウントディスプ
レイ装置に投影表示するラベル情報出力手段と、前記各
手段を制御する端末制御手段を有し、 前記景観ラベリングセンターは、前記通信網を介して前
記景観ラベル付ヒューマンナビゲーション端末から前記
画像の領域分割に関する情報と前記カメラ位置と前記カ
メラ角と前記焦点距離と前記画像サイズとを受信し、前
記景観ラベル付ヒューマンナビゲーション端末に前記ラ
ベル情報を送信する通信制御手段と、地図情報を管理
し、受信したカメラ位置とカメラ角と焦点距離と画像サ
イズを基に地図情報空間の中で視野空間を求め、その視
野空間中に存在する構造物を獲得する地図情報管理手段
と、前記画像の前記部分領域に対して前記獲得した構造
物を対応付け、対応付けられた前記構造物の名称または
属性情報および付与位置を含む前記ラベル情報を作成す
るラベル情報作成手段と、前記各手段を制御するセンタ
ー制御手段を有する景観ラベル付ヒューマンナビゲーシ
ョンシステム。
5. A human navigation terminal with a landscape label and a landscape labeling center, wherein the human navigation terminal with a landscape label includes: an image acquisition unit that acquires an image; and a position information acquisition unit that acquires a camera position at the time of acquiring the image. Camera attribute information acquiring means for acquiring a camera angle, a focal length, and an image size at the time of image acquisition; image processing means for dividing the acquired image into a plurality of partial areas; information on area division of the image and the camera position And communication control means for transmitting the camera angle, the focal length, and the image size to the landscape labeling center via a communication network, and receiving label information from the landscape labeling center, and a structure in the label information. The name or its attribute information is superimposed on the position corresponding to the assigned position in the image, and the superimposed image is Label information output means for projecting and displaying on a head mounted display device, and terminal control means for controlling the respective means, wherein the landscape labeling center receives the image from the landscape navigation human navigation terminal via the communication network. Communication control means for receiving information on the area division, the camera position, the camera angle, the focal length, and the image size, and transmitting the label information to the landscape-labeled human navigation terminal, and managing map information. Obtaining a view space in the map information space based on the received camera position, camera angle, focal length, and image size, and a map information management means for acquiring a structure existing in the view space; and The acquired structure is associated with the partial area, and the name or attribute information of the associated structure and Human navigation system with landscape label having a label information preparation means for preparing the label information, the central control means for controlling said each means, including applying position.
【請求項6】 前記ラベル情報作成手段は、獲得した構
造物を基にしてコンピュータグラフィックス画像である
CG画像を作成し、前記画像の前記部分領域に対してパ
ターンマッチングにより前記CG画像中の部分領域に対
応付け、対応付けられた部分領域の構造物を求め、その
構造物の名称または属性情報および付与位置を含むラベ
ル情報を作成する、請求項5記載のシステム。
6. The label information creating means creates a CG image, which is a computer graphics image, based on the acquired structure, and a part in the CG image by pattern matching with respect to the partial area of the image. The system according to claim 5, wherein a structure of the partial area associated with the area is determined, and label information including the name or attribute information of the structure and the assigned position is created.
【請求項7】 前記ラベル情報作成手段は、獲得した構
造物をカメラ画面に3次元投影変換し、視点から見えな
い構造物を消去してCG画像を作成し、CG画像中の部
分領域の輪郭線によってCG画像を部分領域に分割し、
前記画像の前記部分領域と前記CG画像の前記部分領域
とをパターンマッチングにより対応付け、画像の部分領
域に対して対応付けCG画像の部分領域の基となった構
造物を求め、その構造物の名称または属性情報および付
与位置を含むラベル情報を作成する、請求項5記載のシ
ステム。
7. The label information creating means performs a three-dimensional projection conversion of the acquired structure on a camera screen, creates a CG image by erasing a structure that cannot be seen from a viewpoint, and creates a contour of a partial region in the CG image. Dividing the CG image into partial areas by lines,
The partial area of the image and the partial area of the CG image are associated with each other by pattern matching, and the structure that is the basis of the partial area of the CG image is determined for the partial area of the image. The system according to claim 5, wherein label information including name or attribute information and an assigned position is created.
JP9240869A 1997-09-05 1997-09-05 Human navigati0n device with scenery label and system therefor Pending JPH1186034A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9240869A JPH1186034A (en) 1997-09-05 1997-09-05 Human navigati0n device with scenery label and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9240869A JPH1186034A (en) 1997-09-05 1997-09-05 Human navigati0n device with scenery label and system therefor

Publications (1)

Publication Number Publication Date
JPH1186034A true JPH1186034A (en) 1999-03-30

Family

ID=17065917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9240869A Pending JPH1186034A (en) 1997-09-05 1997-09-05 Human navigati0n device with scenery label and system therefor

Country Status (1)

Country Link
JP (1) JPH1186034A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069776A (en) * 2003-08-21 2005-03-17 Denso Corp Display method for vehicle, and display device for vehicle
JP2005098912A (en) * 2003-09-26 2005-04-14 Mazda Motor Corp On-vehicle information providing apparatus
JP2005207785A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207779A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207781A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207776A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207780A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2011198304A (en) * 2010-03-24 2011-10-06 Brother Industries Ltd Head mount display
JP2012068481A (en) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd Augmented reality expression system and method
US20120191346A1 (en) * 2005-06-06 2012-07-26 Tomtom International B.V. Device with camera-info
US8423292B2 (en) 2008-08-19 2013-04-16 Tomtom International B.V. Navigation device with camera-info
WO2015059773A1 (en) * 2013-10-22 2015-04-30 株式会社トヨタマップマスター Head-mounted display, method for controlling same, and recording medium having computer program for controlling head-mounted display recorded therein
JP2017182814A (en) * 2012-06-29 2017-10-05 ノキア テクノロジーズ オサケユイチア Method and apparatus for modification of presentation of information based on visual complexity of environment information

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005069776A (en) * 2003-08-21 2005-03-17 Denso Corp Display method for vehicle, and display device for vehicle
JP2005098912A (en) * 2003-09-26 2005-04-14 Mazda Motor Corp On-vehicle information providing apparatus
JP2005207780A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207779A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207781A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207776A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
JP2005207785A (en) * 2004-01-20 2005-08-04 Mazda Motor Corp Image display apparatus, method, and program for vehicle
US20120191346A1 (en) * 2005-06-06 2012-07-26 Tomtom International B.V. Device with camera-info
US8352180B2 (en) * 2005-06-06 2013-01-08 Tomtom International B.V. Device with camera-info
US8423292B2 (en) 2008-08-19 2013-04-16 Tomtom International B.V. Navigation device with camera-info
JP2011198304A (en) * 2010-03-24 2011-10-06 Brother Industries Ltd Head mount display
JP2012068481A (en) * 2010-09-24 2012-04-05 Asia Air Survey Co Ltd Augmented reality expression system and method
JP2017182814A (en) * 2012-06-29 2017-10-05 ノキア テクノロジーズ オサケユイチア Method and apparatus for modification of presentation of information based on visual complexity of environment information
WO2015059773A1 (en) * 2013-10-22 2015-04-30 株式会社トヨタマップマスター Head-mounted display, method for controlling same, and recording medium having computer program for controlling head-mounted display recorded therein
JPWO2015059773A1 (en) * 2013-10-22 2017-03-09 株式会社トヨタマップマスター Head mounted display, control method therefor, and recording medium storing computer program for controlling head mounted display

Similar Documents

Publication Publication Date Title
JPH1165431A (en) Device and system for car navigation with scenery label
JP3225882B2 (en) Landscape labeling system
US6222583B1 (en) Device and system for labeling sight images
EP3359918B1 (en) Systems and methods for orienting a user in a map display
JP3437555B2 (en) Specific point detection method and device
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
JPH09292833A (en) Navigation device
JP2003132068A (en) Navigation system and navigation terminal
JPH1186034A (en) Human navigati0n device with scenery label and system therefor
JP3156646B2 (en) Search-type landscape labeling device and system
JP6110780B2 (en) Additional information display system
JP2000050156A (en) News supporting system
JP3156645B2 (en) Information transmission type landscape labeling device and system
JP2004265396A (en) Image forming system and image forming method
JP3053172B2 (en) Distance reference type landscape labeling device and system
JPH1157209A (en) Rally game system using view label
JP3114862B2 (en) An interactive landscape labeling system
JP3053169B2 (en) Communication device and system using landscape label
JP3156649B2 (en) Deformable label landscape labeling device and system
US20130120373A1 (en) Object distribution range setting device and object distribution range setting method
CN106846388B (en) Image map registration method and system
JPH1131239A (en) Direction under consideration landscape labeling device and system
JPH1132250A (en) Verbal guiding type sight labeling device and system
JPH1157206A (en) Shooting game system using view label
JPH1166349A (en) Movement amount predictive scene labeling device and system