JPH11288341A - Device and method for navigation - Google Patents

Device and method for navigation

Info

Publication number
JPH11288341A
JPH11288341A JP8896898A JP8896898A JPH11288341A JP H11288341 A JPH11288341 A JP H11288341A JP 8896898 A JP8896898 A JP 8896898A JP 8896898 A JP8896898 A JP 8896898A JP H11288341 A JPH11288341 A JP H11288341A
Authority
JP
Japan
Prior art keywords
user
map information
line
map
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8896898A
Other languages
Japanese (ja)
Inventor
Katsuhiko Kawasaki
勝彦 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8896898A priority Critical patent/JPH11288341A/en
Publication of JPH11288341A publication Critical patent/JPH11288341A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect an object, which is the object of the interest of a user, based on the line-of-sight direction of the user and to output information corresponding to this object. SOLUTION: Map information is stored in a map data storage part 104. A user position detecting part 101 and a user line-of-sight direction detecting part 102 respectively detect the viewpoint position and line-of-sight direction of the user on a map in the map information. When the expansion in the pupil area of the user is detected by a user pupil area detecting part 106, with the detected viewpoint position as a starting terminal, a control part 103 searches and extracts an object on a line segment along with the line-of-sight direction out of the map information. Then, a voice synthesizing part 105 outputs information concerning the extracted object in voice.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ユーザが興味をも
って見ている物体の説明をユーザに提示するナビゲーシ
ョン装置及び方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a navigation apparatus and method for presenting a description of an object that the user is interested in viewing to the user.

【0002】[0002]

【従来の技術】従来のナビゲーション装置においてはデ
ィスプレイ上に地図を表示することによって、ユーザに
ナビゲーションを行なっていた。この種のナビゲーショ
ン装置においてユーザの意思を伝える手段としては、デ
ィスプレイ上のタッチパネルや、ディスプレイとは別体
に設けられた操作パネルを介して指示を行うことしかな
かった。
2. Description of the Related Art In a conventional navigation apparatus, a user is navigated by displaying a map on a display. In this type of navigation device, the only means of communicating the user's intention is to give an instruction through a touch panel on a display or an operation panel provided separately from the display.

【0003】[0003]

【発明が解決しようとする課題】そのため、地図を表示
するためのディスプレイは必要不可欠である。また、ユ
ーザが関心を持った物体に関しての説明出力を行おうと
すれば、例えば地図上でその物体に対応する位置を指示
する等の手段を用いる以外に術は無い。すなわち、従来
のナビゲーション装置では、ユーザが見ている物体に対
するユーザの興味や関心に応じて即座に説明出力を行な
うようなことはできなかった。
Therefore, a display for displaying a map is indispensable. Also, if the user wants to output a description of an object of interest, there is no other way than to use a means such as designating a position corresponding to the object on a map. That is, in the conventional navigation device, it is not possible to immediately output the explanation according to the user's interest or interest in the object that the user is looking at.

【0004】本発明は上記の問題に鑑みてなされたもの
であり、その目的とするところは、ユーザの視線方向に
基づいてユーザの興味の対象となっている物体を検出
し、これに対応する情報を出力することを可能としたナ
ビゲーション装置及び方法を提供することにある。
The present invention has been made in view of the above problems, and has as its object to detect an object of interest to a user based on the direction of the user's line of sight, and to deal with this. It is an object of the present invention to provide a navigation device and a method capable of outputting information.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の一態様によるナビゲーション装置は、例え
ば、以下の構成を備える。すなわち、地図情報を格納す
る格納手段と、前記地図情報による地図上での、ユーザ
の視点位置と視線方向を検出する検出手段と、前記視点
位置を始端とし、前記視線方向に沿った線分上にある物
体を、前記地図情報より探索し抽出する探索手段と、前
記探索手段で抽出された物体に関する情報を出力する出
力手段とを備える。
To achieve the above object, a navigation device according to one aspect of the present invention has, for example, the following configuration. That is, storage means for storing map information, detection means for detecting a user's viewpoint position and a line-of-sight direction on a map based on the map information, and a line segment along the line-of-sight direction starting from the viewpoint position. A search means for searching for and extracting an object located in the map information from the map information, and an output means for outputting information on the object extracted by the search means.

【0006】また、本発明の他の態様によるナビゲーシ
ョン装置は、例えば、以下の構成を備える。すなわち、
地図を複数の部分領域に分割した情報を含む地図情報を
格納する格納手段と、前記地図情報による地図上での、
ユーザの視点位置と視線方向を検出する検出手段と、前
記視点位置を始端とした前記視線方向に沿った線分上に
ある部分領域を前記地図情報より探索し抽出する探索手
段と、前記探索手段で抽出された部分領域に対応する地
名を出力する出力手段とを備える。
A navigation device according to another aspect of the present invention has, for example, the following configuration. That is,
Storage means for storing map information including information obtained by dividing the map into a plurality of partial areas; and
Detecting means for detecting a viewpoint position and a line-of-sight direction of a user; searching means for searching for and extracting a partial area on a line segment starting from the viewpoint position along the line-of-sight direction from the map information; And output means for outputting a place name corresponding to the partial area extracted in (1).

【0007】また、本発明の他の態様によれば、上記の
目的を達成するナビゲーション方法、このナビゲーショ
ン方法をコンピュータによって実現するための制御プロ
グラムを格納する記憶媒体が提供される。
According to another aspect of the present invention, there is provided a navigation method for achieving the above object, and a storage medium storing a control program for realizing the navigation method by a computer.

【0008】[0008]

【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な実施形態を説明する。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

【0009】図1は、本実施形態によるナビゲーション
装置の構成例を示すブロック図である。本ナビゲーショ
ン装置は、音声合成によるナビゲーションを行う。10
1はユーザ位置検出部であり、GPS等の周知の手法で
ユーザ位置の検出を行う。102はユーザ視線方向検出
部であり、周知の手法でユーザの視線方向を検出する。
103は制御部であり、CPU、ROM、RAMを備
え、本ナビゲーション装置における各種制御を実現す
る。なお、フローチャートを参照して後述する制御を実
現するための制御プログラムはROMに格納され、CP
Uによって実行される。また、RAMはCPUが各種制
御プログラムに基づいた処理を実行するに際しての作業
領域を提供する。
FIG. 1 is a block diagram showing a configuration example of the navigation device according to the present embodiment. This navigation device performs navigation by voice synthesis. 10
Reference numeral 1 denotes a user position detection unit which detects a user position by a known method such as GPS. Reference numeral 102 denotes a user's line-of-sight direction detection unit, which detects the user's line-of-sight direction by a known method.
A control unit 103 includes a CPU, a ROM, and a RAM, and implements various controls in the navigation device. A control program for realizing the control described later with reference to the flowchart is stored in the ROM,
Performed by U. The RAM provides a work area when the CPU executes processing based on various control programs.

【0010】104は地図データ記憶部であり、後述す
る空間領域や空間領域内の物体に関する情報を格納す
る。すなわち、地図データ記憶部104には、後述の領
域データベース(図4)、座標データベース(図5)、
属性データベース(図6)が登録されている。なお、地
図データ記憶部104は、例えばCD−ROM、フロッ
ピーディスク或いはハードディスク等の外部記憶装置に
よって構成される。105は音声合成部であり、制御部
103の制御により、音声波形を生成し、出力する。1
06はユーザ瞳孔面積検出部であり、ユーザの瞳孔の面
積を検出する。
Reference numeral 104 denotes a map data storage unit, which stores information relating to a spatial region and objects in the spatial region, which will be described later. That is, the map data storage unit 104 stores an area database (FIG. 4), a coordinate database (FIG. 5),
An attribute database (FIG. 6) is registered. The map data storage unit 104 is configured by an external storage device such as a CD-ROM, a floppy disk, or a hard disk. Reference numeral 105 denotes a voice synthesis unit which generates and outputs a voice waveform under the control of the control unit 103. 1
A user pupil area detection unit 06 detects the area of the user's pupil.

【0011】図2は、本ナビゲーション装置を装着した
ユーザによって観察される視界の一例を示す図である。
ここでは、ユーザの前方に三角形(三角錐)のビル群が
ある。図3は、図2で示したユーザの視界について、上
空から見た視線位置と方向を示す図である。なお、物体
は三角錐以外に四角柱など如何なる形態の構成要素を用
いて表現してもよい。
FIG. 2 is a diagram showing an example of a field of view observed by a user wearing the navigation device.
Here, there is a group of triangular (triangular pyramid) buildings in front of the user. FIG. 3 is a diagram showing a line-of-sight position and direction of the user's field of view shown in FIG. 2 as viewed from above. Note that the object may be represented using any form of constituent element such as a quadrangular prism other than the triangular pyramid.

【0012】図3においてSiは、地球上の空間領域ま
たは空間を分割する2次元平面Siを表している。空間
領域Siの中に、地球上の物体を特徴づける点(以下、
特徴点という)が一定数(例えば100個以上)存在す
れば、空間領域Siを、空間領域Si0と空間領域Si1と
に分割する。空間領域Sioは、空間領域Siの中で[Vi]
・[X]−Wi≧0を満たす領域であり、空間領域Si1
は、空間領域Siの中で[Vi]・[X]−Wi<0を満たす
領域である。なお、ここで、[x]は、xがベクトル量で
あることを示す。また、ここで、[Vi]=(ai,b
i,ci)、[X]=(x,y,z)であり、[Vi]と
Wiは2次元平面Siを表すパラメータであり、[Vi]
・[X]−Wi≧0の[X]は、平面Siによって分割さ
れた空間領域である。平面空間の分割は、各空間領域S
iの中の、地球上の物体を特徴づける特徴点が一定数
(例えば100個)以下になるまで行なわれる。また、
空間の分割は、地球上の物体の密集度が高い所では細か
く、密集度が低い所では粗く行なう。分割の手法として
は、例えば、特徴点の数がほぼ等しくなるように分割を
繰り返すことが挙げられる。
In FIG. 3, Si represents a two-dimensional plane Si that divides a space region or space on the earth. A point characterizing an object on the earth (hereinafter, referred to as a space area Si)
If a certain number (for example, 100 or more) of feature points exists, the spatial area Si is divided into a spatial area Si0 and a spatial area Si1. The spatial area Sio is [Vi] in the spatial area Si.
A region that satisfies [X] −Wi ≧ 0 and is a spatial region Si1
Is a region satisfying [Vi] · [X] −Wi <0 in the space region Si. Here, [x] indicates that x is a vector amount. Here, [Vi] = (ai, b
i, ci), [X] = (x, y, z), and [Vi] and Wi are parameters representing the two-dimensional plane Si, and [Vi]
[X] of [X] −Wi ≧ 0 is a spatial area divided by the plane Si. The division of the plane space is performed by
This process is performed until the number of feature points that characterize an object on the earth in i becomes equal to or smaller than a certain number (for example, 100). Also,
The space is divided finely where the density of objects on the earth is high and coarsely where the density is low. As a method of division, for example, division is repeated so that the number of feature points becomes substantially equal.

【0013】図4は、図3に示した地球上の物体(特徴
点)が、地図データ記憶部104中の領域データベース
に登録されている様子を示す図である。ここで、Siが
非終端ノードの場合には、ノードSiには平面、[Vi]・
[X]−Wi=0を特徴づける値([Vi],Wi)が登録さ
れている。また、Siが終端ノードの場合には、ノード
Siには、その領域内に存在する物体を特徴づける点の
3次元位置座標([E1]、[E2]等)が登録されている。
FIG. 4 is a diagram showing a state in which the objects (feature points) on the earth shown in FIG. 3 are registered in the area database in the map data storage unit 104. Here, if Si is a non-terminal node, the node Si has a plane, [Vi]
Values ([Vi], Wi) characterizing [X] −Wi = 0 are registered. When Si is a terminal node, the three-dimensional position coordinates ([E1], [E2], etc.) of points characterizing an object existing in the area are registered in the node Si.

【0014】図5は、図4の領域データベースに登録さ
れている各点が地球上の如何なる物体を構成するもので
あるかを示す座標データベースのデータ構成例を示す図
である。図5に示した座標データベースでは、座標をキ
ーにして物体の名称を検索できる。なお、座標データベ
ースは、記憶部104の中にある。
FIG. 5 is a diagram showing an example of the data structure of a coordinate database indicating what objects on the earth each point registered in the area database of FIG. 4 constitutes. In the coordinate database shown in FIG. 5, the name of the object can be searched using the coordinates as a key. The coordinate database is in the storage unit 104.

【0015】図6は、物体の名称に対して、その物体の
外形の形状の三角形のパッチの集合を登録した属性デー
タベースのデータ構成例を示すである。属性データベー
スには物体の説明等も登録されている。属性データベー
スは地図データ記憶部104中に存在する。
FIG. 6 shows an example of the data structure of an attribute database in which a set of triangular patches having the shape of the outer shape of the object is registered for the name of the object. The description of the object is also registered in the attribute database. The attribute database exists in the map data storage unit 104.

【0016】図7は瞳孔面積検出部106の構成の詳細
を示す図である。瞳孔面積検出部106は、レンズ等か
ら構成されている被写体画像入力部1と、被写体画像入
力部1から入力された光を透過および反射させるハーフ
ミラー2と、ハーフミラー2で反射した光の強度を検出
する光検出器3と、ハーフミラー2を透過した光がユー
ザの眼で反射した光を入力して眼の画像を撮影する瞳孔
画像撮影部4と、瞳孔画像撮影部4で撮影した画像から
瞳孔面積を算出する瞳孔面積算出部5と、瞳孔面積算出
部5で算出した瞳孔面積データを光検出器3で検出した
光強度データと瞳孔面積補正テーブル61とを用いて補
正する瞳孔面積補正部6と、瞳孔面積補正部6によって
補正された瞳孔面積データから瞳孔が拡大または縮小し
たことを判定する判定部7とから構成されている。な
お、上述の瞳孔面積検出部106は眼鏡形状を有する。
FIG. 7 is a diagram showing details of the configuration of the pupil area detection unit 106. The pupil area detection unit 106 includes a subject image input unit 1 including a lens, a half mirror 2 that transmits and reflects light input from the subject image input unit 1, and an intensity of light reflected by the half mirror 2. Image detector 4 for inputting light reflected by the user's eyes and transmitting light transmitted through the half mirror 2 to capture an image of the eye, and an image captured by the pupil image capturing unit 4 Area calculation unit 5 for calculating the pupil area from the pupil area, and pupil area correction for correcting the pupil area data calculated by the pupil area calculation unit 5 using the light intensity data detected by the photodetector 3 and the pupil area correction table 61. The pupil area correction section 6 includes a pupil area correction section 6 and a determination section 7 for determining whether the pupil has been enlarged or reduced from the pupil area data. Note that the above-described pupil area detection unit 106 has a spectacle shape.

【0017】以上のような構成を備えた本実施形態のナ
ビゲーションシステムの動作について図8及び図9を参
照して説明する。図8は本実施形態のナビゲーションシ
ステムの動作を説明するフローチャートである。なお、
この流れ図における処理は制御部103において行なわ
れる。また、図9はユーザの視線方向と抽出される領
域、物体を示す図である。
The operation of the navigation system according to the present embodiment having the above-described configuration will be described with reference to FIGS. FIG. 8 is a flowchart illustrating the operation of the navigation system according to the present embodiment. In addition,
The processing in this flowchart is performed in the control unit 103. FIG. 9 is a diagram showing a line of sight of the user, an area to be extracted, and an object.

【0018】まず、ステップ701において、ユーザの
眼球位置とユーザの視線方向を求める。この処理では、
ユーザ位置検出部101が、公知のGPSによる方法
で、4個の衛星からの電波の情報を用いて、ユーザの眼
球の地球上における3次元位置座標と時刻を求める。こ
こで求めた時刻における、ユーザ眼球の地球上における
3次元位置座標を[O]とする。なお、ここでは、GPS
によってユーザ眼球位置を検出するが、この方法では数
10mの誤差が存在する。従って、DGPS(デファレ
ンシャル・グローバル・ポジショニング・システム)に
よってユーザ眼球位置を検出するように構成してもよ
い。DGPSによれば誤差は数cm以下になる。また、
地上に固定したアンテナ等を用いて位置を検出しても良
い。また、その他の位置検出方法を用いても良い。
First, in step 701, the user's eyeball position and the user's line of sight are determined. In this process,
The user position detection unit 101 obtains the three-dimensional position coordinates and time of the user's eyeball on the earth using information of radio waves from four satellites by a known GPS method. The three-dimensional position coordinates of the user's eyeball on the earth at the time obtained here are [O]. Note that here, GPS
Is used to detect the position of the user's eyeball, but this method has an error of several tens of meters. Therefore, the configuration may be such that the user's eyeball position is detected by DGPS (Differential Global Positioning System). According to DGPS, the error is several cm or less. Also,
The position may be detected using an antenna or the like fixed on the ground. Further, other position detection methods may be used.

【0019】また、ステップ701において、ユーザ視
線方向検出部102は、ユーザ視線方向の単位ベクトル
[n]を求める。ユーザの視線方向はいかなる方法で求め
ても良い。なお、視線方向の検出には、特開平6−16
3号、特開平6−82680号に記載された方法を適用
することができる。
In step 701, the user's line-of-sight direction detecting unit 102
Find [n]. The user's gaze direction may be obtained by any method. The detection of the line of sight direction is disclosed in
No. 3 and JP-A-6-82680 can be applied.

【0020】次に、ステップ702において、ユーザの
瞳孔面積の変化を検出する。瞳孔面積の変化の検出方法
としては、例えば、「特開平7−174541号公報」
に記載されている方法を用いることができる。この方法
では、図7に示した構成を用いて、ユーザの見ている視
線方向の物体の明るさによる要因を取り除き、精神的要
因による瞳孔面積の補正値を算出する。
Next, in step 702, a change in the pupil area of the user is detected. As a method for detecting a change in the pupil area, for example, Japanese Unexamined Patent Application Publication No. 7-174541
Can be used. In this method, using the configuration shown in FIG. 7, a factor due to the brightness of the object in the viewing direction of the user is removed, and a correction value of the pupil area due to a mental factor is calculated.

【0021】まず、瞳孔画像撮影部4においてユーザの
瞳孔画像を撮影する。次に瞳孔面積算出部5において画
像処理を行ない瞳孔面積を求める。ここで得られた瞳孔
面積には被写体の輝度の要因と精神的要因(ユーザの興
味や関心)とが含まれている。そこで瞳孔面積補正部6
において、光検出器3からの光強度と瞳孔面積補正テー
ブル61とに基づいて、瞳孔面積算出部5で算出された
瞳孔面積を補正し、瞳孔面積の精神的要因による変化分
を検出する。ここでは、入射光がハーフミラー2で反射
して光検出器3で検出される。光検出器3で検出された
光強度は瞳孔面積補正部6に入力され瞳孔面積補正テー
ブル61のデータを用いて瞳孔面積データから被写体の
輝度による影響を取り除き、精神的要因のみを取り出
す。次に判定部7において、ユーザの被写体に対する精
神的要因によって瞳孔面積の拡大が生じたかを判定す
る。精神的要因による瞳孔面積が拡大したならばユーザ
の興味や関心が被写体にあると判定部7が判定して、ス
テップ703に進む。なお、精神的要因による瞳孔面積
の拡大が検出されなければ、ステップ701へ戻る。
First, the pupil image photographing section 4 photographs a pupil image of the user. Next, the pupil area calculation unit 5 performs image processing to determine the pupil area. The pupil area obtained here includes a factor of the luminance of the subject and a mental factor (interest and interest of the user). Therefore, the pupil area correction unit 6
In, the pupil area calculated by the pupil area calculation unit 5 is corrected based on the light intensity from the photodetector 3 and the pupil area correction table 61, and a change in the pupil area due to a mental factor is detected. Here, the incident light is reflected by the half mirror 2 and detected by the photodetector 3. The light intensity detected by the photodetector 3 is input to the pupil area correction unit 6 and the data of the pupil area correction table 61 is used to remove the influence of the luminance of the subject from the pupil area data and extract only the mental factor. Next, the determination unit 7 determines whether the pupil area has expanded due to a mental factor of the user with respect to the subject. If the pupil area is enlarged due to a mental factor, the determination unit 7 determines that the interest or interest of the user is in the subject, and proceeds to step 703. If no enlargement of the pupil area due to mental factors is detected, the process returns to step 701.

【0022】次に、ステップ703において、ユーザの
見ている物体が地球上のどの方向に存在するかを求め
る。ここでは、ステップ701で検出された、ユーザ眼
球の地球上における3次元位置座標[O]と、ユーザ視線
方向の単位ベクトル[n]を用いて、 [Q]=[O]+k[n] k>0 を満たす半直線Q上に、ユーザが見ている物体が存在す
ることになる。
Next, in step 703, it is determined in which direction on the earth the object the user is looking at exists. Here, [Q] = [O] + k [n] k using the three-dimensional position coordinates [O] of the user's eyeball on the earth detected in step 701 and the unit vector [n] in the user's gaze direction. An object viewed by the user exists on the half line Q satisfying> 0.

【0023】以下のステップ704以降では、ユーザが
見ている物体の属性を取り出す制御手順が示されてい
る。
From step 704 onward, a control procedure for extracting the attributes of the object viewed by the user is shown.

【0024】まず、ステップ704において、領域デー
タベース中で、ユーザ眼球位置[O]がどの空間領域に存
在するかを検索する。なお、ユーザの眼球は左右いずれ
でも良い。まず、平面Sに関しては、[V]・[O]−W<
0なので、ユーザ眼球はS1領域に存在する(図8)。
平面S1に関しては、[V1]・[O]−W1≧0なので、ユ
ーザ眼球はS10領域に存在する(図8)。平面S10に関
しては、[V10]・[O]−W10≧0なので、ユーザ眼球は
S100領域に存在する(図8)。平面S100に関しては、
[V100]・[O]−W100≧0なので、ユーザ眼球はS1000
領域に存在する(図8)。平面S1000に関しては、[V1
000]・[O]−W1000≧0なので、ユーザ眼球はS10000
領域に存在する(図8)。領域S10000は終端ノードな
ので(図4)ユーザ眼球の位置が求められたことにな
る。従って、領域S10000を最初の検索領域とする。
First, in step 704, a search is made in the area database to find in which spatial area the user's eyeball position [O] exists. The user's eyeball may be either left or right. First, regarding the plane S, [V] · [O] −W <
Since it is 0, the user's eyeball exists in the S1 area (FIG. 8).
As for the plane S1, [V1] · [O] −W1 ≧ 0, so that the user's eyeball exists in the S10 region (FIG. 8). Regarding the plane S10, [V10] · [O] −W10 ≧ 0, so the user's eyeball exists in the S100 area (FIG. 8). Regarding the plane S100,
[V100] · [O] −W100 ≧ 0, so the user's eyeball is S1000
Region (FIG. 8). For the plane S1000, [V1
000] · [O] −W1000 ≧ 0, so the user's eyeball is S10000
Region (FIG. 8). Since the area S10000 is the terminal node (FIG. 4), the position of the user's eyeball has been determined. Therefore, the area S10000 is set as the first search area.

【0025】次に、ステップ705において、検索領域
内に半直線[Q]と交わる物体が存在するか判定する。
Next, in step 705, it is determined whether or not there is an object that intersects the half line [Q] in the search area.

【0026】領域S10000内に半直線[Q]と交わる物体
は存在しない(図4)から、ステップ706に移り、次
の検索領域を求める。領域S10000の兄弟領域S10001
は、半直線[Q]と交わらない(図9)から、領域S1000
内に半直線[Q]と交わる物体は存在しない(図9)。次
に、領域S1000の兄弟領域S1001は、半直線[Q]と交わ
らない(図9)から、領域S100内に半直線[Q]と交わ
る物体は存在しない(図9)。領域S100の兄弟領域S1
01は、半直線と交わる(図9)から、領域S101内に半
直線と交わる物体は存在し得る。領域S101の子領域S1
010は、半直線[Q]と交わる(図9)から、半直線[Q]
と交わる物体が存在し得るが、子領域S1011は、半直線
[Q]と交わらない(図9)から、半直線[Q]と交わる物
体は存在し得ない。領域S1010の子領域S10100とS101
01は、半直線[Q]と交わる(図9)が、領域S10101の
方が眼球の位置[O]に近いので、領域S10101を次の検
索領域とする。
Since there is no object that intersects with the half line [Q] in the area S10000 (FIG. 4), the process proceeds to step 706 to find the next search area. Sibling area S10001 of area S10000
Does not intersect with the half line [Q] (FIG. 9).
There is no object that intersects the ray [Q] (FIG. 9). Next, since the sibling area S1001 of the area S1000 does not intersect with the half line [Q] (FIG. 9), there is no object intersecting with the half line [Q] in the area S100 (FIG. 9). Sibling area S1 of area S100
Since 01 intersects with the half line (FIG. 9), an object which intersects with the half line can exist in the area S101. Child area S1 of area S101
Since 010 intersects with the half line [Q] (FIG. 9), the half line [Q]
May exist, but the child area S1011 is
Since it does not intersect with [Q] (FIG. 9), no object intersects with the ray [Q]. Child areas S10100 and S101 of area S1010
01 intersects the half line [Q] (FIG. 9), but since the area S10101 is closer to the position [O] of the eyeball, the area S10101 is set as the next search area.

【0027】こうして、再びステップ705が実行され
ることになる。ここで、領域データベース(図4)か
ら、領域S10101内に登録されているすべての点の3次
元座標を取り出す。ここでは、点[B1],[B2],[B
3],[B4]が取り出される。また、これらの各座標をキ
ーとして、座標データベース(図5)が検索され、これ
らの点が含まれる物体の名称が取り出される。ここで
は、名称「Bビル」が取り出されることになる。次に、
属性データベース(図6)を、名称「Bビル」をキーと
して検索し、「Bビル」の形状を示す三角形のパッチデ
ータ([B1],[B2],[B3]),([B1],[B2],[B4]),
([B1],[B4],[B3]),([B4],[B2],[B3])を取り
だし、これらの三角形が半直線[Q]と交わるかどうか調
べる。
Thus, step 705 is executed again. Here, the three-dimensional coordinates of all points registered in the area S10101 are extracted from the area database (FIG. 4). Here, the points [B1], [B2], [B
3] and [B4] are extracted. The coordinate database (FIG. 5) is searched using each of these coordinates as a key, and the name of the object including these points is extracted. Here, the name "B Building" is taken out. next,
The attribute database (FIG. 6) is searched using the name "B Building" as a key, and triangular patch data ([B1], [B2], [B3]) indicating the shape of "B Building", ([B1], [B2], [B4]),
([B1], [B4], [B3]) and ([B4], [B2], [B3]) are extracted, and it is checked whether or not these triangles intersect with the half line [Q].

【0028】ここでは、これらの三角形が半直線[Q]と
交わらない(図9)ので、ステップ706に移り、次の
検索領域を求める。領域S10101の兄弟領域S10100は、
半直線[Q]と交わる(図9)から、これを次の検索領域
とする。
Here, since these triangles do not intersect with the half line [Q] (FIG. 9), the process proceeds to step 706 to find the next search area. The sibling area S10100 of the area S10101 is
Since it intersects with the half line [Q] (FIG. 9), this is set as the next search area.

【0029】再び、ステップ705で、領域データベー
ス(図4)から、領域S10100内に登録されているすべ
ての点の3次元座標を取り出す。ここでは、点[D1],
[D2]、[D4]が取り出される。これらの各座標をキーと
して、座標データベース(図5)を検索しこれらの点が
含まれる物体の名称を取り出す。ここでは、名称「Dビ
ル」が取り出されることになる。次に、属性データベー
ス(図6)を、名称「Dビル」をキーとして検索し、
「Dビル」の形状を示す三角形のパッチデータ([D1],
[D2],[D3]),([D1],[D2],[D4]),([D1],[D
4],[D3]),([D4],[D2],[D3])を取りだし、これ
らの三角形が半直線[Q]と交わるかどうか調べる。ここ
では、三角形([D1],[D2],[D4]),([D1],[D4],
[D3])が半直線[Q]と交わる(図9)ので、眼球位置
[O]に近い方の三角形([D1],[D2],[D4])と半直線
[Q]との交点、すなわちk(>0)の値を求める。な
お、視点位置から物体までの距離kを用いることによ
り、例えば音声合成で「Dビル迄の距離はここから約2
500メートルです。」といったナビゲーションを行う
ことができる。
At step 705, the three-dimensional coordinates of all the points registered in the area S10100 are extracted from the area database (FIG. 4). Here, point [D1],
[D2] and [D4] are extracted. Using these coordinates as keys, a coordinate database (FIG. 5) is searched to extract the name of the object including these points. Here, the name “D building” is taken out. Next, the attribute database (FIG. 6) is searched using the name “D building” as a key,
Triangular patch data ([D1],
[D2], [D3]), ([D1], [D2], [D4]), ([D1], [D
4], [D3]) and ([D4], [D2], [D3]), and examine whether these triangles intersect with the half line [Q]. Here, the triangles ([D1], [D2], [D4]), ([D1], [D4],
[D3]) intersects the half-line [Q] (Fig. 9), so the eyeball position
Triangle ([D1], [D2], [D4]) closer to [O] and a half-line
The intersection with [Q], that is, the value of k (> 0) is obtained. In addition, by using the distance k from the viewpoint position to the object, for example, “the distance to the building D is
500 meters. "Can be performed.

【0030】次に、ステップ707に移り、ユーザの見
ている物体「Dビル」に関する情報が属性データベース
(図6)より取り出され、「Dビルです。日本で一番高
い。高さ500m」と音声合成部105によって音声出
力される。
Next, the process proceeds to step 707, where information relating to the object "D Building" which the user is looking up is extracted from the attribute database (FIG. 6), and "D Building. Tallest in Japan. Height 500m". The voice is output by the voice synthesis unit 105.

【0031】以上説明したように本実施形態のナビゲー
ション装置は、ユーザ眼球位置検出部101と、ユーザ
視線方向検出部102と、制御部103と、地図データ
記憶部104と、音声合成部105と、ユーザ瞳孔面積
検出部106を具備する。そして、各時刻の地球上にお
けるユーザの眼球位置とユーザ視線方向をユーザ眼球位
置検出部101とユーザ視線方向検出部102によって
検出し、ユーザ瞳孔面積検出部106においてユーザの
瞳孔面積の精神的要因による変化を検出したならば、制
御部103においてユーザが見ている物体を地図データ
記憶部104中のデータを用いて特定する。そして、こ
のようして特定された物体の属性データ(名称・説明
等)を音声合成部105によってユーザに音声合成でナ
ビゲーションすることによって、ユーザはディスプレイ
などの装置がなくても興味をもって見ている物体が何で
あるかを確認できる。また、ユーザの瞳孔面積の精神的
要因による変化を検出して、ユーザが見ている物体に対
するユーザの興味や関心に応じて即座に説明出力を行な
うことができる。
As described above, the navigation apparatus according to the present embodiment includes a user's eyeball position detection unit 101, a user's gaze direction detection unit 102, a control unit 103, a map data storage unit 104, a speech synthesis unit 105, A user pupil area detection unit 106 is provided. Then, the user's eyeball position and the user's gaze direction on the earth at each time are detected by the user's eyeball position detection unit 101 and the user's gaze direction detection unit 102, and the user's pupil area detection unit 106 detects the user's pupil area based on mental factors. When the change is detected, the control unit 103 specifies the object viewed by the user using the data in the map data storage unit 104. Then, the attribute data (name, description, etc.) of the object specified in this way is navigated to the user by voice synthesis by the voice synthesis unit 105, so that the user is interested in watching without a device such as a display. You can check what the object is. Further, it is possible to detect a change in the pupil area of the user due to a mental factor and output an explanation immediately according to the user's interest or interest in the object viewed by the user.

【0032】なお、上記実施形態では、ユーザの視線方
向は、各時刻における瞬間値としているが、ある一定時
間(例えば1秒間)における平均値を用いても良い。ま
た、ユーザの視線方向が、ある一定時間(例えば3秒)
の間に一定回数(例えば2回)以上、特定の物体の三角
形のパッチデータと交わるならば、ユーザがその物体を
見ていると判断するようにしても良い。
In the above embodiment, the direction of the user's line of sight is an instantaneous value at each time, but an average value over a certain period of time (for example, one second) may be used. In addition, the direction of the user's line of sight is kept for a certain period
If a certain number of times (for example, two times) intersects with the triangular patch data of a specific object, it may be determined that the user is looking at the object.

【0033】また、上記実施形態ではユーザの見ている
物体が何であるかを正確に求めているが、ユーザの位置
とユーザの視線方向のおおまかな値を用いて、「そちら
は横浜方面です」のようなおおまかなナビゲーションを
おこなうように構成してもよい。
Also, in the above embodiment, what exactly the object the user is looking at is determined. However, using the approximate values of the user's position and the user's line of sight, "there is a Yokohama area" It may be configured to perform rough navigation such as

【0034】また、上記実施形態では瞳孔面積の変化で
ナビゲーション装置を制御しているが、瞳孔面積の変化
速度の変化または加速度の変化でナビゲーション装置を
制御してもよい。
In the above embodiment, the navigation device is controlled by changing the pupil area. However, the navigation device may be controlled by changing the pupil area changing speed or changing the acceleration.

【0035】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
An object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0036】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0037】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0038】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0039】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0040】[0040]

【発明の効果】以上説明したように、本発明によれば、
ユーザの視線方向に基づいてユーザの興味の対象となっ
ている物体を検出し、これに対応する情報を出力するこ
とが可能となる。
As described above, according to the present invention,
It is possible to detect an object of interest of the user based on the direction of the user's line of sight and output information corresponding to the detected object.

【0041】[0041]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態によるナビゲーション装置の構成例
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a navigation device according to an embodiment.

【図2】本ナビゲーション装置を装着したユーザによっ
て観察される視界の一例を示す図である。
FIG. 2 is a diagram illustrating an example of a field of view observed by a user wearing the navigation device.

【図3】図2で示したユーザの視界について、上空から
見た視線位置と方向を示す図である。
FIG. 3 is a diagram showing a line-of-sight position and direction of the user's field of view shown in FIG. 2 as viewed from above.

【図4】図3に示した地球上の物体(特徴点)が、地図
データ記憶部104中の領域データベースに登録されて
いる様子を示す図である。
FIG. 4 is a diagram showing a state in which an object (feature point) on the earth shown in FIG. 3 is registered in an area database in a map data storage unit 104;

【図5】図4の領域データベースに登録されている各点
が地球上の如何なる物体を構成するものであるかを示す
座標データベースのデータ構成例を示す図である。
FIG. 5 is a diagram showing an example of a data configuration of a coordinate database indicating what objects on the earth each point registered in the area database of FIG. 4 is;

【図6】物体の名称に対して、その物体の外形の形状の
三角形のパッチの集合を登録した属性データベースのデ
ータ構成例を示すである。
FIG. 6 is a diagram illustrating an example of a data configuration of an attribute database in which a set of triangular patches having an outer shape of the object is registered with respect to the name of the object.

【図7】瞳孔面積検出部106の構成の詳細を示す図で
ある。
FIG. 7 is a diagram illustrating details of a configuration of a pupil area detection unit 106.

【図8】本実施形態のナビゲーションシステムの動作を
説明するフローチャートである。
FIG. 8 is a flowchart illustrating the operation of the navigation system according to the embodiment.

【図9】ユーザの視線方向と抽出される領域、物体を示
す図である。
FIG. 9 is a diagram illustrating a line of sight of a user, a region to be extracted, and an object.

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 地図情報を格納する格納手段と、 前記地図情報による地図上での、ユーザの視点位置と視
線方向を検出する検出手段と、 前記視点位置を始端とし、前記視線方向に沿った線分上
にある物体を、前記地図情報より探索し抽出する探索手
段と、 前記探索手段で抽出された物体に関する情報を出力する
出力手段とを備えることを特徴とするナビゲーション装
置。
A storage means for storing map information; a detection means for detecting a user's viewpoint position and a line-of-sight direction on a map based on the map information; A navigation device comprising: a search unit that searches for and extracts an object on a line segment from the map information; and an output unit that outputs information about the object extracted by the search unit.
【請求項2】 前記地図情報は、地図を複数の部分領域
に分割した情報を含み、 前記視線方向を示す線分が通る部分領域を抽出する抽出
手段を更に備え、 前記獲得手段は、前記抽出手段で抽出された部分領域に
ついて、前記線分上にある物体の探索を行うことを特徴
とする請求項1に記載のナビゲーション装置。
2. The map information includes information obtained by dividing a map into a plurality of partial areas, and further includes extraction means for extracting a partial area through which a line segment indicating the line-of-sight direction passes. 2. The navigation device according to claim 1, wherein an object located on the line segment is searched for the partial area extracted by the means.
【請求項3】 前記地図情報における物体は複数の特徴
点によって示され、前記部分領域の各々に含まれる特徴
点の数が所定数以下となるように分割されていることを
特徴とする請求項2に記載のナビゲーション装置。
3. An object in the map information is represented by a plurality of feature points, and is divided so that the number of feature points included in each of the partial regions is equal to or less than a predetermined number. 3. The navigation device according to 2.
【請求項4】 前記格納手段は、更に、前記地図情報中
の各物体とこれに対応する説明文を対にして格納し、 前記出力手段は、前記探索手段で抽出された物体に対応
する説明文を前記格納手段より読出し、これを音声出力
することを特徴とする請求項1に記載のナビゲーション
装置。
4. The storage unit further stores a pair of each object in the map information and a corresponding description, and the output unit stores a description corresponding to the object extracted by the search unit. 2. The navigation device according to claim 1, wherein a sentence is read from said storage means and is output as a voice.
【請求項5】 前記検出手段における視点位置の検出
は、GPSシステムを利用して行われることを特徴とす
る請求項1乃至4のいずれかに記載のナビゲーション装
置。
5. The navigation device according to claim 1, wherein the detection of the viewpoint position by the detection unit is performed using a GPS system.
【請求項6】 ユーザの瞳孔の拡大を検出し、この検出
結果に基づいて情報の出力を行うか否かを判定する判定
手段を更に備え、 前記判定手段によって情報の出力を行うと判定された場
合に前記出力手段を動作させることを特徴とする請求項
1乃至5のいずれかに記載のナビゲーション装置。
6. A system further comprising: a judging unit for detecting enlargement of a pupil of a user and judging whether or not to output information based on the detection result, wherein the judging unit judges that the information is to be output. The navigation device according to any one of claims 1 to 5, wherein the output unit is operated in a case.
【請求項7】 前記判定手段は、ユーザの瞳孔の面積を
測定し、測定された面積を観察対象物の光強度に基づい
て補正し、補正された瞳孔の面積に基づいて情報の出力
を行うか否かを判定することを特徴とする請求項6に記
載のナビゲーション装置。
7. The determination means measures the area of the pupil of the user, corrects the measured area based on the light intensity of the observation target, and outputs information based on the corrected area of the pupil. The navigation device according to claim 6, wherein it is determined whether or not the navigation is performed.
【請求項8】 地図を複数の部分領域に分割した情報を
含む地図情報を格納する格納手段と、 前記地図情報による地図上での、ユーザの視点位置と視
線方向を検出する検出手段と、 前記視点位置を始端とした前記視線方向に沿った線分上
にある部分領域を前記地図情報より探索し抽出する探索
手段と、 前記探索手段で抽出された部分領域に対応する地名を出
力する出力手段とを備えることを特徴とするナビゲーシ
ョン装置。
8. A storage means for storing map information including information obtained by dividing a map into a plurality of partial areas; a detection means for detecting a viewpoint position and a line of sight of a user on a map based on the map information; Searching means for searching and extracting a partial area on the line segment along the line of sight starting from the viewpoint position from the map information; and outputting means for outputting a place name corresponding to the partial area extracted by the searching means. A navigation device comprising:
【請求項9】 地図情報を格納する格納手段を用いたナ
ビゲーション方法であって、 前記地図情報による地図上での、ユーザの視点位置と視
線方向を検出する検出工程と、 前記視点位置を始端とし、前記視線方向に沿った線分上
にある物体を、前記地図情報より探索し抽出する探索工
程と、 前記探索工程で抽出された物体に関する情報を出力する
出力工程とを備えることを特徴とするナビゲーション方
法。
9. A navigation method using storage means for storing map information, comprising: a detecting step of detecting a viewpoint position and a line of sight of a user on a map based on the map information; A search step of searching for and extracting an object on a line segment along the line of sight direction from the map information, and an output step of outputting information on the object extracted in the search step. Navigation method.
【請求項10】 前記地図情報は、地図を複数の部分領
域に分割した情報を含み、 前記視線方向を示す線分が通る部分領域を抽出する抽出
工程を更に備え、 前記獲得工程は、前記抽出工程で抽出された部分領域に
ついて、前記線分上にある物体の探索を行うことを特徴
とする請求項9に記載のナビゲーション方法。
10. The map information includes information obtained by dividing a map into a plurality of partial areas, and further includes an extraction step of extracting a partial area through which a line segment indicating the line-of-sight direction passes. 10. The navigation method according to claim 9, wherein an object located on the line segment is searched for the partial area extracted in the step.
【請求項11】 前記地図情報における物体は複数の特
徴点によって示され、前記部分領域の各々に含まれる特
徴点の数が所定数以下となるように分割されていること
を特徴とする請求項10に記載のナビゲーション方法。
11. An object in the map information is indicated by a plurality of feature points, and is divided so that the number of feature points included in each of the partial regions is equal to or less than a predetermined number. The navigation method according to claim 10.
【請求項12】 前記格納手段は、更に、前記地図情報
中の各物体とこれに対応する説明文を対にして格納し、 前記出力工程は、前記探索工程で抽出された物体に対応
する説明文を前記格納手段より読出し、これを音声出力
することを特徴とする請求項9に記載のナビゲーション
方法。
12. The storage unit further stores a pair of each object in the map information and a corresponding descriptive sentence, and the output step includes a description corresponding to the object extracted in the search step. 10. The navigation method according to claim 9, wherein a sentence is read from said storage means and is output as a voice.
【請求項13】 前記検出工程における視点位置の検出
は、GPSシステムを利用して行われることを特徴とす
る請求項9乃至12のいずれかに記載のナビゲーション
方法。
13. The navigation method according to claim 9, wherein the detection of the viewpoint position in the detection step is performed using a GPS system.
【請求項14】 ユーザの瞳孔の拡大を検出し、この検
出結果に基づいて情報の出力を行うか否かを判定する判
定工程を更に備え、 前記判定工程によって情報の出力を行うと判定された場
合に前記出力工程を動作させることを特徴とする請求項
9乃至13のいずれかに記載のナビゲーション方法。
14. The method according to claim 1, further comprising the step of: detecting an enlargement of a pupil of the user and determining whether to output information based on a result of the detection. 14. The navigation method according to claim 9, wherein the output step is operated in a case.
【請求項15】 前記判定工程は、ユーザの瞳孔の面積
を測定し、測定された面積を観察対象物の光強度に基づ
いて補正し、補正された瞳孔の面積に基づいて情報の出
力を行うか否かを判定することを特徴とする請求項14
に記載のナビゲーション方法。
15. The determining step includes measuring an area of a pupil of a user, correcting the measured area based on a light intensity of an observation target, and outputting information based on the corrected area of the pupil. 15. It is determined whether or not it is.
Navigation method described in.
【請求項16】 地図を複数の部分領域に分割した情報
を含む地図情報を格納する格納手段を用いたナビゲーシ
ョン方法であって、 前記地図情報による地図上での、ユーザの視点位置と視
線方向を検出する検出工程と、 前記視点位置を始端とした前記視線方向に沿った線分上
にある部分領域を前記地図情報より探索し抽出する探索
工程と、 前記探索工程で抽出された部分領域に対応する地名を出
力する出力工程とを備えることを特徴とするナビゲーシ
ョン方法。
16. A navigation method using storage means for storing map information including information obtained by dividing a map into a plurality of partial areas, wherein a viewpoint position and a line-of-sight direction of a user on a map based on the map information are determined. A detecting step of detecting, a searching step of searching and extracting a partial area on a line segment along the line of sight starting from the viewpoint position from the map information, and corresponding to the partial area extracted in the searching step An output step of outputting a place name to be used.
【請求項17】 地図情報を格納する格納手段を用いて
ナビゲーション処理を行うための制御プログラムを格納
する記憶媒体であって、該制御プログラムが、 前記地図情報による地図上での、ユーザの視点位置と視
線方向を検出する検出工程のコードと、 前記視点位置を始端とし、前記視線方向に沿った線分上
にある物体を、前記地図情報より探索し抽出する探索工
程のコードと、 前記探索工程で抽出された物体に関する情報を出力する
出力工程のコードとを備えることを特徴とする記憶媒
体。
17. A storage medium for storing a control program for performing a navigation process using storage means for storing map information, the control program comprising: a user's viewpoint position on a map based on the map information. And a code of a detection step of detecting a line-of-sight direction, and a code of a search step of searching for and extracting an object located on a line segment along the line-of-sight direction from the map information, starting from the viewpoint position. And a code for an output step of outputting information on the object extracted in step (a).
【請求項18】 地図を複数の部分領域に分割した情報
を含む地図情報を格納する格納手段を用いてナビゲーシ
ョン処理を行うための制御プログラムを格納した記憶媒
体であって、該制御プログラムが、 前記地図情報による地図上での、ユーザの視点位置と視
線方向を検出する検出工程のコードと、 前記視点位置を始端とした前記視線方向に沿った線分上
にある部分領域を前記地図情報より探索し抽出する探索
工程のコードと、 前記探索工程で抽出された部分領域に対応する地名を出
力する出力工程のコードとを備えることを特徴とする記
憶媒体。
18. A storage medium storing a control program for performing a navigation process using storage means for storing map information including information obtained by dividing a map into a plurality of partial areas, the control program comprising: A code for a detecting step of detecting a user's viewpoint position and a line-of-sight direction on a map based on the map information; and searching the map information for a partial area on a line segment starting from the viewpoint position and extending along the line-of-sight direction. A storage medium comprising: a search step code to be extracted; and an output step code to output a place name corresponding to the partial area extracted in the search step.
JP8896898A 1998-04-01 1998-04-01 Device and method for navigation Withdrawn JPH11288341A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8896898A JPH11288341A (en) 1998-04-01 1998-04-01 Device and method for navigation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8896898A JPH11288341A (en) 1998-04-01 1998-04-01 Device and method for navigation

Publications (1)

Publication Number Publication Date
JPH11288341A true JPH11288341A (en) 1999-10-19

Family

ID=13957624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8896898A Withdrawn JPH11288341A (en) 1998-04-01 1998-04-01 Device and method for navigation

Country Status (1)

Country Link
JP (1) JPH11288341A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152713A (en) * 2000-11-10 2002-05-24 Sony Corp Apparatus and method for processing object information
JP2002229992A (en) * 2001-01-31 2002-08-16 Fujitsu Ltd Server device for space information service and method for providing the same, and accounting device and method for space information service
JP2002229991A (en) * 2001-01-31 2002-08-16 Fujitsu Ltd Server, user terminal, system and method for providing information
JP2002318684A (en) * 2000-12-08 2002-10-31 Daimler Chrysler Ag Information system for supplying functional element or explanatory information regarding control, etc., in automobile
JP2005293479A (en) * 2004-04-05 2005-10-20 Denso Corp Object danger decision device
US7290000B2 (en) 2000-10-18 2007-10-30 Fujitsu Limited Server, user terminal, information providing service system, and information providing service method
JP2008171410A (en) * 2001-01-24 2008-07-24 Geovector Corp Pointing system for addressing object
US7716697B2 (en) 2005-12-08 2010-05-11 Panasonic Corporation Information processing system, information processing apparatus, and method
JP2012088927A (en) * 2010-10-19 2012-05-10 Fujitsu Ltd Information providing method, device and program
JP2013045445A (en) * 2011-08-26 2013-03-04 Toyota Motor Engineering & Manufacturing North America Inc Segmenting spatiotemporal data based on user gaze data
CN103063224A (en) * 2011-10-18 2013-04-24 罗伯特·博世有限公司 Method of operating navigation system
JP2015079310A (en) * 2013-10-15 2015-04-23 富士通株式会社 Acoustic device, acoustic system, acoustic processing method and acoustic processing program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7290000B2 (en) 2000-10-18 2007-10-30 Fujitsu Limited Server, user terminal, information providing service system, and information providing service method
JP2002152713A (en) * 2000-11-10 2002-05-24 Sony Corp Apparatus and method for processing object information
JP2002318684A (en) * 2000-12-08 2002-10-31 Daimler Chrysler Ag Information system for supplying functional element or explanatory information regarding control, etc., in automobile
JP2008171410A (en) * 2001-01-24 2008-07-24 Geovector Corp Pointing system for addressing object
JP2010205281A (en) * 2001-01-24 2010-09-16 Geovector Corp Pointing system for addressing object
JP2002229991A (en) * 2001-01-31 2002-08-16 Fujitsu Ltd Server, user terminal, system and method for providing information
JP2002229992A (en) * 2001-01-31 2002-08-16 Fujitsu Ltd Server device for space information service and method for providing the same, and accounting device and method for space information service
JP2005293479A (en) * 2004-04-05 2005-10-20 Denso Corp Object danger decision device
US7716697B2 (en) 2005-12-08 2010-05-11 Panasonic Corporation Information processing system, information processing apparatus, and method
JP2012088927A (en) * 2010-10-19 2012-05-10 Fujitsu Ltd Information providing method, device and program
JP2013045445A (en) * 2011-08-26 2013-03-04 Toyota Motor Engineering & Manufacturing North America Inc Segmenting spatiotemporal data based on user gaze data
CN103063224A (en) * 2011-10-18 2013-04-24 罗伯特·博世有限公司 Method of operating navigation system
JP2015079310A (en) * 2013-10-15 2015-04-23 富士通株式会社 Acoustic device, acoustic system, acoustic processing method and acoustic processing program

Similar Documents

Publication Publication Date Title
EP3786892B1 (en) Method, device and apparatus for repositioning in camera orientation tracking process, and storage medium
JP5582548B2 (en) Display method of virtual information in real environment image
US8850337B2 (en) Information processing device, authoring method, and program
US20200334836A1 (en) Relocalization method and apparatus in camera pose tracking process, device, and storage medium
EP1306809A2 (en) Mixed reality imaging
US20110110557A1 (en) Geo-locating an Object from Images or Videos
CN111833447A (en) Three-dimensional map construction method, three-dimensional map construction device and terminal equipment
US20120044264A1 (en) Apparatus and method for providing augmented reality
KR100971778B1 (en) Method, system and computer-readable recording medium for matching of panoramic image using graph structure
US12046001B2 (en) Visual localization method, terminal, and server
JPH064023A (en) Track display device for navigation system
JPH11288341A (en) Device and method for navigation
JP2008020604A (en) Road map creating program, map creating device and location display system
CN113284239B (en) Method and device for manufacturing electronic sand table of smart city
JP2002532770A (en) Method and system for determining a camera pose in relation to an image
US20090167759A1 (en) Three dimensional data processing device and method, three dimensional image generating device, navigation device, and computer-readable medium containing three-dimensional data processing program
US20180357779A1 (en) Systems and methods for dynamically providing scale information on a digital map
US20140002499A1 (en) Method, System, and Computer-Readable Recording Medium for Providing Information on an Object Using Viewing Frustums
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
Chen et al. A versatile AR type 3D mobile GIS based on image navigation technology
CN111928861B (en) Map construction method and device
JPH1013720A (en) Information service device
KR20220056834A (en) Display method, display apparatus, device, computer readable storage medium and, and computer program
JP4850161B2 (en) Road map data creation device
CN115147482A (en) Pose initialization method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607