JPH10160503A - Navigation apparatus by speech synthesis and navigation system by speech synthesis - Google Patents

Navigation apparatus by speech synthesis and navigation system by speech synthesis

Info

Publication number
JPH10160503A
JPH10160503A JP33141596A JP33141596A JPH10160503A JP H10160503 A JPH10160503 A JP H10160503A JP 33141596 A JP33141596 A JP 33141596A JP 33141596 A JP33141596 A JP 33141596A JP H10160503 A JPH10160503 A JP H10160503A
Authority
JP
Japan
Prior art keywords
user
earth
space
navigation
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33141596A
Other languages
Japanese (ja)
Inventor
Katsuhiko Kawasaki
勝彦 川崎
Yasunori Ohora
恭則 大洞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP33141596A priority Critical patent/JPH10160503A/en
Publication of JPH10160503A publication Critical patent/JPH10160503A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a navigation apparatus which can perform exact navigation for a user by speech synthesis even without a display device such as a display, etc. SOLUTION: In the navigation apparatus comprising a user location detection part 101 for positioning a user's location on the earth at each time instant, a line of user's sight detecting part 102 for detecting the line of sight of a user at a detected location, a map data storage part 014 where map data for objects on the earth are stored, and a speech synthesizing part 105 for outputting voice to the outside thereof by speech synthesis, the control part 103 seeks an object locating in the direction of line of user's sight detected through referencing the map data. Then, the control part 103 controls the speech synthesizing part 105 so as to output voice notifying an attribute data of the object.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ユーザーの視線方
向に存在する物体の説明を音声によってナビゲーション
する音声合成によるナビゲーション装置、及び音声合成
によるナビゲーション方式に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a navigation apparatus using speech synthesis for navigating an explanation of an object present in the direction of a user's line of sight by speech, and a navigation system using speech synthesis.

【0002】[0002]

【従来の技術】近年、自動車等にナビゲーション装置が
搭載されることが多くなってきている。この種のナビゲ
ーション装置においては、人工衛星を利用して、地上で
のユーザーの位置を検出し、その位置データを基に作成
した地図情報をディスプレイなどの表示装置に表示する
ことにより、ユーザーに対してナビゲーションを行なっ
ていた。
2. Description of the Related Art In recent years, navigation devices have been increasingly mounted on automobiles and the like. This type of navigation device uses a satellite to detect the user's position on the ground, and displays map information created based on the position data on a display device such as a display, thereby providing the user with the information. I was doing navigation.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
ナビゲーション装置では、地図情報を表示するためにデ
ィスプレイなどの表示装置が必要であり、ナビゲーショ
ン装置全体の構成が大型化するという問題があった。
However, the conventional navigation device requires a display device such as a display to display map information, and has a problem that the configuration of the entire navigation device becomes large.

【0004】さらに、例えば自動車等にナビゲーション
装置を搭載した場合には、運転者は運転中にナビゲーシ
ョン装置の表示画面を注視するということがあり、運行
上甚だ危険であった。
[0004] Further, for example, when a navigation device is mounted on an automobile or the like, the driver may watch the display screen of the navigation device while driving, which is extremely dangerous in operation.

【0005】本発明は上記従来の問題点に鑑み、ディス
プレイなどの表示装置がなくてもユーザーに対して的確
なナビゲーションを行うことができる音声合成によるナ
ビゲーション装置、及び音声合成によるナビゲーション
方式を提供することを目的とする。
The present invention has been made in view of the above-mentioned conventional problems, and provides a navigation device using voice synthesis and a navigation system using voice synthesis that can perform accurate navigation for a user without a display device such as a display. The purpose is to:

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、第1の発明である音声合成によるナビゲーション装
置は、各時刻の地球上におけるユーザーの位置を検出す
るユーザー位置検出部と、前記ユーザー位置検出部によ
って検出された位置でのユーザーの視線方向を検出する
ユーザー視線方向検出部と、地球上の物体の地図データ
が記憶された地図データ記憶部と、音声合成によって外
部に音声を出力する音声合成部と、前記ユーザー視線方
向検出部で検出されたユーザの視線方向に存在する物体
を前記地図データ記憶部中のデータを参照して求め、そ
の物体の属性データを前記音声合成部によって音声出力
すべく制御を行う制御部とを備えたものである。
According to a first aspect of the present invention, there is provided a navigation apparatus using speech synthesis, comprising: a user position detecting section for detecting a position of a user on the earth at each time; A user gaze direction detection unit that detects a user gaze direction at a position detected by the position detection unit, a map data storage unit that stores map data of an object on the earth, and outputs voice to the outside by voice synthesis A voice synthesizing unit, an object present in the user's line-of-sight direction detected by the user line-of-sight direction detecting unit is obtained by referring to data in the map data storage unit, and the attribute data of the object is voiced by the voice synthesizing unit. And a control unit for controlling the output.

【0007】第2の発明である音声合成によるナビゲー
ション装置では、上記第1の発明において、前記地図デ
ータ記憶部は、地球上の空間領域または空間を分割する
3次元平面において該空間領域に存在する物体を特徴づ
ける点の3次元位置座標が登録された領域データベース
と、前記領域データベースに登録されている物体を特徴
づける各点が、地球上の如何なる物体を構成するもので
あるかを示す物体識別データが登録された座標データベ
ースと、前記座標データベース中の物体識別データに対
応して前記属性データが登録された属性データベースと
を有するものである。
According to a second aspect of the present invention, in the navigation apparatus using speech synthesis, in the first aspect, the map data storage section exists in a spatial region on the earth or a three-dimensional plane dividing the space. An area database in which three-dimensional position coordinates of points characterizing an object are registered, and an object identification indicating what kind of object on the earth is formed by each point characterizing the object registered in the area database. It has a coordinate database in which data is registered, and an attribute database in which the attribute data is registered corresponding to the object identification data in the coordinate database.

【0008】第3の発明である音声合成によるナビゲー
ション装置では、上記第2の発明において、前記3次元
平面について地球上の空間の分割は、各空間領域に存在
する地球上の物体を特徴づける点が一定数以下になるま
で行うようにしたものである。
According to a third aspect of the present invention, in the navigation apparatus using speech synthesis according to the second aspect, the division of the space on the earth with respect to the three-dimensional plane includes the steps of characterizing an object on the earth existing in each space area. Is performed until a certain number is less than a certain number.

【0009】第4の発明である音声合成によるナビゲー
ション装置では、上記第2または第3の発明において、
前記3次元平面について地球上の空間の分割は、地球上
の物体の密集度が高い所では細かく、密集度が低い所で
は粗く行うようにしたものである。
According to a fourth aspect of the present invention, there is provided a navigation apparatus using speech synthesis according to the second or third aspect of the invention.
The division of the space on the earth in the three-dimensional plane is performed finely in a place where the density of objects on the earth is high, and coarsely in a place where the density is low.

【0010】第5の発明である音声合成によるナビゲー
ション装置では、上記第1乃至第4の発明において、前
記ユーザー位置検出部は、衛星からの電波情報を参照し
て、ユーザーの位置を検出する構成としたものである。
According to a fifth aspect of the present invention, in the navigation apparatus based on speech synthesis, in the first to fourth aspects, the user position detecting section detects the position of the user by referring to radio wave information from a satellite. It is what it was.

【0011】第6の発明である音声合成によるナビゲー
ション装置では、上記第1乃至第4の発明において、前
記ユーザー位置検出部は、地上に固定したアンテナから
の電波情報を参照して、ユーザーの位置を検出する構成
としたものである。
According to a sixth aspect of the present invention, in the navigation apparatus based on speech synthesis, in the first to fourth aspects, the user position detecting section refers to radio wave information from an antenna fixed on the ground to determine a position of the user. Is detected.

【0012】第7の発明である音声合成によるナビゲー
ション方式では、地球上の物体の地図データが記憶され
た地図データ記憶手段を予め用意しておき、各時刻の地
球上におけるユーザーの位置を検出するユーザー位置検
出処理と、前記ユーザー位置検出処理によって検出され
た位置でのユーザーの視線方向を検出するユーザー視線
方向検出処理とを行い、前記ユーザー視線方向検出処理
で検出されたユーザの視線方向に存在する物体を、前記
地図データ記憶部中のデータを参照して求め、その物体
の属性データを音声合成によって音声出力するようにし
たものである。
In the navigation system using speech synthesis according to the seventh invention, map data storage means for storing map data of an object on the earth is prepared in advance, and the position of the user on the earth at each time is detected. Performs a user position detection process and a user gaze direction detection process for detecting a user gaze direction at a position detected by the user position detection process, and exists in a user gaze direction detected by the user gaze direction detection process. The object to be processed is obtained by referring to the data in the map data storage unit, and the attribute data of the object is output as voice by voice synthesis.

【0013】第8の発明である音声合成によるナビゲー
ション方式では、上記第7の発明において、前記地図デ
ータ記憶手段は、地球上の空間領域または空間を分割す
る3次元平面において該空間領域に存在する物体を特徴
づける点の3次元位置座標が登録された領域データベー
スと、前記領域データベースに登録されている物体を特
徴づける各点が、地球上の如何なる物体を構成するもの
であるかを示す物体識別データが登録された座標データ
ベースと、前記座標データベース中の物体識別データに
対応して前記属性データが登録された属性データベース
とを有するものである。
In an eighth aspect of the present invention, in the navigation system using voice synthesis, in the seventh aspect, the map data storage means exists in the spatial area on the earth or a three-dimensional plane dividing the space. An area database in which three-dimensional position coordinates of points characterizing an object are registered, and an object identification indicating what kind of object on the earth is formed by each point characterizing the object registered in the area database. It has a coordinate database in which data is registered, and an attribute database in which the attribute data is registered corresponding to the object identification data in the coordinate database.

【0014】第9の発明である音声合成によるナビゲー
ション方式では、上記第8の発明において、前記3次元
平面について地球上の空間の分割は、各空間領域に存在
する地球上の物体を特徴づける点が一定数以下になるま
で行うようにしたものである。
According to a ninth aspect of the present invention, in the navigation system using speech synthesis according to the eighth aspect, the division of the space on the earth with respect to the three-dimensional plane is characterized by the fact that an object on the earth existing in each space region is characterized. Is performed until a certain number is less than a certain number.

【0015】第10の発明である音声合成によるナビゲ
ーション方式では、上記第8または第9の発明におい
て、前記3次元平面について地球上の空間の分割は、地
球上の物体の密集度が高い所では細かく、密集度が低い
所では粗く行うようにしたものである。
In a tenth aspect of the present invention, in the navigation system based on speech synthesis according to the eighth or ninth aspect, the division of the space on the earth with respect to the three-dimensional plane is performed in a place where the density of objects on the earth is high. In a place where the density is small and the density is low, the process is performed roughly.

【0016】第11の発明である音声合成によるナビゲ
ーション方式では、上記第7乃至第10の発明におい
て、前記ユーザー位置検出処理は、衛星からの電波情報
を参照して、ユーザーの位置を検出するようにしたもの
である。
In a navigation system using speech synthesis according to an eleventh aspect of the present invention, in the seventh to tenth aspects, the user position detecting process detects a user position with reference to radio wave information from a satellite. It was made.

【0017】第12の発明である音声合成によるナビゲ
ーション方式では、上記第7乃至第10の発明におい
て、前記ユーザー位置検出処理は、地上に固定したアン
テナからの電波情報を参照して、ユーザーの位置を検出
するようにしたものである。
According to a twelfth aspect of the present invention, in the navigation system based on speech synthesis, in the seventh to tenth aspects, the user position detection processing is performed by referring to radio wave information from an antenna fixed on the ground. Is detected.

【0018】[0018]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0019】図1は、本発明の実施の一形態に係る音声
合成によるナビゲーション装置の概略構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a schematic configuration of a navigation apparatus using voice synthesis according to one embodiment of the present invention.

【0020】この音声合成によるナビゲーション装置
は、各時刻の地球上におけるユーザーの位置を検出する
ユーザー位置検出部101と、ユーザー位置検出部10
1によって検出された位置でのユーザーの視線方向を検
出するユーザー視線方向検出部102と、装置全体の動
作を制御する制御部103と、地球上の物体の地図デー
タが記憶された地図データ記憶部104と、音声合成に
よって外部に音声を出力する音声合成部105とから構
成され、ユーザー自身に身に付けて使用する形態となっ
ている。
The navigation apparatus using voice synthesis includes a user position detecting unit 101 for detecting the position of the user on the earth at each time, and a user position detecting unit 10.
1, a user gaze direction detecting unit 102 for detecting a gaze direction of the user at the position detected by the control unit 1, a control unit 103 for controlling the operation of the entire apparatus, and a map data storage unit for storing map data of an object on the earth. The voice synthesizing unit 104 includes a voice synthesizing unit 104 and a voice synthesizing unit 105 that outputs voice to the outside by voice synthesis.

【0021】図2は、本実施形態のナビゲーション装置
を身につけたユーザーの視界を示す概念図であり、本例
では、同図2に示すように、ユーザーの前方には三角形
のビル群(Aビル,Bビル,Cビル,Dビル,Eビル)
が見えているものとする。
FIG. 2 is a conceptual diagram showing the field of view of a user wearing the navigation device of the present embodiment. In this example, as shown in FIG. Building, Building B, Building C, Building D, Building E)
Is visible.

【0022】また、図3には、ユーザーの上空から見た
ユーザーの視線位置と方向が図示されている。この図3
において、Siは、地球上の空間領域または空間を分割
する3次元平面Siを表している。空間領域Siの中
に、地球上の物体を特徴づける点が一定数(例えば10
0個以上)存在すれば、空間領域Siを、空間領域Si
0 と空間領域Si1 とに分割する。
FIG. 3 shows the position and direction of the user's line of sight as viewed from above. This figure 3
In the above, Si represents a spatial region on the earth or a three-dimensional plane Si that divides the space. A certain number of points (for example, 10
0 or more), the spatial region Si is
It is divided into 0 and a space area Si1.

【0023】空間領域Si0 は、空間領域Siの中で
(Vi・X−Wi≧0)を満たす領域であり、空間領域
Si1は、空間領域Siの中で(Vi・X−Wi<0)
を満たす領域である。空間の分割は、各空間領域Siの
中の、地球上の物体を特徴づける点が一定数(例えば1
00個)以下になるまで行なわれる。
The space area Si0 is an area satisfying (Vi.X-Wi≥0) in the space area Si, and the space area Si1 is (Vi.X-Wi <0) in the space area Si.
Is the region that satisfies In the division of the space, a certain number of points (for example, one
00) or less.

【0024】また、空間の分割は、地球上の物体の密集
度が高い所では細かく、密集度が低い所では粗く行な
う。
The space is divided finely in places where the density of objects on the earth is high, and coarsely in places where the density is low.

【0025】図4には、図3に示した地球上の物体が、
地図データ記憶部104中の領域データベースに登録さ
れている様子を示す。
FIG. 4 shows an object on the earth shown in FIG.
The state registered in the area database in the map data storage unit 104 is shown.

【0026】ここで、Siが非終端ノードの場合には、
ノードSiには平面(Vi・X−Wi=0)を特徴づけ
る値(Vi,Wi)が登録されている。Siが終端ノー
ドの場合は、ノードSiにはその領域内に存在する物体
を特徴づける点の3次元位置座標が登録されている(図
4)。
Here, when Si is a non-terminal node,
Values (Vi, Wi) characterizing the plane (Vi.X-Wi = 0) are registered in the node Si. When Si is a terminal node, the three-dimensional position coordinates of points characterizing an object existing in the region are registered in the node Si (FIG. 4).

【0027】図5は、図4の領域データベースに登録さ
れている各点が、地球上の如何なる物体を構成するもの
であるかを示す座標データベースを示す図であり、座標
をキーにして名称を検索することができる。座標データ
ベースは、地図データ記憶部104の中にある。
FIG. 5 is a diagram showing a coordinate database which indicates what kind of object on the earth each point registered in the area database of FIG. 4 is. Can be searched. The coordinate database is in the map data storage unit 104.

【0028】図6は、物体の名称に対して、その物体の
外形の形状の三角形のパッチの集合を登録した属性デー
タベースを示す図である。
FIG. 6 is a diagram showing an attribute database in which a set of triangular patches having the shape of the outline of the object is registered for the name of the object.

【0029】属性データベースには、物体の説明等も記
憶されており、地図データ記憶部104中に存在する。
The attribute database also stores descriptions of objects and the like, and exists in the map data storage unit 104.

【0030】図7は、本実施形態の処理を示すフローチ
ャートである。この図7を参照しつつ、本実施形態の動
作を説明する。なお、このフローチャートにおける処理
は制御部103において行なわれる。
FIG. 7 is a flowchart showing the processing of this embodiment. The operation of the present embodiment will be described with reference to FIG. Note that the processing in this flowchart is performed by the control unit 103.

【0031】まず、ステップS701において、ユーザ
ーの位置とユーザー視線方向を求める。ユーザー位置検
出部101では、GPS等の公知の方法により4個の人
工衛星からの電波の情報を用いて、ユーザーの地球上に
おける3次元位置座標と時刻を求める。
First, in step S701, the position of the user and the direction of the user's line of sight are determined. The user position detecting unit 101 obtains the three-dimensional position coordinates and time of the user on the earth by using information of radio waves from four artificial satellites by a known method such as GPS.

【0032】このとき、求めた時刻での、ユーザーの地
球上における3次元位置座標をOとする。ここでは、G
PSによってユーザー位置を検出するが、この方法では
数10mの誤差が存在するので、DGPSによってユー
ザー位置を検出すれば、誤差は数cm以下になる。な
お、地上に固定したアンテナ等を用いて位置を検出して
も良い。さらに、その他の位置検出方法を用いても良
い。
At this time, the three-dimensional position coordinate of the user on the earth at the obtained time is represented by O. Here, G
Although the user position is detected by the PS, an error of several tens of meters is present in this method. Therefore, if the user position is detected by the DGPS, the error becomes several cm or less. The position may be detected using an antenna fixed on the ground or the like. Further, other position detection methods may be used.

【0033】ユーザー視線方向検出部102では、ユー
ザー視線方向の単位べクトルnを求める。なお、ユーザ
ーの視線方向はいかなる方法で求めても良い。
The user line-of-sight direction detection unit 102 obtains a unit vector n in the user line-of-sight direction. Note that the direction of the user's line of sight may be obtained by any method.

【0034】次に、ステップS702において、ユーザ
ーの見ている物体が地球上のどの方向に存在するのかを
求める。ここでは、 Q=O+k・n k>0 を満たす半直線Q上に、ユーザーが見ている物体が存在
する。
Next, in step S702, it is determined in which direction on the earth the object the user is looking at exists. Here, an object that the user is looking at exists on a half line Q that satisfies Q = O + k · nk> 0.

【0035】以下のステップにおいては、ユーザーが見
ている物体の属性を取り出す方法を説明する。
In the following steps, a method for extracting the attributes of the object viewed by the user will be described.

【0036】まず、ステップS703において、領域デ
ータベース中で、ユーザーの位置Oがどの領域に存在す
るのかを検索する。図8に示すように、平面Sに関して
は、(V・O−W<0)なので、ユーザーはS1 領域に
存在する。平面S1 に関しては、(V1・O−W1>
0)なので、ユーザーはS10領域に存在する。平面S10
に関しては、(V10・O一W10≧0)なので、ユーザー
はS100 領域に存在する。
First, in step S703, a search is made in the area database to find in which area the position O of the user exists. As shown in FIG. 8, regarding the plane S, since (V.OW <0), the user exists in the S1 area. Regarding the plane S1, (V1 · OW1>
0), the user is in the S10 area. Plane S10
Since (V10 · O-W10 ≧ 0), the user exists in the S100 area.

【0037】また、平面S100 に関しては、(V100・
O一W100 ≧0)なので、ユーザーはS1000側領域に存
在する。平面S1000に関しては、(V1000・O一W1000
≧0)なので、ユーザーはS10000 領域に存在する。領
域S10000 は終端ノードなので(図4)ユーザーの位置
が求められたことになる。領域S10000 を最初の検索領
域とする。
As for the plane S100, (V100 ·
Since O-W100 ≧ 0), the user exists in the area on the S1000 side. Regarding the plane S1000, (V1000 · O-W1000
.Gtoreq.0), the user exists in the S10000 area. Since the area S10000 is the terminal node (FIG. 4), the position of the user has been determined. The area S10000 is the first search area.

【0038】次に、ステップS704において、検索領
域内に半直線Qと交わる物体が存在するか否かを判定す
る。領域S10000 内に半直線Qと交わる物体は存在しな
い(図4)から、ステップS705へ移り、次の検索領
域を求める。
Next, in step S704, it is determined whether or not an object that intersects the half line Q exists in the search area. Since there is no object that intersects the half line Q in the area S10000 (FIG. 4), the process proceeds to step S705 to find the next search area.

【0039】領域S10000 の兄弟領域S10001 は、半直
線Qと交わらないから、領域S1000内に半直線Qと交わ
る物体は存在しない。領域S1000の兄弟領域S1001は、
半直線Qと交わらないから、領域S100 内に半直線Qと
交わる物体は存在しない。
Since the sibling area S10001 of the area S10000 does not intersect with the half line Q, no object intersects with the half line Q in the area S1000. The sibling area S1001 of the area S1000 is
Since it does not intersect with the half line Q, no object intersects with the half line Q in the area S100.

【0040】領域S100 の兄弟領域S101 は、半直線Q
と交わるから、領域S101 内に半直線Qと交わる物体は
存在し得る。領域S101 の子領域S1010は、半直線Qと
交わるから、半直線Qと交わる物体は存在し得るが、子
領域S1011は、半直線Qと交わらないから、半直線Qと
交わる物体は存在しない。
The sibling area S101 of the area S100 has a half-line Q
Therefore, an object that intersects with the half line Q may exist in the area S101. Since the child region S1010 of the region S101 intersects with the half line Q, there may exist an object which intersects with the half line Q. However, since the child region S1011 does not intersect with the half line Q, there is no object which intersects with the half line Q.

【0041】領域S1010の子領域S10100 とS10101
は、半直線Qと交わるが、領域S10101 の方がカメラの
位置Oに近いので、領域S10101 を次の検索領域とす
る。ここで、領域データベース(図4)から、領域S10
101 内に登録されている全ての点の3次元座標を取り出
す。ここでは、点B1,B2,B3,B4が取り出され
る。これらの各座標をキーとして、座標データベース
(図5)を検索し、これらの点が含まれる物体の名称を
取り出す。ここでは、名称「Bビル」が取り出される。
The child areas S10100 and S10101 of the area S1010
Intersects the half line Q, but since the area S10101 is closer to the camera position O, the area S10101 is set as the next search area. Here, the area S10 is obtained from the area database (FIG. 4).
The three-dimensional coordinates of all points registered in 101 are extracted. Here, points B1, B2, B3, and B4 are extracted. The coordinate database (FIG. 5) is searched using each of these coordinates as a key, and the name of the object including these points is extracted. Here, the name “B Building” is extracted.

【0042】次に名称「Bビル」をキーとして、属性デ
ータベース(図6)を検索し、「Bビル」の形状を示す
三角形のパッチデータ(B1,B2,B3),(B1,
B2,B4),(B1,B4,B3),(B4,B2,
B3)を取り出し、これらの三角形が半直線Qと交わる
か否かを調べる。ここでは、これらの三角形が半直線Q
と交わらないので(図8)、ステップS705へ移り、
次の検索領域を求める。
Next, the attribute database (FIG. 6) is searched using the name "B Building" as a key, and triangular patch data (B1, B2, B3), (B1,
B2, B4), (B1, B4, B3), (B4, B2,
B3) is taken out and it is checked whether or not these triangles intersect with the half line Q. Here, these triangles are represented by a half line Q
(FIG. 8), the process proceeds to step S705.
Find the next search area.

【0043】領域S10101 の兄弟領域S10100 は、半直
線Qと交わるから、次の検索領域とする。ここで、領域
データベース(図4)から、領域S10100 内に登録され
ている全ての点の3次元座標を取り出す。ここでは、点
D1,D2,D4が取り出される。これらの各座標をキ
ーとして、座標データベース(図5)を検索しこれらの
点が含まれる物体の名称を取り出す。ここでは、名称
「Dビル」が取り出される。
Since the sibling area S10100 of the area S10101 intersects the half line Q, it is set as the next search area. Here, the three-dimensional coordinates of all the points registered in the area S10100 are extracted from the area database (FIG. 4). Here, points D1, D2, and D4 are extracted. Using these coordinates as keys, a coordinate database (FIG. 5) is searched to extract the name of the object including these points. Here, the name “D building” is extracted.

【0044】次に名称「Dビル」をキーとして、属性デ
ータベース(図6)を検索し、「Dビル」の形状を示す
三角形のパッチデータ(D1,D2,D3),(D1,
D2,D4),(D1,D4,D3),(D4,D2,
D3)を取り出し、これらの三角形が判直線Qと交わる
かどうかを調べる。ここでは、三角形(D1,D2,D
4),(D1,D3,D4)が判直線Qと交わるので
(図8)、カメラの位置Oに近い方の三角形(D1,D
2,D4)と半直線Qとの交点、すなわち、k(>0)
の値を求める。
Next, the attribute database (FIG. 6) is searched using the name “D building” as a key, and triangular patch data (D1, D2, D3), (D1,
D2, D4), (D1, D4, D3), (D4, D2,
D3) is taken out, and it is checked whether or not these triangles intersect with the judgment line Q. Here, the triangles (D1, D2, D
4), (D1, D3, D4) intersect with the decision line Q (FIG. 8), so that the triangle (D1, D3) closer to the camera position O
2, D4) and the half line Q, that is, k (> 0)
Find the value of

【0045】次に、ステップS706に移り、ユーザー
の見ている物体「Dビル」に関する情報が取り出され、
「Dビルです。日本で一番高い。高さ500m。」と音
声合成部105によって音声出力される。ここでは、ユ
ーザーの視線方向は、各時刻における瞬間値としている
が、ある一定時間(例えば1秒間)における平均値を用
いても良い。また、ユーザーの視線方向が、ある一定時
間(例えば3秒)の間に一定回数(例えば2回)以上、
特定の物体の三角形のパッチデータと交わるならば、ユ
ーザーがその物体を見ていると判断しても良い。
Next, the process proceeds to step S706, in which information relating to the object "D building" viewed by the user is extracted.
The voice is output by the voice synthesis unit 105 as "D building. The tallest in Japan. The height is 500 m." Here, the gaze direction of the user is an instantaneous value at each time, but an average value over a certain period of time (for example, one second) may be used. In addition, the direction of the user's line of sight is not less than a certain number of times (for example, twice) during a certain time (for example, 3 seconds),
If it intersects with the patch data of the triangle of the specific object, it may be determined that the user is looking at the object.

【0046】また、上記実施形態では、ユーザーの見て
いる物体が何であるかを正確に求めていたが、ユーザー
の位置とユーザーの視線方向のおおまかな値を用いて、
「そちらは横浜方面です」のようにおおまかなナビゲー
ンョンを行ってもよい。
Further, in the above embodiment, what exactly the user is looking at is determined. However, using the approximate values of the user's position and the user's line of sight,
You may do a rough navigation like "You're going to Yokohama".

【0047】[0047]

【発明の効果】以上説明したように、第1の発明である
音声合成によるナビゲーション装置によれば、ユーザー
に音声でナビゲーションするので、ディスプレイなどの
表示装置がなくても、ユーザーは自分の見ている物体に
ついての情報を容易に確認することができる。
As described above, according to the navigation apparatus using speech synthesis according to the first aspect of the present invention, navigation is performed by voice to the user. It is possible to easily confirm information about the object that is present.

【0048】第2の発明である音声合成によるナビゲー
ション装置によれば、上記第1の発明において、ユーザ
ーは自分の見ている物体についての情報を、正確に知る
ことができる。
According to the navigation apparatus using speech synthesis according to the second aspect of the present invention, in the first aspect, the user can accurately know information on the object he is looking at.

【0049】第3の発明である音声合成によるナビゲー
ション装置によれば、上記第2の発明において、ユーザ
ーは自分の見ている物体についての情報を、より正確に
知ることができる。
According to the navigation apparatus using speech synthesis according to the third aspect of the present invention, in the second aspect, the user can more accurately know information about the object he is looking at.

【0050】第4の発明である音声合成によるナビゲー
ション装置によれば、上記第2または第3の発明におい
て、ユーザーは自分の見ている物体についての情報を、
より正確に知ることができる。
According to the navigation apparatus using speech synthesis according to the fourth invention, in the second or third invention, the user can obtain information on an object which the user is looking at,
You can know more accurately.

【0051】第5の発明である音声合成によるナビゲー
ション装置によれば、上記第1乃至第4の発明におい
て、上記効果と同等の効果を有するほか、ユーザーの位
置を簡単且つ正確に検出することができる。
According to the navigation apparatus using speech synthesis according to the fifth aspect of the present invention, in addition to the same effects as those of the first to fourth aspects, it is possible to simply and accurately detect the position of the user. it can.

【0052】第6の発明である音声合成によるナビゲー
ション装置によれば、上記第1乃至第4の発明におい
て、上記効果と同等の効果を有するほか、ユーザーの位
置を簡単に検出することができる。
According to the navigation apparatus using speech synthesis according to the sixth aspect of the present invention, in addition to the same effects as those of the first to fourth aspects, the position of the user can be easily detected.

【0053】第7の発明である音声合成によるナビゲー
ション方式によれば、上記第1の発明と同等の効果を奏
する。
According to the navigation system using the speech synthesis according to the seventh invention, the same effect as that of the first invention can be obtained.

【0054】第8の発明である音声合成によるナビゲー
ション方式によれば、上記第7の発明において、上記第
2の発明と同等の効果を奏する。
According to the navigation system using the speech synthesis according to the eighth invention, the same effect as in the second invention can be obtained in the seventh invention.

【0055】第9の発明である音声合成によるナビゲー
ション方式によれば、上記第8の発明において、上記第
3の発明と同等の効果を奏する。
According to the ninth aspect of the present invention, the navigation system using voice synthesis has the same advantages as the third aspect of the present invention.

【0056】第10の発明である音声合成によるナビゲ
ーション方式によれば、上記第8または第9の発明にお
いて、上記第4の発明と同等の効果を奏する。
According to the tenth invention, which is a navigation system using voice synthesis, the eighth or ninth invention has the same effect as the fourth invention.

【0057】第11の発明である音声合成によるナビゲ
ーション方式によれば、上記第7乃至第10の発明にお
いて、上記第5の発明と同等の効果を奏する。
According to the navigation system using speech synthesis according to the eleventh aspect, the same effects as those of the fifth aspect can be obtained in the seventh to tenth aspects.

【0058】第12の発明である音声合成によるナビゲ
ーション方式によれば、上記第7乃至第10の発明にお
いて、上記第6の発明と同等の効果を奏する。
According to the twelfth invention, which is a navigation system using speech synthesis, the seventh to tenth aspects have the same effect as the sixth aspect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態に係る音声合成によるナ
ビゲーション装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a navigation device using voice synthesis according to an embodiment of the present invention.

【図2】ユーザーの視界を示す概念図である。FIG. 2 is a conceptual diagram illustrating a field of view of a user.

【図3】ユーザーの位置と視線方向を示す図である。FIG. 3 is a diagram illustrating a position and a line-of-sight direction of a user.

【図4】領域データベースを示す図である。FIG. 4 is a diagram showing an area database.

【図5】座標データベースを示す図である。FIG. 5 is a diagram showing a coordinate database.

【図6】属性データベースを示す図である。FIG. 6 is a diagram showing an attribute database.

【図7】実施形態の動作を示すフローチャートである。FIG. 7 is a flowchart illustrating the operation of the embodiment.

【図8】ユーザーの位置と視線方向を示す図である。FIG. 8 is a diagram showing a position and a line-of-sight direction of a user.

【符号の説明】[Explanation of symbols]

101 ユーザー位置検出部 102 ユーザー視線方向検出部 103 制御部 104 地図データ記憶部 105 音声合成部 Reference Signs List 101 User position detection unit 102 User gaze direction detection unit 103 Control unit 104 Map data storage unit 105 Voice synthesis unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 各時刻の地球上におけるユーザーの位置
を検出するユーザー位置検出部と、 前記ユーザー位置検出部によって検出された位置でのユ
ーザーの視線方向を検出するユーザー視線方向検出部
と、 地球上の物体の地図データが記憶された地図データ記憶
部と、 音声合成によって外部に音声を出力する音声合成部と、 前記ユーザー視線方向検出部で検出されたユーザの視線
方向に存在する物体を前記地図データ記憶部中のデータ
を参照して求め、その物体の属性データを前記音声合成
部によって音声出力すべく制御を行う制御部とを備えた
ことを特徴とする音声合成によるナビゲーション装置。
1. A user position detecting unit for detecting a position of a user on the earth at each time, a user gaze direction detecting unit for detecting a gaze direction of a user at a position detected by the user position detecting unit, A map data storage unit in which map data of the above object is stored, a voice synthesis unit that outputs voice to the outside by voice synthesis, and an object existing in the user's line of sight detected by the user's line of sight detection unit. A control unit for obtaining the attribute data of the object by referring to the data in the map data storage unit and performing control so as to output the attribute data of the object by the voice synthesis unit.
【請求項2】 前記地図データ記憶部は、 地球上の空間領域または空間を分割する3次元平面にお
いて該空間領域に存在する物体を特徴づける点の3次元
位置座標が登録された領域データベースと、 前記領域データベースに登録されている物体を特徴づけ
る各点が、地球上の如何なる物体を構成するものである
かを示す物体識別データが登録された座標データベース
と、 前記座標データベース中の物体識別データに対応して前
記属性データが登録された属性データベースとを有する
ことを特徴とする請求項1記載の音声合成によるナビゲ
ーション装置。
2. The map data storage unit includes: an area database in which three-dimensional position coordinates of points characterizing an object existing in the space area on a space area on the earth or a three-dimensional plane dividing the space are registered; Each point characterizing an object registered in the area database, a coordinate database in which object identification data indicating what constitutes an object on the earth is registered, and in the object identification data in the coordinate database 2. The navigation apparatus according to claim 1, further comprising: an attribute database in which the attribute data is registered correspondingly.
【請求項3】 前記3次元平面について地球上の空間の
分割は、各空間領域に存在する地球上の物体を特徴づけ
る点が一定数以下になるまで行うことを特徴とする請求
項2記載の音声合成によるナビゲーション装置。
3. The method according to claim 2, wherein the division of the space on the earth with respect to the three-dimensional plane is performed until the number of points characterizing the object on the earth existing in each space region becomes equal to or less than a certain number. Navigation device using voice synthesis.
【請求項4】 前記3次元平面について地球上の空間の
分割は、地球上の物体の密集度が高い所では細かく、密
集度が低い所では粗く行うことを特徴とする請求項2ま
たは請求項3記載の音声合成によるナビゲーション装
置。
4. The method according to claim 2, wherein the division of the space on the earth in the three-dimensional plane is performed finely in a place where the density of objects on the earth is high and coarsely in a place where the density is low. 3. A navigation device using voice synthesis according to 3.
【請求項5】 前記ユーザー位置検出部は、衛星からの
電波情報を参照して、ユーザーの位置を検出する構成と
したことを特徴とする請求項1乃至請求項4記載の音声
合成によるナビゲーション装置。
5. The navigation apparatus according to claim 1, wherein the user position detecting section detects the position of the user by referring to radio wave information from a satellite. .
【請求項6】 前記ユーザー位置検出部は、地上に固定
したアンテナからの電波情報を参照して、ユーザーの位
置を検出する構成としたことを特徴とする請求項1乃至
請求項4記載の音声合成によるナビゲーション装置。
6. The voice according to claim 1, wherein the user position detecting section detects the position of the user by referring to radio wave information from an antenna fixed on the ground. Navigation device by synthesis.
【請求項7】 地球上の物体の地図データが記憶された
地図データ記憶手段を予め用意しておき、 各時刻の地球上におけるユーザーの位置を検出するユー
ザー位置検出処理と、前記ユーザー位置検出処理によっ
て検出された位置でのユーザーの視線方向を検出するユ
ーザー視線方向検出処理とを行い、 前記ユーザー視線方向検出処理で検出されたユーザの視
線方向に存在する物体を、前記地図データ記憶部中のデ
ータを参照して求め、その物体の属性データを音声合成
によって音声出力することを特徴とする音声合成による
ナビゲーション方式。
7. A map data storage means in which map data of an object on the earth is stored in advance, a user position detecting process for detecting a position of the user on the earth at each time, and said user position detecting process. Performing a user gaze direction detection process of detecting the user's gaze direction at the position detected by the user, the object existing in the user's gaze direction detected in the user gaze direction detection process, the object in the map data storage unit A voice-synthesis navigation method characterized in that the data is obtained by referring to data, and the attribute data of the object is output as voice by voice synthesis.
【請求項8】 前記地図データ記憶手段は、 地球上の空間領域または空間を分割する3次元平面にお
いて該空間領域に存在する物体を特徴づける点の3次元
位置座標が登録された領域データベースと、 前記領域データベースに登録されている物体を特徴づけ
る各点が、地球上の如何なる物体を構成するものである
かを示す物体識別データが登録された座標データベース
と、 前記座標データベース中の物体識別データに対応して前
記属性データが登録された属性データベースとを有する
ことを特徴とする請求項7記載の音声合成によるナビゲ
ーション方式。
8. The map data storage means includes: an area database in which three-dimensional position coordinates of points characterizing an object existing in the space area or a three-dimensional plane dividing the space on the earth are registered; Each point characterizing an object registered in the area database, a coordinate database in which object identification data indicating what constitutes an object on the earth is registered, and in the object identification data in the coordinate database 8. The navigation system according to claim 7, further comprising an attribute database in which the attribute data is registered.
【請求項9】 前記3次元平面について地球上の空間の
分割は、各空間領域に存在する地球上の物体を特徴づけ
る点が一定数以下になるまで行うことを特徴とする請求
項8記載の音声合成によるナビゲーション方式。
9. The method according to claim 8, wherein the division of the space on the earth with respect to the three-dimensional plane is performed until the number of points characterizing the object on the earth existing in each space region becomes equal to or smaller than a certain number. Navigation system using speech synthesis.
【請求項10】 前記3次元平面について地球上の空間
の分割は、地球上の物体の密集度が高い所では細かく、
密集度が低い所では粗く行うことを特徴とする請求項8
または請求項9記載の音声合成によるナビゲーション方
式。
10. The division of the space on the earth with respect to the three-dimensional plane is fine in places where the density of objects on the earth is high,
9. The method according to claim 8, wherein the step is performed roughly in a place where the density is low.
10. A navigation system using voice synthesis according to claim 9.
【請求項11】 前記ユーザー位置検出処理は、衛星か
らの電波情報を参照して、ユーザーの位置を検出するこ
とを特徴とする請求項7乃至請求項10記載の音声合成
によるナビゲーション方式。
11. The navigation system using voice synthesis according to claim 7, wherein the user position detection process detects a user position with reference to radio wave information from a satellite.
【請求項12】 前記ユーザー位置検出処理は、地上に
固定したアンテナからの電波情報を参照して、ユーザー
の位置を検出することを特徴とする請求項7乃至請求項
10記載の音声合成によるナビゲーション方式。
12. The navigation by voice synthesis according to claim 7, wherein the user position detecting process detects the position of the user by referring to radio wave information from an antenna fixed on the ground. method.
JP33141596A 1996-11-28 1996-11-28 Navigation apparatus by speech synthesis and navigation system by speech synthesis Pending JPH10160503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33141596A JPH10160503A (en) 1996-11-28 1996-11-28 Navigation apparatus by speech synthesis and navigation system by speech synthesis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33141596A JPH10160503A (en) 1996-11-28 1996-11-28 Navigation apparatus by speech synthesis and navigation system by speech synthesis

Publications (1)

Publication Number Publication Date
JPH10160503A true JPH10160503A (en) 1998-06-19

Family

ID=18243428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33141596A Pending JPH10160503A (en) 1996-11-28 1996-11-28 Navigation apparatus by speech synthesis and navigation system by speech synthesis

Country Status (1)

Country Link
JP (1) JPH10160503A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1378724A1 (en) * 2002-07-01 2004-01-07 Mazda Motor Corporation Route guidance system based on visual activity of the driver

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1378724A1 (en) * 2002-07-01 2004-01-07 Mazda Motor Corporation Route guidance system based on visual activity of the driver

Similar Documents

Publication Publication Date Title
US7613331B2 (en) Recording medium storing map information, map information processing device, map information processing system, map information processing method, map information processing program and recording medium storing the map information processing program
US6401035B2 (en) Method and system for a real-time distributed navigation system
JP4198513B2 (en) MAP INFORMATION PROCESSING DEVICE, MAP INFORMATION PROCESSING SYSTEM, POSITION INFORMATION DISPLAY DEVICE, ITS METHOD, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US9097553B2 (en) Navigation based on direction of travel/user-defined path
EP1530026B1 (en) Traffic-condition notifying device, system and method
US20110010085A1 (en) Navigation device, program for the same and method for indicating information of the same
Joshi A new approach to map matching for in-vehicle navigation systems: the rotational variation metric
US7418341B2 (en) System and method for the selection of a unique geographic feature
US20060142943A1 (en) Navigation service method and terminal of enabling the method
EP1096232A2 (en) Apparatus and method for displaying a map
US20100029293A1 (en) Navigation system using camera
US8862392B2 (en) Digital map landmarking system
CN104584094B (en) Location estimation method and system
US6591190B2 (en) Navigation system
CN110967018B (en) Parking lot positioning method and device, electronic equipment and computer readable medium
US8494769B2 (en) Information system, terminal device, and information center device
JPH0712582A (en) Method and system for route searching
JP2007298301A (en) Map display device
US6459987B1 (en) Method and apparatus for backtracking a path
WO2002091014A2 (en) A gps based terrain referenced navigation system
Joshi Novel metrics for map-matching in in-vehicle navigation systems
JPH11288341A (en) Device and method for navigation
EP3647820A1 (en) Method, apparatus, and computer program product for establishing location
JP2010164492A (en) Navigation apparatus and navigation system
JPH10160503A (en) Navigation apparatus by speech synthesis and navigation system by speech synthesis