JP2002005675A - Acoustic navigation apparatus - Google Patents

Acoustic navigation apparatus

Info

Publication number
JP2002005675A
JP2002005675A JP2000181441A JP2000181441A JP2002005675A JP 2002005675 A JP2002005675 A JP 2002005675A JP 2000181441 A JP2000181441 A JP 2000181441A JP 2000181441 A JP2000181441 A JP 2000181441A JP 2002005675 A JP2002005675 A JP 2002005675A
Authority
JP
Japan
Prior art keywords
navigation
sound source
acoustic
distance
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000181441A
Other languages
Japanese (ja)
Inventor
Toru Abe
亨 阿部
Haruka Nakakane
晴香 中兼
Noriko Hagiwara
紀子 萩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000181441A priority Critical patent/JP2002005675A/en
Publication of JP2002005675A publication Critical patent/JP2002005675A/en
Pending legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)
  • Stereophonic System (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To prevent courses which are not easy to understand from being guided at intersections, etc. SOLUTION: Based on the present position information and route information, navigation is executed by controlling to position a sound source to a prescribed distance from the present position while sequentially updating a navigation point, e.g. the intersection or the like. A navigation control part 2 calculates a distance D from the present position to the present navigation point (step S6 in Fig. 7). When the calculated distance is smaller than a predetermined threshold ('NO' in S7), the position of the sound source is moved toward a next navigation point from the present navigation point (S9). A head rotation angle-detecting part 13 detects a head rotation angle Z in the advance direction of the head of a human user 100, with a headphone 14 fitted for outputting acoustic signals of the sound source to both ears 101 and 102, and the navigation control part 2 makes corrections, on the basis of the detected head rotation angle Z the position of the sound source to be moved (S5).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音源の音響信号を
用いてナビゲーションを行う音響ナビゲーション装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an acoustic navigation device for performing navigation using an acoustic signal of a sound source.

【0002】[0002]

【従来の技術】従来の歩行者用のナビゲーションシステ
ムは、携帯端末上に地図を表示し、利用者に目的地まで
の経路を示すものであった。しかしながら、この手法で
ナビゲーションを行うと、携帯端末を持ちつづけるので
手が空かなくなり、頻繁に地図を見なければならないの
で、視界が遮られるといった利用者にとっての不都合が
あった。その解決方法として、ナビゲーション情報を音
声で読み上げるという手法が提案されている。しかしな
がら、従来の音声によるナビゲーションシステムは目的
地までの距離や方向を言語によって表し、それを音声化
するものであった。従って、利用者への指示は文章の読
み上げとなり、距離感や方向を感覚的に感じることが困
難であった。
2. Description of the Related Art A conventional pedestrian navigation system displays a map on a portable terminal to show a user a route to a destination. However, if navigation is performed by this method, the user will not be able to stay empty because he or she keeps holding the mobile terminal, and the user must frequently look at the map. As a solution, a method of reading out navigation information aloud has been proposed. However, the conventional voice navigation system expresses a distance and a direction to a destination in a language and converts it into a voice. Therefore, the instruction to the user is read out of the sentence, and it is difficult to sense the sense of distance and direction.

【0003】これを解決するために、特開平7−103
781号公報(以下、従来例という。)においては、仮
想音源をユーザが乗車した車両の位置から所定進路上に
沿って車両から離れる方向に移動させるものとし、立体
音上で進路案内を行うようにしている。具体的には、現
在位置から目的地までの進路を決定した後、進路上の複
数の地点に仮想音源を設定し、当該仮想音源に沿って進
行方向に移動させるように音声出力を制御している。ユ
ーザである運転者は移動する音源についてゆく形で走行
することにより、違和感の無い自然でかつ確実な進路誘
導がなされるという効果を有していた。
In order to solve this problem, Japanese Patent Application Laid-Open No. 7-103
In Japanese Patent No. 781 (hereinafter, referred to as a conventional example), a virtual sound source is moved in a direction away from the vehicle along a predetermined route from the position of the vehicle on which the user has boarded, and the route guidance is performed on three-dimensional sound. I have to. Specifically, after determining the course from the current position to the destination, the virtual sound source is set at a plurality of points on the course, and the sound output is controlled so as to move in the traveling direction along the virtual sound source. I have. The driver, who is the user, travels in a manner following the moving sound source, and has an effect that natural and reliable route guidance without a sense of incongruity is performed.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来例
では、ユーザとナビゲーションをするための音源の位置
を一定距離以上離していたので、図9の(b)から
(c)に示すように、交差点200での旋回時には、音
源が先行してしまい、音源が授聴者よりも早く交差点を
旋回していた。これにより、交差点の角に建築物があっ
た場合などに、建物がある方向から音像を定位させた音
が聞こえるため、ユーザにとってはきわめてわかりにく
い進路誘導がなされるという問題点があった。
However, in the prior art, the position of the sound source for navigating with the user is separated by a certain distance or more. Therefore, as shown in FIGS. When turning at 200, the sound source was ahead and the sound source was turning at the intersection earlier than the listener. As a result, when a building is located at the corner of an intersection or the like, a sound in which the sound image is localized from the direction in which the building is located can be heard, so that there is a problem that route guidance that is extremely difficult for the user to understand is made.

【0005】また、音響ナビゲーション装置からの音響
信号をユーザに装着されたヘッドホンを介して出力する
場合、ユーザの頭部の回転により、音源の位置が進行す
べき方向からずれるという問題点があった。
[0005] In addition, when an acoustic signal from an acoustic navigation device is output through headphones mounted on the user, there is a problem that the position of the sound source is shifted from the direction in which the sound should travel due to the rotation of the user's head. .

【0006】本発明の第1の目的は以上の問題点を解決
し、交差点などにおいてわかりにくい進路誘導がなされ
ることを防止することができる音響ナビゲーション装置
を提供することにある。
A first object of the present invention is to solve the above-mentioned problems and to provide an acoustic navigation device capable of preventing unintelligible route guidance at an intersection or the like.

【0007】また、本発明の第2の目的は以上の問題点
を解決し、ユーザの頭部の回転により、音源の位置が進
行すべき方向からずれることを防止することができる音
響ナビゲーション装置を提供することにある。
A second object of the present invention is to solve the above-mentioned problems, and to provide an acoustic navigation device capable of preventing the position of a sound source from deviating from the direction in which the sound should travel due to the rotation of the user's head. To provide.

【0008】[0008]

【課題を解決するための手段】本発明に係る音響ナビゲ
ーション装置は、現在位置情報及び経路情報に基づいて
ナビゲーションポイントを逐次更新しながら、現在位置
から所定の距離に音源が位置するように制御してナビゲ
ーションを行う音響ナビゲーション装置において、現在
位置と現在のナビゲーションポイントまでの距離を演算
する演算手段と、上記演算された距離が所定のしきい値
未満であるときは、現在のナビゲーションポイントから
次のナビゲーションポイントに進んでゆくように音源の
位置を移動させる制御手段とを備えたことを特徴とす
る。
An acoustic navigation device according to the present invention controls a sound source to be located at a predetermined distance from a current position while sequentially updating a navigation point based on current position information and route information. In an acoustic navigation device that performs navigation by means of: a calculating means for calculating a distance between a current position and a current navigation point, and when the calculated distance is less than a predetermined threshold value, Control means for moving the position of the sound source so as to proceed to the navigation point.

【0009】また、上記音響ナビゲーション装置におい
て、好ましくは、上記音源の音響信号を人間の両耳に出
力するヘッドホンと、上記ヘッドホンが装着された人間
の頭部の、進行方向に対する回転角を検出する検出手段
とを備え、上記制御手段は、上記検出された回転角に基
づいて、上記移動させる音源の位置を補正することを特
徴とする。
In the acoustic navigation device, preferably, a headphone for outputting the sound signal of the sound source to both ears of a human and a rotation angle of a head of the human wearing the headphone with respect to a traveling direction are detected. Detecting means, wherein the control means corrects the position of the moving sound source based on the detected rotation angle.

【0010】さらに、上記音響ナビゲーション装置にお
いて、好ましくは、上記ナビゲーションポイントは、交
差点を含むことを特徴とする。
[0010] Further, in the acoustic navigation device, preferably, the navigation point includes an intersection.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0012】図1は、本発明に係る一実施形態である音
響ナビゲーション装置の構成を示すブロック図であり、
図2は、図1の音響信号発生回路4の構成を示すブロッ
ク図である。この実施形態に係る音響ナビゲーション装
置は、現在位置情報及び経路情報に基づいて、例えば交
差点などのナビゲーションポイントを逐次更新しなが
ら、現在位置から所定の距離に音源が位置するように制
御してナビゲーションを行う音響ナビゲーション装置に
おいて、ナビゲーション制御部2は、現在位置と次に進
行すべき現在のナビゲーションポイントまでの距離Dを
演算し(図7のステップS6)、上記演算された距離が
所定のしきい値未満であるときは(ステップS7でN
O)、現在のナビゲーションポイントから次のナビゲー
ションポイントに進んでゆくように音源の位置を移動さ
せる(ステップS9)ことを特徴としている。また、当
該音響ナビゲーション装置において、頭部回転角検出部
13は、上記音源の音響信号を人間のユーザ100の両
耳101,102に出力するヘッドホン14が装着され
たユーザ100の頭部の、進行方向に対する頭部回転角
Zを検出し、ナビゲーション制御部2は、上記検出され
た頭部回転角Zに基づいて、上記移動させる音源の位置
を補正する(ステップS5)ことを特徴としている。
FIG. 1 is a block diagram showing the configuration of an acoustic navigation device according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of the acoustic signal generation circuit 4 of FIG. The acoustic navigation device according to this embodiment controls navigation so that the sound source is located at a predetermined distance from the current position while sequentially updating, for example, a navigation point such as an intersection based on the current position information and the route information. In the acoustic navigation device to be performed, the navigation control unit 2 calculates a distance D between the current position and the current navigation point to be advanced next (step S6 in FIG. 7), and the calculated distance is determined by a predetermined threshold value. If it is less than (N in step S7)
O), the position of the sound source is moved so as to proceed from the current navigation point to the next navigation point (step S9). Further, in the acoustic navigation device, the head rotation angle detection unit 13 moves the head of the user 100 equipped with the headphones 14 that outputs the sound signal of the sound source to both ears 101 and 102 of the human user 100. The head rotation angle Z with respect to the direction is detected, and the navigation control unit 2 corrects the position of the sound source to be moved based on the detected head rotation angle Z (step S5).

【0013】なお、本実施形態において、人間であるユ
ーザ100は、図3に示すように、両耳にヘッドホン1
4(左側部14Aと右側部14Bとを備える)を装着し
てナビゲーションのための音源の音響信号を聴取するも
のとする。
In the present embodiment, as shown in FIG. 3, a user 100 who is a human has headphones 1 on both ears.
4 (provided with a left side portion 14A and a right side portion 14B) to listen to an acoustic signal of a sound source for navigation.

【0014】図1において、キーボード11は目的地情
報などの情報を入力してナビゲーション情報生成部1に
出力する入力装置である。なお、目的地情報は、例え
ば、ナビゲーション情報生成部1が地図情報メモリ5内
の地図情報を参照してその画像情報を液晶ディスプレイ
6に表示し、その画面上でペン入力装置又はマウス(図
示せず。)を用いて目的地を指示することにより、目的
地情報を入力してもよい。また、位置情報検出部12
は、グローバルポジショニングシステム(GPSシステ
ム)により、もしくはPHS電話機を用いて最も近い基
地局を特定することにより現在位置を公知の方法で検出
し、検出された現在位置情報をナビゲーション情報生成
部1及びナビゲーション制御部2に出力する。さらに、
頭部回転角検出部13は、公知のレーザ距離検出法を用
いて、図3のユーザ100の左肩からヘッドホン14の
左側部14Aまでの最短距離を検出し、ユーザ100の
右肩からヘッドホン14の右側部14Bまでの最短距離
を検出する一方、頭部の根元付近に装着されたセンサー
を用いて頭部の回転方向(上部から見て右回り又は左回
り)を検出し、検出された2つの最短距離及び頭部の回
転方向に基づいて、ユーザ100が進行する進行方向
(人間であるユーザ100の身体の前後方向を進行方向
とする。)に対する頭部回転角Zを演算して頭部回転角
Zデータをナビゲーション制御部2に出力する。
In FIG. 1, a keyboard 11 is an input device for inputting information such as destination information and outputting the information to the navigation information generator 1. For the destination information, for example, the navigation information generation unit 1 refers to the map information in the map information memory 5 and displays the image information on the liquid crystal display 6, and the pen input device or the mouse (not shown) is displayed on the screen. The destination information may be input by instructing the destination by using (D.). Further, the position information detecting unit 12
Detects the current position by a known method using a global positioning system (GPS system) or by using a PHS telephone to identify the nearest base station, and detects the detected current position information using the navigation information generating unit 1 and the navigation system. Output to the control unit 2. further,
The head rotation angle detection unit 13 detects the shortest distance from the left shoulder of the user 100 in FIG. 3 to the left portion 14A of the headphones 14 using a known laser distance detection method, and detects the headphone 14 from the right shoulder of the user 100. While detecting the shortest distance to the right side portion 14B, the rotation direction of the head (clockwise or counterclockwise when viewed from above) is detected using a sensor attached near the base of the head, and the two detected Based on the shortest distance and the rotation direction of the head, the head rotation angle Z is calculated by calculating the head rotation angle Z with respect to the traveling direction in which the user 100 travels (the forward / backward direction of the body of the user 100, which is a human). The angle Z data is output to the navigation control unit 2.

【0015】ナビゲーション情報生成部1は例えばディ
ジタル計算機で構成され、入力される目的地情報及び現
在位置情報に基づいて、地図情報メモリ5内の地図情報
を参照して、現在位置から目的地までの経路情報(交差
点などのナビゲーションポイントを1つ又は複数含
む。)を生成してナビゲーション制御部2に出力する。
なお、本実施形態において、目的地情報、現在位置情
報、経路情報のナビゲーションポイントの情報は、例え
ば、緯度と経度の位置情報で表されて後述の演算がなさ
れる。また、経路情報はナビゲーション方向を含む場合
もある。
The navigation information generating unit 1 is composed of, for example, a digital computer. The navigation information generating unit 1 refers to the map information in the map information memory 5 based on the inputted destination information and the current position information, and calculates the distance from the current position to the destination. The route information (including one or more navigation points such as an intersection) is generated and output to the navigation control unit 2.
In the present embodiment, the information of the navigation point of the destination information, the current position information, and the route information is represented by, for example, the position information of the latitude and the longitude, and the calculation described later is performed. Also, the route information may include a navigation direction.

【0016】ナビゲーション制御部2は例えばディジタ
ル計算機で構成され、ナビゲーション情報生成部1から
入力される経路情報を、各ナビゲーションポイントにお
いてナビゲーションする情報として処理メモリ3に一時
的に格納し、また、位置情報検出部12から現在位置情
報が入力される一方、頭部回転角検出部13から頭部回
転角Zデータが入力される。ユーザ100が進行する進
行方向Pは、短い時間Δtの間に移動した位置を、位置
情報検出部12から取得し、2点の位置情報(緯度及び
経度)を求めることによって、進行方向Pを特定するこ
とができる。また、ナビゲーション制御部2は、各地点
においてナビゲーションする経路情報を持ち、さらに、
常に位置情報検出部12から現在位置情報と、頭部回転
角検出部13からユーザ100の頭部回転角Zを取得し
ている。本実施形態では、ナビゲーション制御部2は、
取得した現在位置情報と処理メモリ3に格納保持してい
るナビゲーションの経路情報を照合し、その地点におい
て、どのような音響信号を生成するか、すなわち音像を
定位させる方位角Xデータ及び音源Gまでの距離dを決
定して音響信号発生回路4に出力する。ここで、音源G
までの距離dは、現在位置と次に進行すべき現在のナビ
ゲーションポイントまでの距離Dが所定のしきい値Dt
h(例えば、10m)以上であるときは、例えば3mで
ある一定の距離であるが、D<Dthであるときは、交
差点などにおいてわかりにくい進路誘導がなされること
を防止するために、現在のナビゲーションポイントから
次のナビゲーションポイントに進んでゆくように音源の
位置を移動させるように、距離dと方位角Xを変化させ
る(図7のステップS9)。
The navigation controller 2 is composed of, for example, a digital computer, and temporarily stores the route information input from the navigation information generator 1 in the processing memory 3 as information for navigating at each navigation point. While the current position information is input from the detection unit 12, the head rotation angle Z data is input from the head rotation angle detection unit 13. The traveling direction P in which the user 100 travels is obtained by acquiring the position moved during the short time Δt from the position information detecting unit 12 and determining the traveling direction P by obtaining two pieces of positional information (latitude and longitude). can do. The navigation control unit 2 has route information for navigating at each point, and furthermore,
The current position information is always obtained from the position information detection unit 12 and the head rotation angle Z of the user 100 is obtained from the head rotation angle detection unit 13. In the present embodiment, the navigation control unit 2
The acquired current position information is compared with the navigation route information stored and held in the processing memory 3, and at that point, what kind of acoustic signal is to be generated, that is, up to the azimuth angle X data for localizing the sound image and the sound source G Is determined and output to the acoustic signal generation circuit 4. Here, sound source G
The distance d between the current position and the current navigation point to proceed next is determined by a predetermined threshold value Dt.
h (e.g., 10 m) or more, the distance is a fixed distance, e.g., 3 m. However, when D <Dth, in order to prevent unintelligible route guidance at an intersection or the like, The distance d and the azimuth angle X are changed so as to move the position of the sound source so as to move from the navigation point to the next navigation point (step S9 in FIG. 7).

【0017】ここで、ユーザ100が進行方向Pに向か
って進行中であり、ナビゲーションするべき方向は音源
Gがある方向、すなわち進行方向Pに対して角度Yの方
向から音源Gが聞こえるように定位させる場合について
述べる。ユーザ100が進行方向Pに対して正面を向い
ているときは、図5に示すように、ユーザ100のヘッ
ドホン14に出力するために音像Gを定位させる方向角
XはYである。しかしながら、ユーザ100の頭部が進
行方向Pに対して頭部回転角Zだけ回転された方向を向
いているときは、図6に示すように、音像Gを定位させ
る方向角XはY−Zである。上記のように音像Gを定位
させる方向角Xを特定して当該方向角Xデータを音響信
号発生回路4に出力する。
Here, the user 100 is traveling in the traveling direction P, and the navigation direction is such that the sound source G can be heard from the direction in which the sound source G is located, that is, from the direction of the angle Y with respect to the traveling direction P. The following describes a case in which this is performed. When the user 100 is facing the front with respect to the traveling direction P, as shown in FIG. 5, the direction angle X at which the sound image G is localized to be output to the headphones 14 of the user 100 is Y. However, when the head of the user 100 is oriented in a direction rotated by the head rotation angle Z with respect to the traveling direction P, the direction angle X for localizing the sound image G is YZ as shown in FIG. It is. As described above, the direction angle X at which the sound image G is localized is specified, and the direction angle X data is output to the acoustic signal generation circuit 4.

【0018】音響信号発生回路4は、伝達関数演算回路
21と、処理メモリ22と、音源信号発生器23と、音
像信号発生器23と、音像信号発生回路24とを備えて
構成され、ここで、伝達関数演算回路21と音像信号発
生回路24は例えばディジタル計算機で構成される。音
源信号発生器23は、例えば単一の正弦波信号や複数の
周波数を含む音楽信号などの音源Gの音源信号を発生し
て音像信号発生回路24に出力する。
The acoustic signal generation circuit 4 includes a transfer function calculation circuit 21, a processing memory 22, a sound source signal generator 23, a sound image signal generator 23, and a sound image signal generation circuit 24. The transfer function calculation circuit 21 and the sound image signal generation circuit 24 are constituted by, for example, a digital computer. The sound source signal generator 23 generates a sound source signal of the sound source G such as a single sine wave signal or a music signal including a plurality of frequencies, and outputs the signal to the sound image signal generation circuit 24.

【0019】音響信号発生回路4においては、指定され
た方向角Xから音源Gが聞こえるようにヘッドホン14
に出力する音響信号の音源Gを定位させるために、図3
に示すように、ナビゲーションするときの概ねすべての
位置を網羅する音源Gの複数の位置(音源Gまでの距離
dと方位角Xで特定される)からユーザ100の左耳1
01までの伝達関数HLと右耳102までの伝達関数HR
を予め測定して処理メモリ22に格納するとともに、ヘ
ッドホン14に音響信号が入力されたときにそれがヘッ
ドホン14から出力されて左耳101又は右耳102に
その音声信号の音圧が入力されるまでの固定値の伝達関
数HHを予め測定して処理メモリ22に格納しておく。
従って、伝達関数演算回路21は、上記伝達関数HH
処理メモリ22から読み出すとともに、ナビゲーション
制御部2から入力される音源Gまでの距離dと方位角X
のデータに基づいて、処理メモリ22内のデータを参照
して、当該定位又は移動させるべき音源Gの位置におけ
る伝達関数HL及びHRを読み出して、音像信号発生回路
24内の左右の制御フィルタの伝達関数FL及びFRを次
式により演算してそのデータを音像信号発生回路24に
出力する。
In the acoustic signal generation circuit 4, the headphones 14 are set so that the sound source G can be heard from the designated direction angle X.
In order to localize the sound source G of the acoustic signal to be output to FIG.
As shown in FIG. 5, the left ear 1 of the user 100 is determined from a plurality of positions (specified by the distance d to the sound source G and the azimuth angle X) of the sound source G covering substantially all positions at the time of navigation.
The transfer function H L up to 01 and the transfer function H R up to the right ear 102
Is measured in advance and stored in the processing memory 22, and when a sound signal is input to the headphones 14, the sound signal is output from the headphones 14 and the sound pressure of the sound signal is input to the left ear 101 or the right ear 102. The transfer function H H of the fixed value up to is measured in advance and stored in the processing memory 22.
Accordingly, the transfer function calculation circuit 21 reads the transfer function H H from the processing memory 22 and also sets the distance d to the sound source G and the azimuth X
The transfer functions H L and H R at the position of the sound source G to be localized or moved are read out with reference to the data in the processing memory 22 based on the data of the left and right control filters in the sound image signal generation circuit 24. and it outputs the data to the sound signal generating circuit 24 the transfer function F L and F R of calculated by the following equation.

【0020】[0020]

【数1】FL=HL/HH ## EQU1 ## FL = HL / HH

【数2】FR=HR/HH ## EQU2 ## F R = H R / H H

【0021】音像信号発生回路24は、伝達関数を変化
させることが可能な2つのチャンネルの制御フィルタを
備えて構成され、音源信号発生器23からの音源信号
を、伝達関数演算回路21で演算された左チャンネルの
伝達関数FLを有する制御フィルタを通過させることに
より左チャンネルの音像信号SLを発生してヘッドホン
14の左側部14Aに出力するとともに、上記音源信号
を、伝達関数演算回路21で演算された右チャンネルの
伝達関数FRを有する制御フィルタを通過させることに
より右チャンネルの音像信号SRを発生してヘッドホン
14の右側部14Bに出力する。これにより、ヘッドホ
ン14により、ナビゲーション制御部2により指定され
た位置における音源Gの音源信号をユーザ100は聴取
することができる。ここで、伝達関数演算回路21と音
像信号発生回路24による音像信号の発生の方法につい
ては、特許第2945634号公報において開示されて
いるように公知である。
The sound image signal generating circuit 24 is provided with a two-channel control filter capable of changing a transfer function. The sound source signal from the sound source signal generator 23 is calculated by the transfer function calculating circuit 21. and outputs to generate a sound signal S L for the left channel to the left portion 14A of the headphones 14 by passing through a control filter having a transfer function F L of the left channel and, the source signal, the transfer function calculating circuit 21 By passing through a control filter having the calculated transfer function F R of the right channel, a sound image signal S R of the right channel is generated and output to the right side portion 14B of the headphones 14. Thus, the user 100 can listen to the sound source signal of the sound source G at the position specified by the navigation control unit 2 through the headphones 14. Here, a method of generating a sound image signal by the transfer function calculation circuit 21 and the sound image signal generation circuit 24 is publicly known as disclosed in Japanese Patent No. 2945634.

【0022】図7は、図1のナビゲーション制御部2に
よって実行されるナビゲーション制御処理を示すフロー
チャートである。
FIG. 7 is a flowchart showing a navigation control process executed by the navigation control unit 2 of FIG.

【0023】図7において、ステップS1において、ナ
ビゲーション情報生成部1からの経路情報と、位置情報
検出部12からの現在位置情報とから最も近いナビゲー
ションポイントNPを選択して次に進むべき現在のナビ
ゲーションポイントNPとし、ステップS2において経
路情報と現在位置情報とに基づいて、現在位置から現在
のナビゲーションポイント(現在そこに行こうとしてい
る)に対する進行方向Pと音源方位角Yを演算する。次
いで、ステップS3において頭部回転角Z=0であるか
否かが判断され、YESであるときは、ステップS4に
おいて方位角Yを方位角Xとして設定してステップS6
に進む。ステップS3でNOであるときは、ステップS
5において方位角の減算値(Y−Z)を方位角Xとして
設定してステップS6に進む。
In FIG. 7, in step S1, a navigation point NP closest to the route information from the navigation information generating unit 1 and the current position information from the position information detecting unit 12 is selected, and the current navigation to proceed to the next is performed. At step S2, the traveling direction P and the sound source azimuth Y from the current position to the current navigation point (currently going there) are calculated at step S2 based on the route information and the current position information. Next, in step S3, it is determined whether or not the head rotation angle Z = 0, and if YES, the azimuth Y is set as the azimuth X in step S4, and step S6 is performed.
Proceed to. If NO in step S3, step S3
In step 5, the azimuth subtraction value (YZ) is set as the azimuth X, and the flow advances to step S6.

【0024】次いで、ステップS6において現在位置と
現在のナビゲーションポイントまでの距離Dを演算し、
ステップS7において計算された距離D≧距離しきい値
Dth(例えば、10mである。)であるか否かが判断
され、YESのときは、方位角X及び一定の距離d(例
えば3m)のデータを音響信号発生回路4に出力してス
テップS10に進む。一方、ステップS7でNOである
ときは、音源Gの位置を現在のナビゲーションポイント
から次のナビゲーションポイントに進んでゆくように方
位角X及び音源Gまでの距離dを変化させながら、方位
角X及び距離dのデータを音響信号発生回路4に出力
し、ステップS10に進む。なお、ステップS9の処理
は、ステップS10でNOであるときのループ処理にお
いて、所定の周期で繰り返し実行するように制御され
る。
Next, in step S6, a distance D between the current position and the current navigation point is calculated.
It is determined whether or not the distance D calculated in step S7 ≧ the distance threshold Dth (for example, 10 m). If YES, the data of the azimuth angle X and the constant distance d (for example, 3 m) Is output to the acoustic signal generation circuit 4 and the process proceeds to step S10. On the other hand, if NO in step S7, while changing the azimuth X and the distance d to the sound source G so as to move the position of the sound source G from the current navigation point to the next navigation point, The data of the distance d is output to the acoustic signal generation circuit 4, and the process proceeds to step S10. Note that the process of step S9 is controlled so as to be repeatedly executed at a predetermined cycle in a loop process when NO is obtained in step S10.

【0025】さらに、ステップS10では、現在のナビ
ゲーションポイントNPに到達したか否かが判断され、
NOであるときはステップS2に戻る一方、YESであ
るときはステップS11に進む。ステップS11では目
的地に到着したか否かが判断され、NOのときはステッ
プS12で次のナビゲーションポイントNPを選択し
て、選択したナビゲーションポイントNPを次に進むべ
き現在のナビゲーションポイントNOとしてステップS
2に戻る。一方、ステップS11でYESのときは当該
ナビゲーション制御処理を終了する。
In step S10, it is determined whether or not the current navigation point NP has been reached.
If the determination is NO, the process returns to step S2, while if the determination is YES, the process proceeds to step S11. In step S11, it is determined whether or not the vehicle has arrived at the destination. If NO, the next navigation point NP is selected in step S12, and the selected navigation point NP is set as the current navigation point NO to proceed to next step S12.
Return to 2. On the other hand, if YES in step S11, the navigation control process ends.

【0026】以上説明したように、本実施形態によれ
ば、ユーザ100の現在位置から目的地までを音の方向
性を利用してナビゲーションすることができ、ナビゲー
ションを行うことにより、ユーザ100は自分が進むべ
き方向をヘッドホン14から出力される音によって感覚
的に方向や距離感を感じることができ、立体感のあるナ
ビゲーションを提供することができる。
As described above, according to the present embodiment, it is possible to perform navigation from the current position of the user 100 to the destination by using the directionality of the sound. The direction from which the vehicle should travel can be intuitively sensed by the sound output from the headphones 14, and a three-dimensional navigation can be provided.

【0027】[0027]

【実施例】図8は、図1の音響ナビゲーション装置の動
作の一実施例を示す平面図である。この実施形態におけ
る特徴は、上述のように、交差点迂回時にも授聴者が進
むべき方向に正しく音像を定位しナビゲーションを行う
ことができることである。いま、ユーザ100が進路を
変える場所を、交差点300であるナビゲーションポイ
ントNPとする。
FIG. 8 is a plan view showing an embodiment of the operation of the acoustic navigation device of FIG. The feature of this embodiment is that, as described above, even at the time of detouring at an intersection, the listener can correctly locate the sound image in the direction in which the listener should proceed and perform navigation. Now, the place where the user 100 changes course is the navigation point NP which is the intersection 300.

【0028】図8に示すように、ユーザ100がいる地
点とナビゲーションポイントNPとの間の距離Dが例え
ば10mなどの一定距離以上離れている場合は、音源G
の位置をユーザ100から一定距離だけ先行するように
音像を定位させる(時刻t1;図7のステップS8)。
もし、ユーザ100がナビゲーションポイントNPに一
定距離未満に近づいたならば(図7のステップS7でN
O)、ナビゲーションポイントNPから次のナビゲーシ
ョンポイントNPへの進行方向に音源Gが進んでいくよ
うに聞こえるように音像を移動させる(時刻t2;図7
のステップS9)。ユーザ100が次のナビゲーション
ポイントNPを通過するまでこの音像を聴取させる(時
刻t3及びt4)。ユーザ100がナビゲーションポイ
ントNPを到達し目的地に到達していないならば(図7
のステップS10でYESかつステップS11でN
O)、次のナビゲーションポイントNPを設定し(図7
のステップS12)、同じ動作を繰り返す(時刻t
5)。
As shown in FIG. 8, when the distance D between the point where the user 100 is located and the navigation point NP is more than a predetermined distance such as 10 m, the sound source G
The sound image is localized such that the position is ahead of the user 100 by a certain distance (time t1; step S8 in FIG. 7).
If the user 100 approaches the navigation point NP less than a certain distance (N in step S7 of FIG. 7)
O), the sound image is moved so that the sound source G can be heard as proceeding in the traveling direction from the navigation point NP to the next navigation point NP (time t2; FIG. 7).
Step S9). This sound image is heard until the user 100 passes the next navigation point NP (time t3 and t4). If the user 100 has reached the navigation point NP and has not reached the destination (FIG. 7
YES in step S10 and N in step S11
O), the next navigation point NP is set (FIG. 7)
Step S12), the same operation is repeated (time t
5).

【0029】以上の動作により、交差点300の旋回時
に音源Gが聞こえる方向が建物などに遮られることがな
く、歩行者にとっては安心感を得られるという利点があ
る。
With the above operation, there is an advantage that the direction in which the sound source G can be heard when the intersection 300 turns is not obstructed by the building or the like, and a sense of security can be obtained for pedestrians.

【0030】以上説明したように、本実施形態に係る音
響ナビゲーション装置によれば、現在位置情報及び経路
情報に基づいて、例えば交差点などのナビゲーションポ
イントを逐次更新しながら、現在位置から所定の距離に
音源が位置するように制御してナビゲーションを行う音
響ナビゲーション装置において、ナビゲーション制御部
2は、現在位置と次に進むべき現在のナビゲーションポ
イントまでの距離Dを演算し(図7のステップS6)、
上記演算された距離が所定のしきい値未満であるときは
(ステップS7でNO)、現在のナビゲーションポイン
トから次のナビゲーションポイントに進んでゆくように
音源の位置を移動させる(ステップS9)。従って、交
差点などにおいてわかりにくい進路誘導がなされること
を防止することができる。
As described above, according to the acoustic navigation device according to the present embodiment, the navigation point such as an intersection is sequentially updated on the basis of the current position information and the route information while maintaining a predetermined distance from the current position. In the acoustic navigation device that performs navigation by controlling the sound source to be located, the navigation control unit 2 calculates the distance D between the current position and the current navigation point to go to the next (step S6 in FIG. 7),
If the calculated distance is less than the predetermined threshold (NO in step S7), the position of the sound source is moved so as to proceed from the current navigation point to the next navigation point (step S9). Therefore, it is possible to prevent an incomprehensible route guidance at an intersection or the like.

【0031】また、当該音響ナビゲーション装置によれ
ば、頭部回転角検出部13は、上記音源の音響信号を人
間のユーザ100の両耳101,102に出力するヘッ
ドホン14が装着されたユーザ100の頭部の、進行方
向に対する頭部回転角Zを検出し、ナビゲーション制御
部2は、上記検出された頭部回転角Zに基づいて、上記
移動させる音源の位置を補正する(ステップS5)。従
って、ユーザの頭部の回転により、音源の位置が進行す
べき方向からずれることを防止することができる。
Further, according to the acoustic navigation apparatus, the head rotation angle detecting unit 13 of the user 100 equipped with the headphones 14 for outputting the acoustic signal of the sound source to both ears 101 and 102 of the human user 100 The head rotation angle Z of the head with respect to the traveling direction is detected, and the navigation control unit 2 corrects the position of the moving sound source based on the detected head rotation angle Z (step S5). Therefore, it is possible to prevent the position of the sound source from deviating from the direction in which the sound should travel due to the rotation of the user's head.

【0032】<変形例>音が左右いずれかに偏って聞こ
えることは、音の信号の位相差であるといわれている。
従って、前方と後方、特に真正面と真後ろでは位相特性
(左右の時間差)が全く同じなので、音源の位置を判断
するときに、前後を間違えやすい。すなわち、音像でナ
ビゲーションを行なったとき、例えば「右斜め前」と
「右斜め後ろ」の指示を判別しにくいという課題があ
る。そこで、この課題を解決するために以下の手段を備
えてもよい。 (a)音の周波数特性は、通常前方と比べて後方では高
域が減衰する。周波数成分を増減することにより、前方
と後方を感じ分けさせる。 (b)ヘッドホン14を4チャンネルにして、前後の判
別をしやすくさせる。すなわち、ヘッドホン14のアー
ムの部分が頭の後ろにくるようなヘッドホン14におい
て、アームの部分に小型スピーカを搭載することによっ
て、4チャンネル再生が可能になる。4チャンネルの場
合も、音像定位の作成方法は2チャンネルと同様であ
る。上記の2つの手段のいずれか1つでもよいし併用し
てもよい。これにより、前後方向の知覚を可能にするこ
とができる。
<Modification> It is said that the fact that a sound is deviated left or right is a phase difference between sound signals.
Therefore, since the phase characteristics (time difference between left and right) are exactly the same between the front and the rear, especially the front and the rear, it is easy to mistake the front and the rear when determining the position of the sound source. In other words, there is a problem that it is difficult to distinguish, for example, an instruction of “diagonally right front” and “diagonally right back” when performing navigation with a sound image. Therefore, the following means may be provided to solve this problem. (A) In the frequency characteristics of a sound, a high frequency range is attenuated in the rearward region as compared with the normal region. By increasing or decreasing the frequency component, the front and the rear are distinguished. (B) The headphone 14 has four channels so that the front and rear can be easily distinguished. That is, in the headphone 14 in which the arm portion of the headphone 14 is located behind the head, four channels can be reproduced by mounting a small speaker on the arm portion. In the case of four channels, the method of creating the sound image localization is the same as that of the two channels. Any one of the above two means may be used, or both may be used. Thereby, the perception in the front-back direction can be made possible.

【0033】また、ユーザ100が建物の影や屋内にい
るなどGPSによる現在の位置特定が不可能な場合、次
のような手法で補正してもよい。 (a)ユーザ100が以下の項目を入力し、ナビゲーシ
ョン情報制御部1に例えば通信回線を介して接続された
サーバ装置にあるデータベースを参照して位置を特定す
る。 (I)付近の店舗の支店名(コンビニエンスストア、フ
ァーストフード、ファミリーレストラン、ガソリンスタ
ンド、郵便局、銀行など)。 (II)交差点にある信号機の表示、横断歩道の表示。 (III)電信柱の電柱番号。 (b)ユーザ100が現在地点から見える店舗(ここ
で、店舗とは上述の店舗をいう。)をすべて入力して、
上記データベースを参照して現在位置を特定する。例え
ば、藤沢駅周辺で「○○コンビニ」と「○○ガソリンス
タンド」と「○○ファミリーレストラン」が見えるとこ
ろというように複数入力してもらい、データベースから
この3店が見える範囲に存在する点を特定する。
When it is impossible to specify the current position by GPS, such as when the user 100 is in the shadow of a building or inside a building, the correction may be made by the following method. (A) The user 100 inputs the following items, and specifies the position by referring to a database in a server device connected to the navigation information control unit 1 via a communication line, for example. (I) Branch names of nearby stores (convenience stores, fast food, family restaurants, gas stations, post offices, banks, etc.). (II) Display of traffic lights and intersections at intersections. (III) The pole number of the pole. (B) The user 100 inputs all the stores (here, the stores refer to the stores described above) that are visible from the current location,
The current position is specified by referring to the database. For example, around Fujisawa Station, you can have multiple inputs such as "XX convenience store", "XX gas station" and "XX family restaurant". Identify.

【0034】[0034]

【発明の効果】以上詳述したように本発明に係る音響ナ
ビゲーション装置によれば、現在位置情報及び経路情報
に基づいて、例えば交差点などのナビゲーションポイン
トを逐次更新しながら、現在位置から所定の距離に音源
が位置するように制御してナビゲーションを行う音響ナ
ビゲーション装置において、現在位置と現在のナビゲー
ションポイントまでの距離を演算する演算手段と、上記
演算された距離が所定のしきい値未満であるときは、現
在のナビゲーションポイントから次のナビゲーションポ
イントに進んでゆくように音源の位置を移動させる制御
手段とを備える。従って、本発明によれば、交差点など
においてわかりにくい進路誘導がなされることを防止す
ることができる。
As described above in detail, according to the acoustic navigation device of the present invention, a navigation point such as an intersection is updated successively based on the current position information and the route information while a predetermined distance from the current position is maintained. An acoustic navigation device that performs navigation by controlling the sound source to be located at a position where the distance between the current position and the current navigation point is calculated, and when the calculated distance is less than a predetermined threshold value. Comprises control means for moving the position of the sound source so as to proceed from the current navigation point to the next navigation point. Therefore, according to the present invention, it is possible to prevent unintelligible route guidance at an intersection or the like.

【0035】また、上記音響ナビゲーション装置におい
て、好ましくは、上記音源の音響信号を人間の両耳に出
力するヘッドホンと、上記ヘッドホンが装着された人間
の頭部の、進行方向に対する回転角を検出する検出手段
とを備え、上記制御手段は、上記検出された回転角に基
づいて、上記移動させる音源の位置を補正する。従っ
て、本発明によれば、ユーザの頭部の回転により、音源
の位置が進行すべき方向からずれることを防止すること
ができる。
In the acoustic navigation device, preferably, a headphone for outputting the sound signal of the sound source to both ears of a human and a rotation angle of a head of the human wearing the headphone with respect to a traveling direction are detected. Detecting means, wherein the control means corrects the position of the moving sound source based on the detected rotation angle. Therefore, according to the present invention, it is possible to prevent the position of the sound source from deviating from the direction in which the sound should travel due to the rotation of the user's head.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る一実施形態である音響ナビゲー
ション装置の構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an acoustic navigation device according to an embodiment of the present invention.

【図2】 図1の音響信号発生回路4の構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a configuration of an acoustic signal generation circuit 4 of FIG.

【図3】 図1の音響ナビゲーション装置においてそれ
ぞれ用いる、音源Gから左耳101までの伝達関数HL
と、音源Gから右耳102までの伝達関数HRと、ヘッ
ドホンの左側部14Aから左耳101までの伝達関数H
Hと、ヘッドホンの右側部14Bから右耳102までの
伝達関数HHとを示す平面図である。
3 is a diagram illustrating a transfer function H L from a sound source G to a left ear 101, which is used in the acoustic navigation device of FIG.
And a transfer function H R from the sound source G to the right ear 102 and a transfer function H from the left side portion 14A of the headphones to the left ear 101.
And H, is a plan view showing the transfer function H H from the right side portion 14B of the headphones to the right ear 102.

【図4】 図1の音響ナビゲーション装置において、ユ
ーザ100の進行方向Pと、頭部回転角Zとの関係を示
す平面図である。
FIG. 4 is a plan view showing a relationship between a traveling direction P of a user 100 and a head rotation angle Z in the acoustic navigation device of FIG.

【図5】 図1の音響ナビゲーション装置において、頭
部回転角Z=0のときの進行方向Pと、音源Gへの方位
角Xとの関係を示す平面図である。
5 is a plan view showing a relationship between a traveling direction P when a head rotation angle Z = 0 and an azimuth X to a sound source G in the acoustic navigation device of FIG.

【図6】 図1の音響ナビゲーション装置において、頭
部回転角Z≠0のときの進行方向Pと、音源Gへの方位
角Xとの関係を示す平面図である。
6 is a plan view showing a relationship between a traveling direction P when a head rotation angle Z ≠ 0 and an azimuth X to a sound source G in the acoustic navigation device of FIG.

【図7】 図1のナビゲーション制御部2によって実行
されるナビゲーション制御処理を示すフローチャートで
ある。
FIG. 7 is a flowchart illustrating a navigation control process executed by the navigation control unit 2 of FIG. 1;

【図8】 図1の音響ナビゲーション装置の動作の一実
施例を示す平面図であって、(a)は時刻t=t1のと
きの平面図であり、(b)は時刻t=t2のときの平面
図であり、(c)は時刻t=t3のときの平面図であ
り、(d)は時刻t=t4のときの平面図であり、
(e)は時刻t=t5のときの平面図である。
FIGS. 8A and 8B are plan views showing one embodiment of the operation of the acoustic navigation device of FIG. 1, wherein FIG. 8A is a plan view at time t = t1, and FIG. 8B is a plan view at time t = t2. (C) is a plan view at time t = t3, (d) is a plan view at time t = t4,
(E) is a plan view at the time t = t5.

【図9】 従来例の音響ナビゲーション装置の動作の一
例を示す平面図であって、(a)は時刻t=t11のと
きの平面図であり、(b)は時刻t=t12のときの平
面図であり、(c)は時刻t=t13のときの平面図で
あり、(d)は時刻t=t14のときの平面図である。
FIG. 9 is a plan view showing an example of the operation of the acoustic navigation device of the related art, where (a) is a plan view at time t = t11 and (b) is a plan view at time t = t12. It is a figure, (c) is a top view at the time t = t13, and (d) is a plan view at the time t = t14.

【符号の説明】[Explanation of symbols]

1…ナビゲーション情報生成部、 2…ナビゲーション制御部、 3…処理メモリ、 4…音響信号発生回路、 5…地図情報メモリ、 6…液晶ディスプレイ、 11…キーボード、 12…位置情報検出部、 13…頭部回転角検出部、 14…ヘッドホン、 14A…ヘッドホンの左側部、 14B…ヘッドホンの右側部、 21…伝達関数演算回路、 22…処理メモリ、 23…音源信号発生器、 24…音像信号発生回路、 100…ユーザ、 101…左耳、 102…右耳、 G…音源。 DESCRIPTION OF SYMBOLS 1 ... Navigation information generation part, 2 ... Navigation control part, 3 ... Processing memory, 4 ... Sound signal generation circuit, 5 ... Map information memory, 6 ... Liquid crystal display, 11 ... Keyboard, 12 ... Position information detection part, 13 ... Head Unit rotation angle detection unit, 14: headphone, 14A: left side of headphone, 14B: right side of headphone, 21: transfer function calculation circuit, 22: processing memory, 23: sound source signal generator, 24: sound image signal generation circuit, 100: user, 101: left ear, 102: right ear, G: sound source.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 萩原 紀子 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 2F029 AA02 AA07 AB05 AB07 AB11 AC14 AC18 5D062 CC13 5H180 AA01 AA21 BB05 CC12 FF05 FF07 FF22 FF25 FF27 FF33 ────────────────────────────────────────────────── ─── Continuing from the front page (72) Inventor Noriko Hagiwara 1006 Kazuma Kadoma, Osaka Prefecture F-term (reference) 2F029 AA02 AA07 AB05 AB07 AB11 AC14 AC18 5D062 CC13 5H180 AA01 AA21 BB05 CC12 FF05 FF07 in Matsushita Electric Industrial Co., Ltd. FF22 FF25 FF27 FF33

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 現在位置情報及び経路情報に基づいてナ
ビゲーションポイントを逐次更新しながら、現在位置か
ら所定の距離に音源が位置するように制御してナビゲー
ションを行う音響ナビゲーション装置において、 現在位置と現在のナビゲーションポイントまでの距離を
演算する演算手段と、 上記演算された距離が所定のしきい値未満であるとき
は、現在のナビゲーションポイントから次のナビゲーシ
ョンポイントに進んでゆくように音源の位置を移動させ
る制御手段とを備えたことを特徴とする音響ナビゲーシ
ョン装置。
1. An acoustic navigation device that performs navigation by controlling a sound source to be located at a predetermined distance from a current position while sequentially updating a navigation point based on current position information and route information. Calculating means for calculating the distance to the navigation point, and when the calculated distance is less than a predetermined threshold value, moving the position of the sound source so as to proceed from the current navigation point to the next navigation point An acoustic navigation device, comprising: control means for causing the acoustic navigation device to perform the control.
【請求項2】 上記音源の音響信号を人間の両耳に出力
するヘッドホンと、 上記ヘッドホンが装着された人間の頭部の、進行方向に
対する回転角を検出する検出手段とを備え、 上記制御手段は、上記検出された回転角に基づいて、上
記移動させる音源の位置を補正することを特徴とする請
求項1記載の音響ナビゲーション装置。
2. A control device comprising: headphones for outputting the sound signal of the sound source to both ears of a human; and detecting means for detecting a rotation angle of a human head to which the headphones are mounted with respect to a traveling direction. 2. The acoustic navigation device according to claim 1, wherein the position corrects the position of the moving sound source based on the detected rotation angle.
【請求項3】 上記ナビゲーションポイントは、交差点
を含むことを特徴とする請求項1又は2記載の音響ナビ
ゲーション装置。
3. The acoustic navigation device according to claim 1, wherein the navigation point includes an intersection.
JP2000181441A 2000-06-16 2000-06-16 Acoustic navigation apparatus Pending JP2002005675A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000181441A JP2002005675A (en) 2000-06-16 2000-06-16 Acoustic navigation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000181441A JP2002005675A (en) 2000-06-16 2000-06-16 Acoustic navigation apparatus

Publications (1)

Publication Number Publication Date
JP2002005675A true JP2002005675A (en) 2002-01-09

Family

ID=18682375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000181441A Pending JP2002005675A (en) 2000-06-16 2000-06-16 Acoustic navigation apparatus

Country Status (1)

Country Link
JP (1) JP2002005675A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006503512A (en) * 2002-10-18 2006-01-26 シーメンス アクチエンゲゼルシヤフト Method for simulating movement by sound reproduction unit and sound reproduction apparatus therefor
JP2006237839A (en) * 2005-02-23 2006-09-07 Oki Electric Ind Co Ltd Voice conference device
JP2008023237A (en) * 2006-07-25 2008-02-07 Miki Yasuma Navigation system for visually handicapped person
JP2008228155A (en) * 2007-03-15 2008-09-25 Oki Electric Ind Co Ltd Sound image localization processor, method, and program
JP2011114679A (en) * 2009-11-27 2011-06-09 Ntt Docomo Inc Position information acquisition system, position information acquisition device, position information acquisition method
CN101298988B (en) * 2007-05-01 2012-01-11 索尼株式会社 Information processing system, portable information terminal, information providing apparatus and control method
JP2013205218A (en) * 2012-03-28 2013-10-07 Hirosaki Univ Guide system
EP2700907A2 (en) 2012-08-24 2014-02-26 Sony Mobile Communications Japan, Inc. Acoustic Navigation Method
US9326058B2 (en) 2012-09-26 2016-04-26 Sony Corporation Control method of mobile terminal apparatus
US9351090B2 (en) 2012-10-02 2016-05-24 Sony Corporation Method of checking earphone wearing state
US9479872B2 (en) 2012-09-10 2016-10-25 Sony Corporation Audio reproducing method and apparatus
WO2017018298A1 (en) * 2015-07-27 2017-02-02 シャープ株式会社 Voice-guided navigation device and voice-guided navigation program
CN106885627A (en) * 2015-12-16 2017-06-23 富士施乐株式会社 Diagnostic device, diagnostic system and diagnostic method
JP2017173134A (en) * 2016-03-24 2017-09-28 株式会社ゼンリンデータコム Route guide device, route guide method and route guide program
JPWO2016140058A1 (en) * 2015-03-04 2018-01-11 シャープ株式会社 Audio signal reproduction apparatus, audio signal reproduction method, program, and recording medium
WO2019108255A1 (en) * 2017-12-01 2019-06-06 EmbodyVR, Inc. Navigation spatial placement of sound
US10609462B2 (en) 2014-10-29 2020-03-31 At&T Intellectual Property I, L.P. Accessory device that provides sensor input to a media device

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006503512A (en) * 2002-10-18 2006-01-26 シーメンス アクチエンゲゼルシヤフト Method for simulating movement by sound reproduction unit and sound reproduction apparatus therefor
JP2006237839A (en) * 2005-02-23 2006-09-07 Oki Electric Ind Co Ltd Voice conference device
JP2008023237A (en) * 2006-07-25 2008-02-07 Miki Yasuma Navigation system for visually handicapped person
JP2008228155A (en) * 2007-03-15 2008-09-25 Oki Electric Ind Co Ltd Sound image localization processor, method, and program
US8204262B2 (en) 2007-03-15 2012-06-19 Oki Electric Industry Co., Ltd. Sound image localization processor, method, and program
CN101298988B (en) * 2007-05-01 2012-01-11 索尼株式会社 Information processing system, portable information terminal, information providing apparatus and control method
JP2011114679A (en) * 2009-11-27 2011-06-09 Ntt Docomo Inc Position information acquisition system, position information acquisition device, position information acquisition method
JP2013205218A (en) * 2012-03-28 2013-10-07 Hirosaki Univ Guide system
EP2700907A2 (en) 2012-08-24 2014-02-26 Sony Mobile Communications Japan, Inc. Acoustic Navigation Method
US8718930B2 (en) 2012-08-24 2014-05-06 Sony Corporation Acoustic navigation method
US9479872B2 (en) 2012-09-10 2016-10-25 Sony Corporation Audio reproducing method and apparatus
US9326058B2 (en) 2012-09-26 2016-04-26 Sony Corporation Control method of mobile terminal apparatus
US9860625B2 (en) 2012-09-26 2018-01-02 Sony Mobile Communications Inc. Control method of mobile terminal apparatus
US10638213B2 (en) 2012-09-26 2020-04-28 Sony Corporation Control method of mobile terminal apparatus
US9351090B2 (en) 2012-10-02 2016-05-24 Sony Corporation Method of checking earphone wearing state
US10609462B2 (en) 2014-10-29 2020-03-31 At&T Intellectual Property I, L.P. Accessory device that provides sensor input to a media device
JPWO2016140058A1 (en) * 2015-03-04 2018-01-11 シャープ株式会社 Audio signal reproduction apparatus, audio signal reproduction method, program, and recording medium
WO2017018298A1 (en) * 2015-07-27 2017-02-02 シャープ株式会社 Voice-guided navigation device and voice-guided navigation program
JPWO2017018298A1 (en) * 2015-07-27 2018-05-31 シャープ株式会社 Voice navigation apparatus and voice navigation program
CN106885627A (en) * 2015-12-16 2017-06-23 富士施乐株式会社 Diagnostic device, diagnostic system and diagnostic method
US10352820B2 (en) 2015-12-16 2019-07-16 Fuji Xerox Co., Ltd. Diagnostic device, diagnostic system, diagnostic method, and non-transitory computer-readable medium
JP2017173134A (en) * 2016-03-24 2017-09-28 株式会社ゼンリンデータコム Route guide device, route guide method and route guide program
WO2019108255A1 (en) * 2017-12-01 2019-06-06 EmbodyVR, Inc. Navigation spatial placement of sound

Similar Documents

Publication Publication Date Title
KR101384528B1 (en) Method for direction-guiding using 3D-sound and navigation system using the same
JP2002005675A (en) Acoustic navigation apparatus
JP2602158B2 (en) Audio output device
JP3888432B2 (en) Portable navigation device
US20090192707A1 (en) Audio Guide Device, Audio Guide Method, And Audio Guide Program
JP2017138277A (en) Voice navigation system
JP2006266902A (en) Navigation system accompanied with environmental sound regeneration
JP2002257581A (en) Portable guidance device
JP3403774B2 (en) Guidance device
JP2006308311A (en) Navigation apparatus
JP2006115364A (en) Voice output controlling device
JP2005043335A (en) Route searching method in navigation system
JP2003156352A (en) Navigator
US10477338B1 (en) Method, apparatus and computer program product for spatial auditory cues
JP2000205891A (en) Guide equipment for the blind
JP2008058028A (en) Voice guide method and navigation apparatus
JP2002081954A (en) On-vehicle navigation system
JP6629111B2 (en) Route guidance device, route guidance method, and route guidance program
JP4710464B2 (en) Car navigation system
WO2002097372A1 (en) Operation supporting apparatus
EP2735845A1 (en) Personal guide system providing spoken information on an address based on a line of interest of a user
JP2009014692A (en) Navigation device
JP2016211982A (en) Navigation device and navigation method
JP2005326210A (en) Map information display control device, map information display device, system, method and program therefor, and storage medium recording the program
JP2001324348A (en) Car navigation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041019

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050301