WO2006075606A1 - 音案内装置、音案内方法および音案内プログラム - Google Patents

音案内装置、音案内方法および音案内プログラム Download PDF

Info

Publication number
WO2006075606A1
WO2006075606A1 PCT/JP2006/300195 JP2006300195W WO2006075606A1 WO 2006075606 A1 WO2006075606 A1 WO 2006075606A1 JP 2006300195 W JP2006300195 W JP 2006300195W WO 2006075606 A1 WO2006075606 A1 WO 2006075606A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
user
current position
destination
traveling direction
Prior art date
Application number
PCT/JP2006/300195
Other languages
English (en)
French (fr)
Inventor
Yoshinori Nakatsuka
Yoshihito Ibe
Mitsukatsu Nagashima
Miyuki Ishii
Original Assignee
Pioneer Corporation
Pioneer Design Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation, Pioneer Design Corporation filed Critical Pioneer Corporation
Priority to JP2006552929A priority Critical patent/JPWO2006075606A1/ja
Priority to US11/813,607 priority patent/US20090192707A1/en
Publication of WO2006075606A1 publication Critical patent/WO2006075606A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096855Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver
    • G08G1/096872Systems involving transmission of navigation instructions to the vehicle where the output is provided in a suitable form to the driver where instructions are given per voice
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map

Definitions

  • the present invention relates to a sound guide device, a sound guide method, and a sound guide program.
  • the use of the present invention is not limited to the above-described sound guide device, sound guide method, and sound guide program.
  • Patent Document 1 Japanese Patent Laid-Open No. 11132785
  • An object of the present invention is to provide a sound guide device, a sound guide method, and a sound guide program that can intuitively understand the route information by sound in order to solve the above-described problems caused by the prior art.
  • the sound guide device is provided with a position detection means for detecting a current position of a user, a current position detected by the position detection means, and a destination of the user.
  • Determination means for determining a traveling direction based on the sound, a sound creating means for creating a sound based on the traveling direction determined by the determining means, and a sound output means for outputting the sound created by the sound creating means , Provided.
  • the sound guidance method according to the invention of claim 6 includes a position detection step of detecting a current position of the user, a current position detected by the position detection step, and a destination of the user.
  • the sound guide program according to the invention of claim 7 is based on a position detection step of detecting a current position of a user, a current position detected by the position detection step, and a destination of the user.
  • FIG. 1 is a block diagram showing a functional configuration of a sound guide device that is useful in an embodiment of the present invention.
  • FIG. 2 is a flowchart showing the process of the sound guidance method according to the embodiment of the present invention.
  • FIG. 3 is an explanatory view showing a sound guidance system of this embodiment.
  • FIG. 4 is a block diagram showing a hardware configuration of the sound guidance device.
  • FIG. 5 is a block diagram showing a functional configuration of the sound guidance system.
  • FIG. 6 is a flowchart showing processing of the sound guidance device.
  • FIG. 1 is a block diagram showing a functional configuration of a sound guide device that is useful in an embodiment of the present invention.
  • the sound guide device of this embodiment includes a position detection unit 101, a determination unit 102, a route determination unit 103, a sound creation unit 104, a sound output unit 105, and a vibration generation unit 106.
  • the position detection unit 101 detects the current position of the user.
  • the position detection unit 101 can detect the current position by, for example, GPS (Global Positioning System). When using GPS, input signals from multiple satellites and obtain the latitude and longitude information of the user.
  • the determination unit 102 determines the traveling direction based on the current position detected by the position detection unit 101 and the user's destination. For example, the determination unit 102 can store map information in advance, and can store destination information as the map information. Then, the direction of the destination can be determined by comparing the stored destination information with the current position. For example, when the destination is on the west side with respect to the current position, the direction of the destination can be determined to be west.
  • the route determination unit 103 obtains a route traveled by the user based on the relationship between the destination and the current position.
  • the determination unit 102 determines the traveling direction, but depending on the route, the traveling direction may not be west even if the destination is west with respect to the current position. For example, you might follow a path that goes north, then west, then south. And even when heading north and south, the destination is on the west side, but the actual direction is north or south.
  • the direction of the destination is determined by comparing the route information stored in the map information with the current position. Therefore, when the user is heading north according to the route, the direction of travel can be north, and when the user is heading south, the direction of travel can be south.
  • the determination result is passed to the determination unit 102.
  • the determination unit 102 determines the traveling direction based on the route obtained by the route determination unit 103 and the current position of the user.
  • the sound creation unit 104 creates a sound based on the traveling direction determined by the determination unit 102. For example, a sound can be created so that the headphone sound of the right side can be heard from the left headphone when the traveling direction is the left side, and the right headphone force sound when the traveling direction is the right side. Sounds can be created as sounds for output by storing “front”, “back”, “left”, and “right” voices corresponding to the direction in advance and searching for the stored voices. . The sound is not a voice but a sound such as a beep.
  • the head-related transfer function to control the arrival time of the sound to the ear, it is possible to hear the front / rear / right / left force even when listening to the sound with the headphones. It is also possible to synthesize a head-related transfer function to the searched sound and create a sound so that a traveling direction force sound can be heard.
  • the sound output direction can be “front”, “back”, “left”, “right”, “up”, “down”. For example, if there is an ascending slope in front of the right side, the direction may be slightly upward in front of the right side. it can.
  • the sound output unit 105 outputs the sound created by the sound creation unit 104 from, for example, headphones.
  • the vibration generating unit 106 generates vibration based on the traveling direction determined by the determining unit 102.
  • FIG. 2 is a flowchart showing processing of the sound guidance method according to the embodiment of the present invention.
  • the position detection unit 101 detects the current position of the user (step S201).
  • the determination unit 102 determines the direction of the destination relative to the current location based on the current position detected by the position detection unit 101 and the user's destination (step S202).
  • the route determination unit 103 determines the user's travel route based on the relationship between the destination and the current position, and the determination unit 102 determines the travel direction based on the determined travel route and the user's current location. Say it with a word.
  • the sound creation unit 104 creates a sound based on the traveling direction (step S203).
  • Sounds can be created as sounds for output by storing “front”, “rear”, “left”, and “right” voices corresponding to directions in advance and searching for the stored voices.
  • the sound can be a beep sound instead of a voice. It is also possible to synthesize a head-related transfer function to the retrieved sound and create a sound so that the sound can be heard from the direction of travel.
  • the sound output direction can be “front”, “rear”, “left”, “right”, “upper”, “lower”. For example, if there is an uphill on the right front side, it can be set slightly upward on the right front side.
  • the sound output unit 105 outputs the created sound (step S204).
  • the vibration generation unit 106 can generate vibration based on the traveling direction determined by the determination unit 102.
  • vibration can be generated to output force and sound.
  • the sound can be concentrated and confirmed. Then, a series of processing ends.
  • FIG. 3 is an explanatory diagram showing the sound guidance system of this embodiment.
  • the sound guidance system 300 includes a sound guidance device 301 and headphones 302.
  • the user has a sound guide device 301 that is large enough to be carried, and uses the sound guide system 300 by wearing headphones 302 on the head.
  • the description is made using the headphones 302.
  • any device that can transmit sound to the user such as a speaker, may be used.
  • a force speaker that is worn on the user's head can be worn on other than the head.
  • it is designed to be worn on the left and right sides of the body to give directionality to the sound.
  • it is possible to adopt a configuration in which a vibration device is mounted separately from the speaker. In this case as well, it is designed to be worn on the left and right sides of the body to give direction to the vibration.
  • FIG. 4 is a block diagram showing a hardware configuration of the sound guide device.
  • the sound guide device 301 includes a GPS 401, a CPU 402, a ROM 403, a RAM 404, an HD 405, and a headphone I / F 406.
  • GPS 401 receives signals from a plurality of artificial satellites, obtains and outputs latitude and longitude.
  • the CPU 402 controls the entire sound guide device 301 of this embodiment.
  • the ROM M403 stores a program such as a boot program.
  • the RAM 404 is used as a work area for the CPU 402.
  • the HD405 is a nonvolatile read / write magnetic memory.
  • the headphone IZF 406 is an interface that receives sound output from the CPU 402 and sends sound to the headphone 302.
  • FIG. 5 is a block diagram showing a functional configuration of the sound guidance system.
  • the sound guidance system 300 includes a sound guidance device 301 and headphones 302.
  • the sound guide device 301 includes a GPS 501, a direction determination unit 502, route information 503, a sound determination unit 504, a motion detection unit 505, and a sound image synthesis unit 506.
  • the headphone 302 includes a magnetic sensor 511, a headphone unit 512, and a vibration generating unit 513.
  • the GPS 501 inputs signals from a plurality of artificial satellites and obtains latitude and longitude. It also has map data and identifies the current position and travel route from the input latitude and longitude.
  • the direction determination unit 502 obtains the traveling direction from the current position, the destination, and the traveling route. If the current position is directed straight to the destination, the direction toward the destination is the traveling direction. However, the actual travel route may detour to the destination instead of being on a straight line. In this case, the direction to the previous point on the travel route is the travel direction. So, the direction The fixing unit 502 acquires route information 503 based on the current position and the destination. Then, the traveling direction is obtained from the current position and the route information 503. The travel route may go straight on a straight road, but it may go to the right, for example, at a crossroad or a three-way intersection. In this case, the direction of travel is the direction corresponding to the right direction.
  • the sound determination unit 504 searches for a sound corresponding to the traveling direction and the current position obtained by the direction determination unit 502.
  • the sound can be a voice.
  • the voice in this case can be a different voice depending on the situation, for example, the name of the current position. Or, depending on the direction of travel, it may be a voice indicating the direction to proceed next, such as “front”, “back”, “left”, and “right”.
  • the sound when turning along a traveling route, the sound can indicate the direction of the turn at the time of the turn.
  • the sound can be a variety of sounds that can tell the user the direction, such as a beep.
  • the motion detection unit 505 detects the motion of the user's head detected by the headphones 302.
  • the sound image synthesis unit 506 converts the sound output from the sound determination unit 504 into sound reproduced by the headphones 302. That is, the head-related transfer function is synthesized with the sound output from the sound determination unit 504 so that the generated sound data also outputs the specified direction force.
  • the sound output direction can be “front”, “rear”, “left”, “right”, as well as “up” and “down”. For example, if there is an uphill on the right front side, the sound output direction can be slightly upward on the right front side.
  • the head-related transfer function By synthesizing the head-related transfer function with sound, it is possible to create an environment where the sound can be heard in a pseudo manner when listening to headphones. Human hearing perceives the direction of sound by the sound that first reaches its ear, and captures the “sound image” such as the image and magnitude of the sound direction.
  • This head-related transfer function is the transfer characteristic of sound from the sound source to the eardrum of the listener, including the effect of the head and earlobe, in a space where there is no reflected wave (free space).
  • the room transfer function represents the transfer characteristics from the sound source to the listener in the room, and includes effects such as reflection of the wall of the room.
  • the sound image synthesizing unit 506 synthesizes the head-related transfer function and the original sound signal, which change according to the movement of the head captured by the magnetic sensor 511, and controls so that the sound image is always at the same position.
  • the magnetic sensor 511 is a sensor that detects the movement of the head by magnetism. The detected head movement is sent to the movement detector 505.
  • the headphone unit 512 is a speaker that can be applied to the left and right ears of the user using the output from the sound image synthesis unit 506 as sound.
  • the vibration generating unit 513 vibrates the headphone unit 512 according to the traveling direction output from the direction determining unit 502. For example, when the traveling direction is the left side, the vibration generating unit 513 vibrates the portion of the headphone unit 512 that is applied to the left ear. On the contrary, the vibration generating unit 513 vibrates a portion of the headphone unit 512 that is applied to the right ear when the traveling direction is the right side, for example.
  • the user can feel the direction of travel directly with the body, not just the hearing.For example, when the user is sleepy, the sound is not always transmitted to the user. Can tell the direction of travel.
  • FIG. 6 is a flowchart showing the process of the sound guide device.
  • the GPS 501 obtains the current position (step S601). That is, the GPS 501 specifies the current position based on the latitude and longitude based on the signal from the artificial satellite.
  • the direction determination unit 502 determines a route to proceed by referring to the route information 503 from the acquired current position (step S602). Next, the direction determination unit 502 compares the travel route with the current position to determine the travel direction (step S603).
  • the sound determination unit 504 acquires sound information (step S604). That is, when the traveling direction is changed, the sound in the traveling direction of the change destination is determined as the output sound. Alternatively, the information on the current position acquired by GPS501 that informs the user of the current position at regular time intervals. Is output as an output sound.
  • the sound image synthesis unit 506 changes the sound information acquired from the sound determination unit 504 according to the direction (step S605). That is, the head-related transfer function is synthesized with the sound output from the sound determination unit 504 as described above. In addition, the head-related transfer function that changes according to the movement of the head and the original sound signal are synthesized so that the sound image is always at the same position.
  • a sound 'vibration is output (step S606). That is, the sound image synthesis unit 506 outputs the synthesized sound information from the headphone unit 512.
  • the direction determination unit 502 outputs direction information to the vibration generation unit 513, and the vibration generation unit 513 causes the headphone unit 512 to vibrate a portion corresponding to the traveling direction. Then, a series of processing ends.
  • Sound and vibration can be generated simultaneously. Moreover, vibration can be generated first and sound can be generated later. For example, when the user is going to bend in the direction of travel, vibration can be applied just before the turning point and the sound can be output. By generating vibration first, the user can concentrate and confirm the next output sound. The vibration in this case may be stopped before the sound is generated, or may be continuously vibrated after the sound is generated. It is also possible to generate vibration first and vibration later.
  • the sound output and vibration of the headphones can be controlled in accordance with the traveling direction, so that the user senses it.
  • the current position and the traveling direction can be grasped.
  • the sound guidance method described in the present embodiment can be realized by executing a program prepared in advance by a computer such as a PDA.
  • This program is recorded on a computer-readable recording medium such as a node disk, a flexible disk, a CD-ROM, an MO, or a DVD, and is executed by being read by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

 使用者が進路情報を音により感覚的に理解することができる音案内装置は、使用者の現在位置を検出する位置検出部(101)と、位置検出部(101)によって検出された現在位置と、前記使用者の目的地に基づいて進行方向を判定する判定部(102)と、判定部(102)によって判定された進行方向に基づいて、音を作成する音作成部(104)と、音作成部(104)によって作成された音を出力する音出力部(105)と、を備える。

Description

明 細 書
音案内装置、音案内方法および音案内プログラム
技術分野
[0001] この発明は、音案内装置、音案内方法および音案内プログラムに関する。ただし、 この発明の利用は、上述の音案内装置、音案内方法および音案内プログラムに限ら ない。
背景技術
[0002] GPSを利用したナビゲーシヨンシステムが車を中心に普及してきている力 人が携 帯して使用する場面も増えてきている。こうしたナビゲーシヨンシステムは表示画面を 用いるものであるが、これに対し、表示画面を見て確認作業する必要をなくすベぐ 音声で目的地や経路の情報を伝達するナビゲーシヨンシステムがある(例えば、特許 文献 1参照。)。
[0003] 特許文献 1 :特開平 11 132785号公報
発明の開示
発明が解決しょうとする課題
[0004] し力しながら、ヘッドホンで目的地や経路の情報を聞き取るとき、それは例えば左に 行くとか右に行くといった情報そのものに過ぎず、感覚的に理解できる情報ではなか つた。表示画面を用いたナビゲーシヨンシステムの場合、地図により現在位置が示さ れ、矢印によって進行方向がわ力るため、使用者にとって進路が感覚的に理解でき る。
[0005] これに対し、音声をそのままヘッドホンから聞くだけでは、音声を文章として理解し た上で進路を判断することになるので、感覚的に理解する仕組みとはいえない。文章 として伝えられる情報は、感覚的ではないので、使用者が情報を認知するまでの時 間がかかる。したがって、使用者がナビゲーシヨンシステムに基づいて判断するのに 時間がかかった。特に交通の状況を判断する上で、判断に時間が力かるのは好まし くない。また、外国人などの音で話される言葉を理解できないものにとっては、全く利 用価値のな ヽものとなってしまうと ヽぅ問題があった。 [0006] この発明は、上述した従来技術による問題点を解消するため、進路情報を音により 感覚的に理解できる音案内装置、音案内方法および音案内プログラムを提供するこ とを目的とする。
課題を解決するための手段
[0007] 請求項 1に記載の発明における音案内装置は、使用者の現在位置を検出する位 置検出手段と、前記位置検出手段によって検出された現在位置と、前記使用者の目 的地に基づいて進行方向を判定する判定手段と、前記判定手段によって判定された 前記進行方向に基づいて、音を作成する音作成手段と、前記音作成手段によって 作成された音を出力する音出力手段と、を備えたことを特徴とする。
[0008] 請求項 6に記載の発明における音案内方法は、使用者の現在位置を検出する位 置検出工程と、前記位置検出工程によって検出された現在位置と、前記使用者の目 的地に基づいて進行方向を判定する判定工程と、前記判定工程によって判定された 前記進行方向に基づいて、音を作成する音作成工程と、前記音作成工程によって 作成された音を出力する音出力工程と、を含んだことを特徴とする。
[0009] 請求項 7に記載の発明における音案内プログラムは、使用者の現在位置を検出さ せる位置検出工程と、前記位置検出工程によって検出された現在位置と、前記使用 者の目的地に基づいて進行方向を判定させる判定工程と、前記判定工程によって 判定された前記進行方向に基づいて、音を作成させる音作成工程と、前記音作成ェ 程によって作成された音を出力させる音出力工程と、をコンピュータに実行させること を特徴とする。
図面の簡単な説明
[0010] [図 1]図 1は、この発明の実施の形態に力かる音案内装置の機能的構成を示すブロッ ク図である。
[図 2]図 2は、この発明の実施の形態に力かる音案内方法の処理を示すフローチヤ一 トである。
[図 3]図 3は、この実施例の音案内システムを示す説明図である。
[図 4]図 4は、音案内装置のハードウェア構成を示すブロック図である。
[図 5]図 5は、音案内システムの機能的構成を示すブロック図である。 O
[図 6]図 6は、音案内装置の処理を示すフローチャートである。
符1—号〇の説明
1—
位置検出部
102 判定部
103 経路判定部
104 音作成部
105 音出力部
106 振動発生部
301 音案内装置
302 ヘッドホン
501 GPS
502 方向判定部
504 音決定部
505 動き検出部
506 音像合成部
511 磁気センサ
512 ヘッドホン部
513 振動発生部
発明を実施するための最良の形態
[0012] 以下に添付図面を参照して、この発明にかかる音案内装置、音案内方法および音 案内プログラムの好適な実施の形態を詳細に説明する。
[0013] 図 1は、この発明の実施の形態に力かる音案内装置の機能的構成を示すブロック 図である。この実施の形態の音案内装置は、位置検出部 101、判定部 102、経路判 定部 103、音作成部 104、音出力部 105、振動発生部 106により構成されている。
[0014] 位置検出部 101は、使用者の現在位置を検出する。位置検出部 101は、例えば G PS (Global Positioning System)により現在位置を検出することができる。 GPSを 使用する場合、複数の人工衛星からの信号を入力し、使用者の緯度および経度情 報を取得する。 [0015] 判定部 102は、位置検出部 101によって検出された現在位置と、使用者の目的地 に基づいて進行方向を判定する。判定部 102は、例えば地図情報を予め記憶して おくことができ、この地図情報として目的地の情報を記憶しておくことができる。そして 、この記憶している目的地の情報と現在位置を比較して、目的地の向きを判定するこ とができる。 目的地の向きは、例えば、現在位置に対して目的地が西側の場合、西 向きと判定することができる。
[0016] 経路判定部 103は、目的地と現在位置の関係に基づいて、使用者が進行する経 路を求める。判定部 102は進行方向を判定するが、進路によっては目的地が現在位 置に対して西側であっても、進行方向が西側ではない場合がある。例えば、ー且北 に行ってそれから西に行き、それから南に行くという経路をたどることもある。そして、 北に向かうときおよび南に向かうときでも、目的地は西側であるが、実際に進む方向 は北または南である。
[0017] この場合、地図情報に記憶されている経路情報と現在位置の比較により、目的地 の向きを判定する。したがって、経路に従って使用者が北に向力うときは、進行方向 は北であり、使用者が南に向かうときは、進行方向を南とすることができる。判定結果 は判定部 102に渡され、判定部 102は、経路判定部 103で求められた経路と、使用 者の現在位置に基づいて、進行方向を判定する。
[0018] 音作成部 104は、判定部 102によって判定された進行方向に基づいて、音を作成 する。例えば、進行方向が左側のときは、左側のヘッドホンから、右側のときは、右側 のヘッドホン力 音が聞こえるように音を作成することができる。音は、予め方向に対 応する「前」「後」「左」「右」の音声を記憶しておき、この記憶された音声を検索して出 力のための音として作成することができる。音は、音声ではなくビープ音などの音とす ることちでさる。
[0019] また、頭部伝達関数を用いて、音の耳への到達時間を操作することにより、ヘッドホ ンで音を聞く場合でも前後左右力も音が聞こえるようにすることができる。また、この検 索された音に頭部伝達関数を合成して、進行方向力 音が聞こえるように音を作成 することもできる。音の出力方向は、「前」「後」「左」「右」の他、「上」「下」とすることが できる。たとえば、右斜め前に登り坂がある場合、右斜め前の少し上方向とすることが できる。
[0020] 音出力部 105は、音作成部 104で作成される音を例えばヘッドホンから出力する。
振動発生部 106は、判定部 102によって判定された進行方向に基づいて、振動を発 生させる。
[0021] 図 2は、この発明の実施の形態に力かる音案内方法の処理を示すフローチャートで ある。まず、位置検出部 101は、使用者の現在位置を検出する (ステップ S201)。次 に、判定部 102は、位置検出部 101によって検出された現在位置と、使用者の目的 地に基づいて、現在地に対する目的地の向きを判定する(ステップ S202)。ここで、 経路判定部 103が目的地と現在位置の関係に基づいて使用者の進行経路を求めて おき、判定部 102が、求めた進行経路と使用者の現在位置に基づいて進行方向を 求めることちでさる。
[0022] 次に、音作成部 104は、進行方向に基づいて音を作成する (ステップ S203)。音は 、予め方向に対応する「前」「後」「左」「右」の音声を記憶しておき、この記憶された音 声を検索して出力のための音として作成することができる。音は、音声ではなくビープ 音などの音とすることもできる。また、この検索された音に頭部伝達関数を合成して、 進行方向から音が聞こえるように音を作成することもできる。音の出力方向は、「前」「 後」「左」「右」の他、「上」「下」とすることができる。たとえば、右斜め前に登り坂がある 場合、右斜め前の少し上方向とすることができる。
[0023] 次に、音出力部 105は、作成された音を出力する (ステップ S204)。このとき、振動 発生部 106は、判定部 102によって判定された進行方向に基づいて、振動を発生さ せることができる。また、振動を発生させて力も音を出力することもできる。この場合、 振動が発生することにより使用者が次に出力させる音を待つことができるので、音を 集中して確認することができる。そして、一連の処理を終了する。
実施例
[0024] 図 3は、この実施例の音案内システムを示す説明図である。音案内システム 300は 、音案内装置 301とヘッドホン 302により構成される。使用者は、携帯できる程度の大 きさである音案内装置 301を持ち、ヘッドホン 302を頭部に装着することにより、この 音案内システム 300を使用する。図 3ではヘッドホン 302を用いて説明しているが、 ヘッドホン 302の代わりに、たとえばスピーカなどの使用者に音を伝えることのできる いかなる装置を用いてもよい。ヘッドホン 302を使用する場合、使用者の頭部に装着 される力 スピーカの場合、頭部以外にも装着することができる。ただし、音に方向性 を持たせるために体の左右に装着される構成にする。さらに、スピーカとは別に振動 装置を装着する構成にすることもできる。この場合も、振動に方向性を持たせるため に体の左右に装着される構成にする。
[0025] (音案内装置のハードウェア構成)
図 4は、音案内装置のハードウエア構成を示すブロック図である。音案内装置 301 は、 GPS401、 CPU402、 ROM403、 RAM404、 HD405、ヘッドホン I/F406を 備える。
[0026] ここで、 GPS401は、複数の人工衛星からの信号を入力して、緯度および経度を求 めて出力する。 CPU402は、この実施例の音案内装置 301の全体を制御する。 RO M403は、ブートプログラムなどのプログラムを記憶している。 RAM404は、 CPU40 2のワークエリアとして使用される。 HD405は、不揮発性の読み書き可能な磁気メモ リである。ヘッドホン IZF406は、 CPU402からの音の出力を受けて、ヘッドホン 302 に音を送るインタフェースである。
[0027] 図 5は、音案内システムの機能的構成を示すブロック図である。図 3に示したように 音案内システム 300は、音案内装置 301およびヘッドホン 302によって構成される。 音案内装置 301は、 GPS501、方向判定部 502、経路情報 503、音決定部 504、動 き検出部 505および音像合成部 506によって構成される。ヘッドホン 302は、磁気セ ンサ 511、ヘッドホン部 512、振動発生部 513によって構成される。
[0028] GPS501は、複数の人工衛星からの信号を入力し、緯度および経度を求める。ま た、地図データを保有しており、入力された緯度および経度から、現在位置および進 行経路を特定する。
[0029] 方向判定部 502は、現在位置、目的地および進行経路から進行方向を求める。現 在位置から直線上に目的地に向力つている場合、その目的地への方向が、進行方 向となる。しかし実際の進行経路は、目的地まで直線上ではなく迂回することもある。 この場合、その進行経路上の先の地点への方向が進行方向となる。そこで、方向判 定部 502は、現在位置と目的地に基づいて経路情報 503を取得する。そして、現在 位置およびこの経路情報 503から進行方向を求める。また、進行経路は、一本道を まっすぐ行くこともあるが、十字路や三叉路で、例えば右に行くこともある。この場合、 進行方向は右方向に該当する方角になる。
[0030] 音決定部 504は、方向判定部 502で求められた進行方向および現在位置に応じ た音を検索する。音は、音声とすることができる。この場合の音声は、状況によって異 なる音声とすることができるが、例えば現在位置の名称とすることができる。または、 進行方向に応じて、「前」「後」「左」「右」といった、次に進むべき方向を示す音声とす ることができる。また、進行経路を曲がるときに、その曲がるタイミングのその曲がる方 向を示す音声とすることができる。その他、音はビープ音など、使用者に方向を伝え ることができる様々な音とすることができる。動き検出部 505は、ヘッドホン 302におい て検出される、使用者の頭の動きを検出する。
[0031] 音像合成部 506は、音決定部 504から出力される音をヘッドホン 302で再生する音 に変換する。すなわち、作成された音データが指定された向き力も出力されるように、 頭部伝達関数を音決定部 504から出力される音に合成する。頭部伝達関数を音に 合成することによって、使用者が感じる音の方向を操作することができる。音の出力 方向は、「前」「後」「左」「右」の他、「上」「下」とすることができる。たとえば、右斜め前 に登り坂がある場合、音の出力方向を、右斜め前の少し上方向とすることができる。
[0032] ここで、頭部伝達関数を説明する。頭部伝達関数を音に合成することにより、ヘッド ホン受聴において、擬似的にその方向力も音が聞こえるような環境を作ることができ る。人間の聴覚は、自分の耳に最初に到達する音によって音の方向を知覚し、音の 方向のイメージと大きさなどの「音像」をとらえる。
[0033] すなわち、人間は、音を聞いたときに、その音の大きさ、高さ、音色だけでなぐその 方向や距離などの空間的な情報も得ることができる音像定位能力をもつ。音像定位 の物理的要因を解明し制御することにより、音の方向を擬似的に決めることができる。 音像定位の手がかりには、両耳に到達した信号間の時間差や強度差、頭部や耳た ぶなどによる回折で生ずる音波の周波数特性の変化、部屋の壁などによる反射があ る。 [0034] これらの影響を反映させたものが頭部伝達関数である。この頭部伝達関数は、反射 波が全くない空間(自由空間)における、頭部や耳たぶの影響を含め、音源から聴取 者の鼓膜までの音の伝達特性である。一方、室内伝達関数は、室内における音源か ら聴取者までの伝達特性を表し、部屋の壁の反射などの影響を含んでいる。この 2つ の伝達関数の合成によってさまざまな音環境を模擬することができる。
[0035] また、ヘッドホン 302で音を聞く場合、頭の動きに応じて音像も動いてしまう。そこで 、より現実的な音像の模擬のために、磁気センサ 511で頭部の動きを取り込む。音像 合成部 506は、磁気センサ 511で取り込んだ頭部の動きに応じて変化する頭部伝達 関数と原音信号を合成し、常に音像が同じ位置にあるように制御する。
[0036] 磁気センサ 511は、頭部の動きを磁気によって検知するセンサである。検出した頭 部の動きは、動き検出部 505に送られる。ヘッドホン部 512は、音像合成部 506から の出力を音として使用者の左右の耳に当てられるスピーカである。
[0037] 振動発生部 513は、方向判定部 502から出力される進行方向に応じてヘッドホン 部 512を振動させる。振動発生部 513は、例えば進行方向が左側のときは、ヘッドホ ン部 512の左耳に当てられる部分を振動させる。逆に、振動発生部 513は、例えば 進行方向が右側のときは、ヘッドホン部 512の右耳に当てられる部分を振動させる。 振動を発生させることにより、使用者は聴覚だけでなく体で直接進行方向を感じるこ とができ、たとえば眠たいときなど、音だけでは使用者に伝達されるとは限らない場合 でも、的確に使用者に進行方向を伝えることができる。
[0038] 図 6は、音案内装置の処理を示すフローチャートである。まず、 GPS501は現在位 置を取得する(ステップ S601)。すなわち、 GPS501は、人工衛星からの信号に基づ いて、緯度および経度により現在位置を特定する。
[0039] 次に、方向判定部 502は、取得した現在位置から、経路情報 503を参照して進行 する経路を決定する (ステップ S602)。次に、方向判定部 502は、進行経路と現在位 置を比較して、進行方向を決定する (ステップ S603)。
[0040] 次に、音決定部 504は、音情報を取得する (ステップ S604)。すなわち、進行方向 が変更になるときに変更先の進行方向の音を出力音として決定する。または、一定 時間毎に、現在位置を使用者に知らせるベぐ GPS501で取得した現在位置の情報 を出力音として出力する。
[0041] 次に、音像合成部 506は、音決定部 504から取得した音情報を方向に応じて変更 する (ステップ S605)。すなわち、上述のように頭部伝達関数を、音決定部 504から 出力される音に合成する。また、頭部の動きに応じて変化する頭部伝達関数と原音 信号を合成し、常に音像が同じ位置にあるように制御する。
[0042] 次に、音'振動を出力する (ステップ S606)。すなわち、音像合成部 506は、合成さ れた音情報をヘッドホン部 512から出力する。一方、方向判定部 502は、方向の情 報を振動発生部 513に出力し、振動発生部 513は、ヘッドホン部 512に進行方向に 応じた部分を振動させる。そして、一連の処理を終了する。
[0043] 音と振動は、同時に発生させることができる。また、振動を先に、音を後に発生させ ることができる。たとえば、使用者が進行方向に対して曲がろうとするときに、曲がる地 点の直前に振動を与え、それ力 音を出力することができる。振動を先に発生させる ことにより、使用者は、次に出力される音を集中して確認することができる。この場合 の振動は、音が発生する前に止めてよぐまた、音が発生したあとも «続して振動さ せてもよい。また、音を先に、振動を後に発生させることもできる。
[0044] 以上説明したように、音案内装置、音案内方法および音案内プログラムによれば、 進行方向に応じてヘッドホンの音出力や振動を制御することができ、それにより使用 者は感覚的に現在位置や進行方向を把握することができる。
[0045] なお、本実施の形態で説明した音案内方法は、予め用意されたプログラムを PDA などのコンピュータで実行することにより実現することができる。このプログラムは、ノヽ ードディスク、フレキシブルディスク、 CD— ROM、 MO、 DVDなどのコンピュータで 読み取り可能な記録媒体に記録され、コンピュータによって記録媒体力 読み出され ることによって実行される。またこのプログラムは、インターネットなどのネットワークを 介して配布することが可能な伝送媒体であってもよ 、。

Claims

請求の範囲
[1] 使用者の現在位置を検出する位置検出手段と、
前記位置検出手段によって検出された現在位置と、前記使用者の目的地に基づ いて進行方向を判定する判定手段と、
前記判定手段によって判定された前記進行方向に基づ!/、て、音を作成する音作成 手段と、
前記音作成手段によって作成された音を出力する音出力手段と、
を備えたことを特徴とする音案内装置。
[2] 前記目的地と前記現在位置の関係に基づいて、前記使用者が進行する経路を求 める経路判定手段をさらに備え、
前記判定手段は、前記経路判定手段で求められた経路と、前記使用者の現在位 置に基づいて、前記進行方向を判定することを特徴とする請求項 1に記載の音案内 装置。
[3] 前記音作成手段は、前記目的地の向きが、前記使用者への音像の向きとなる音を 作成することを特徴とする請求項 1に記載の音案内装置。
[4] 前記音案内装置はヘッドホンに接続され、前記音出力手段は該ヘッドホンから前 記音作成手段によって作成された音を出力し、
前記音作成手段は、前記目的地の向きが前記使用者に対して左側の場合、前記 ヘッドホンの右側より左側から強く出力される音を、前記目的地の向きが前記使用者 に対して右側の場合、前記ヘッドホンの左側より右側力 強く出力される音を作成す ることを特徴とする請求項 1に記載の音案内装置。
[5] 前記判定手段によって判定された前記進行方向に基づいて、振動を発生させる振 動発生手段を備えることを特徴とする請求項 1〜4のいずれか一つに記載の音案内 装置。
[6] 使用者の現在位置を検出する位置検出工程と、
前記位置検出工程によって検出された現在位置と、前記使用者の目的地に基づ いて進行方向を判定する判定工程と、
前記判定工程によって判定された前記進行方向に基づ!ヽて、音を作成する音作成 工程と、
前記音作成工程によって作成された音を出力する音出力工程と、
を含んだことを特徴とする音案内方法。
使用者の現在位置を検出させる位置検出工程と、
前記位置検出工程によって検出された現在位置と、前記使用者の目的地に基づ いて進行方向を判定させる判定工程と、
前記判定工程によって判定された前記進行方向に基づ!ヽて、音を作成させる音作 成工程と、
前記音作成工程によって作成された音を出力させる音出力工程と、
をコンピュータに実行させることを特徴とする音案内プログラム。
PCT/JP2006/300195 2005-01-13 2006-01-11 音案内装置、音案内方法および音案内プログラム WO2006075606A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006552929A JPWO2006075606A1 (ja) 2005-01-13 2006-01-11 音案内装置、音案内方法および音案内プログラム
US11/813,607 US20090192707A1 (en) 2005-01-13 2006-01-11 Audio Guide Device, Audio Guide Method, And Audio Guide Program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005006853 2005-01-13
JP2005-006853 2005-01-13

Publications (1)

Publication Number Publication Date
WO2006075606A1 true WO2006075606A1 (ja) 2006-07-20

Family

ID=36677631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/300195 WO2006075606A1 (ja) 2005-01-13 2006-01-11 音案内装置、音案内方法および音案内プログラム

Country Status (3)

Country Link
US (1) US20090192707A1 (ja)
JP (1) JPWO2006075606A1 (ja)
WO (1) WO2006075606A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009081829A1 (ja) * 2007-12-21 2009-07-02 Kabushiki Kaisha Kenwood 情報配信システム及び車載器
WO2010022561A1 (en) * 2008-08-29 2010-03-04 Mediatek (Hefei) Inc. Method for playing voice guidance and navigation device using the same
KR101463811B1 (ko) * 2007-12-17 2014-11-20 엘지전자 주식회사 이동 단말기, 무선장치 및 이동 단말기와 무선장치간의통신방법
US9528848B2 (en) 2015-03-30 2016-12-27 Alpine Electronics, Inc. Method of displaying point on navigation map
WO2017094306A1 (ja) * 2015-12-01 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019240269A1 (ja) 2018-06-14 2019-12-19 本田技研工業株式会社 報知装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681997B2 (en) * 2009-06-30 2014-03-25 Broadcom Corporation Adaptive beamforming for audio and data applications
EP3550853A1 (en) * 2009-11-24 2019-10-09 Nokia Technologies Oy An apparatus
US8995678B2 (en) * 2010-04-30 2015-03-31 Honeywell International Inc. Tactile-based guidance system
JP5776962B2 (ja) * 2011-01-26 2015-09-09 日本電気株式会社 ナビゲーション装置
JP2012215477A (ja) * 2011-03-31 2012-11-08 Fujitsu Ltd 誘導音生成装置及び誘導音生成プログラム
JP2013089130A (ja) * 2011-10-20 2013-05-13 Sony Corp 情報処理装置、情報処理方法、プログラム、及び記録媒体
TWI500023B (zh) * 2013-04-11 2015-09-11 Univ Nat Central 透過視覺的聽覺輔助裝置
US11022456B2 (en) * 2013-07-25 2021-06-01 Nokia Technologies Oy Method of audio processing and audio processing apparatus
KR20160000345A (ko) * 2014-06-24 2016-01-04 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN105472527B (zh) * 2016-01-05 2017-12-15 北京小鸟看看科技有限公司 一种马达矩阵控制方法及一种可穿戴设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11132785A (ja) * 1997-10-24 1999-05-21 Toyo Commun Equip Co Ltd ナビゲーションシステム
JP2000155893A (ja) * 1998-11-20 2000-06-06 Sony Corp 情報報知装置、ナビゲーション装置、車載情報処理装置及び自動車
JP2000213951A (ja) * 1999-01-28 2000-08-04 Kenwood Corp カ―ナビゲ―ションシステム
JP2004340930A (ja) * 2003-04-21 2004-12-02 Matsushita Electric Ind Co Ltd 経路案内提示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5610822A (en) * 1995-03-03 1997-03-11 Trimble Navigation, Ltd. Position-related multi-media presentation system
JP3263286B2 (ja) * 1995-09-07 2002-03-04 松下電器産業株式会社 車載ナビゲーション装置
US5798733A (en) * 1997-01-21 1998-08-25 Northrop Grumman Corporation Interactive position guidance apparatus and method for guiding a user to reach a predetermined target position
JP2002131072A (ja) * 2000-10-27 2002-05-09 Yamaha Motor Co Ltd 位置案内システム、位置案内シミュレーションシステム及びナビゲーションシステム、並びに位置案内方法
JPWO2002097372A1 (ja) * 2001-05-28 2004-09-16 三菱電機株式会社 運転支援装置
WO2005090916A1 (ja) * 2004-03-22 2005-09-29 Pioneer Corporation ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよびコンピュータ読み取り可能な記録媒体
KR101384528B1 (ko) * 2007-03-02 2014-04-11 삼성전자주식회사 입체 음향을 이용한 방향 안내 처리 방법 및 그를 적용한네비게이션 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11132785A (ja) * 1997-10-24 1999-05-21 Toyo Commun Equip Co Ltd ナビゲーションシステム
JP2000155893A (ja) * 1998-11-20 2000-06-06 Sony Corp 情報報知装置、ナビゲーション装置、車載情報処理装置及び自動車
JP2000213951A (ja) * 1999-01-28 2000-08-04 Kenwood Corp カ―ナビゲ―ションシステム
JP2004340930A (ja) * 2003-04-21 2004-12-02 Matsushita Electric Ind Co Ltd 経路案内提示装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463811B1 (ko) * 2007-12-17 2014-11-20 엘지전자 주식회사 이동 단말기, 무선장치 및 이동 단말기와 무선장치간의통신방법
WO2009081829A1 (ja) * 2007-12-21 2009-07-02 Kabushiki Kaisha Kenwood 情報配信システム及び車載器
JP2009153018A (ja) * 2007-12-21 2009-07-09 Kenwood Corp 情報配信システム及び車載器
CN101903923A (zh) * 2007-12-21 2010-12-01 株式会社建伍 信息发布系统和车载装置
US8319661B2 (en) 2007-12-21 2012-11-27 Kabushiki Kaisha Kenwood Information distribution system and vehicle-mounted device
CN101903923B (zh) * 2007-12-21 2014-03-05 株式会社建伍 信息发布系统和车载装置
WO2010022561A1 (en) * 2008-08-29 2010-03-04 Mediatek (Hefei) Inc. Method for playing voice guidance and navigation device using the same
US9528848B2 (en) 2015-03-30 2016-12-27 Alpine Electronics, Inc. Method of displaying point on navigation map
WO2017094306A1 (ja) * 2015-12-01 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11017431B2 (en) 2015-12-01 2021-05-25 Sony Corporation Information processing apparatus and information processing method
WO2019240269A1 (ja) 2018-06-14 2019-12-19 本田技研工業株式会社 報知装置

Also Published As

Publication number Publication date
JPWO2006075606A1 (ja) 2008-06-12
US20090192707A1 (en) 2009-07-30

Similar Documents

Publication Publication Date Title
WO2006075606A1 (ja) 音案内装置、音案内方法および音案内プログラム
US11629971B2 (en) Audio processing apparatus
US8718930B2 (en) Acoustic navigation method
EP2737727B1 (en) Method and apparatus for processing audio signals
CN101256082B (zh) 使用3d声音方向向导的方法和使用该方法的导航系统
WO2005090916A1 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよびコンピュータ読み取り可能な記録媒体
JP2007035043A (ja) 受信装置、送信装置、位置認知システム及び位置認知方法
JP2017153083A (ja) 自動車でオーディオ信号を再生する装置及び方法
WO2019198123A1 (ja) ナビゲーション装置及びナビゲーション方法
JP5543106B2 (ja) 空間オーディオ信号再生装置及び空間オーディオ信号再生方法
JP2006266902A (ja) 環境音再生を伴うナビゲーション装置
JP2003028663A (ja) ナビゲーション装置及び制御プログラム
WO2006095688A1 (ja) 情報再生装置、情報再生方法、情報再生プログラムおよびコンピュータに読み取り可能な記録媒体
JP5157383B2 (ja) 走行案内装置、走行案内方法および走行案内プログラム
JP2008071058A (ja) 音声再生装置、音声再生方法、プログラム
JP2006115364A (ja) 音声出力制御装置
Villegas et al. GABRIEL: Geo-Aware Broadcasting For In-Vehicle Entertainment And Localizability
JP2006226872A (ja) ナビゲーション装置およびプログラム
WO2002097372A1 (fr) Appareil de soutien aux operations
JP7063353B2 (ja) 音声ナビゲーションシステムおよび音声ナビゲーション方法
WO2013145083A1 (ja) 音響装置、出力音管理装置、端末装置及び出力音制御方法
WO2022124154A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP2009157065A (ja) 音声出力装置、音声出力方法、音声出力プログラムおよび記録媒体
JP2007218929A (ja) 音響経路情報を有するナビゲーションシステム
WO2023160794A1 (en) Navigation device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11813607

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2006552929

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06711544

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 6711544

Country of ref document: EP