JP2013047653A - 音声処理装置、音声処理方法、プログラムおよび誘導案内システム - Google Patents

音声処理装置、音声処理方法、プログラムおよび誘導案内システム Download PDF

Info

Publication number
JP2013047653A
JP2013047653A JP2011186489A JP2011186489A JP2013047653A JP 2013047653 A JP2013047653 A JP 2013047653A JP 2011186489 A JP2011186489 A JP 2011186489A JP 2011186489 A JP2011186489 A JP 2011186489A JP 2013047653 A JP2013047653 A JP 2013047653A
Authority
JP
Japan
Prior art keywords
user
sound source
voice
virtual sound
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011186489A
Other languages
English (en)
Other versions
JP5807451B2 (ja
Inventor
Yusuke Suzuki
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2011186489A priority Critical patent/JP5807451B2/ja
Publication of JP2013047653A publication Critical patent/JP2013047653A/ja
Application granted granted Critical
Publication of JP5807451B2 publication Critical patent/JP5807451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Stereophonic System (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】正しい進行方向および経路から離れた場合の戻り方を直感的に把握することを可能にすること。
【解決手段】ユーザ位置を検出する検出部と、開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、前記検出部により検出された前記ユーザ位置を用いて、前記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および前記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部とを備える、音声処理装置が提供される。
【選択図】図1

Description

本発明は、音声処理装置、音声処理方法、プログラムおよび誘導案内システムに関する。
近年、ユーザを目標位置まで誘導するための誘導案内技術が広く普及している。例えば、誘導案内装置の典型例であるカーナビゲーションシステムは、現在位置から目標位置までの経路を作成し、当該経路に基づいて地図表示と音声出力との組合せによりユーザを目標位置まで誘導する。
一方、視覚障害者については、地図表示に依存して目標位置まで誘導することは困難である。このため、視覚障害者であるユーザを音声出力のみにより誘導する技術が提案されている。
例えば、下記特許文献1では、ユーザの向きを検出し、当該ユーザの向きに基づいてユーザが進行すべき方向を決定し、当該進行すべき方向を音声により通知する誘導案内装置が提案されている。
特開2002−257581号公報
しかし、上記特許文献1の誘導案内装置では、ユーザは、正しい進行方向および経路から離れた場合の戻り方を直感的に把握することができない。例えば、ユーザは、正しい方向に進めているかを知るために、マイクに向かって音声を発することによって誘導案内装置にその都度確認しなければならない。また、ユーザは、経路から離れてしまった場合に当該経路や移動の開始位置を容易に把握することができない。
そこで、本発明は、正しい進行方向および経路から離れた場合の戻り方を直感的に把握することを可能にする、新規かつ改良された音声処理装置、音声処理方法、プログラムおよび誘導案内システムを提供しようとするものである。
本発明によれば、ユーザ位置を検出する検出部と、開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、上記検出部により検出された上記ユーザ位置を用いて、上記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および上記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部とを備える、音声処理装置が提供される。
上記第1の音声データおよび上記第2の音声データは、異なる音声パターンを有し、上記音声作成部は、上記第1の音声データおよび上記第2の音声データを時間軸上の異なる位置に配置してもよい。
上記検出部は、上記ユーザの向きをさらに検出し、上記音声作成部は、上記第1の音声データまたは上記第2の音声データの各々を、上記ユーザ位置または上記ユーザの向きと、上記第1の仮想音源位置または上記第2の仮想音源位置の各々との相対的関係に基づいて作成してもよい。
上記音声作成部は、上記第1の音声データおよび上記第2の音声データの各々を、上記相対的関係に応じた音量または音声パターンで作成してもよい。
上記音声作成部は、上記第1の音声データおよび上記第2の音声データの各々を、上記相対的関係に応じた頻度で時間軸上の異なる位置に配置してもよい。
上記相対的関係は、上記ユーザ位置と、上記第1の仮想音源位置若しくは上記第2の仮想音源位置との距離、または、上記ユーザの向きと、上記第1の仮想音源位置の方向若しくは上記第2の仮想音源位置の方向とのなす角度を含んでもよい。
上記音声作成部は、上記第1の音声データおよび上記第2の音声データをステレオ形式で作成してもよい。
上記音声作成部は、上記第1の音声データおよび上記第2の音声データを頭部伝達関数の畳み込みにより作成してもよい。
また、本発明によれば、ユーザ位置を検出するステップと、開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定するステップと、検出された上記ユーザ位置を用いて、上記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および上記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成するステップとを含む、音声処理方法が提供される。
また、本発明によれば、コンピュータを、ユーザ位置を検出する検出部と、開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、上記検出部により検出された上記ユーザ位置を用いて、上記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および上記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部と、として機能させるためのプログラムが提供される。
また、本発明によれば、センサ、音声出力装置および音声処理装置を含む誘導案内システムであって、上記音声処理装置は、上記センサからの入力に基づいてユーザ位置を検出する検出部と、開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、上記検出部により検出された上記ユーザ位置を用いて、上記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および上記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部とを備え、上記音声出力装置は、上記第1の音声データの音声および上記第2の音声データの音声を出力する、誘導案内システムが提供される。
以上説明したように本発明に係る音声処理装置、音声処理方法、プログラムおよび誘導案内システムによれば、正しい進行方向および経路から離れた場合の戻り方を直感的に把握することが可能になる。
一実施形態に係る誘導案内システムの概略的な構成の一例を示す説明図である。 一実施形態に係る音声処理装置の構成の一例を示すブロック図である。 検出されるユーザの方向の例を説明するための説明図である。 案内情報作成部により作成される経路の例を説明するための説明図である。 音声作成部による音声データの作成を説明するための説明図である。 ユーザが目標位置の方向に向くまでの音声データの作成を説明するための説明図である。 ユーザが目標位置に向かって直線移動する際の音声データの作成を説明するための説明図である。 ユーザが移動の途中で向きを変える際の音声データの作成を説明するための説明図である。 音声作成部による音声データの時間軸上への配置を説明するための説明図である。 仮想音源位置の設定の変形例を説明するための説明図である。 一実施形態に係る音声処理の概略的な流れの一例を示すフローチャートである。
以下に添付の図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下では、<1.はじめに>、<2.誘導案内システムの概略的な構成>、<3.音声処理装置の構成>、<4.処理の流れ>という順序で本発明の実施形態を説明する。
<1.はじめに>
近年、ユーザを目標位置まで誘導するための誘導案内技術が広く普及している。例えば、誘導案内装置の典型例であるカーナビゲーションシステムは、まずGPS(Global Positioning System)から現在位置の情報を取得する。そして、当該カーナビゲーションシステムは、現在位置から目標位置までの経路を作成し、当該経路に基づいて地図表示と音声出力との組合せによりユーザを目標位置まで誘導する。上記カーナビゲーションシステムによれば、ユーザは、表示された地図を閲覧することにより、自らの位置と目標位置または案内の開始位置との位置関係、正しい方向に進んでいるか否か、経路から離れているか否か、等を容易に把握することができる。また、ユーザは、右折左折のタイミング等を通知する音声を聞くことにより、目標位置まで到達するための有用情報を得ることができる。このように、多くの誘導案内技術は、地図表示と音声の組合せによってユーザを目標位置に誘導する。
一方、視覚障害者にとって表示された地図を閲覧することは難しいので、上記のように地図表示に依存して視覚障害者であるユーザを目標位置まで誘導することは困難である。このため、音声出力のみにより視覚障害者であるユーザを誘導する技術が提案されている。一例として、ユーザの向きを検出し、当該ユーザの向きに基づいてユーザが進行すべき方向を決定し、当該進行すべき方向を音声により通知する誘導案内装置が提案されている(特開2002−257581号公報)。
しかし、従来の誘導案内技術では、ユーザは、正しい進行方向および経路から離れた場合の戻り方を直感的に把握することができない。例えば、一例として挙げられた上記誘導案内装置を用いる場合、ユーザは、正しい方向に進めているかを知るためには、マイクに向かって音声を発することによって誘導案内装置にその都度確認しなければならない。また、ユーザは、経路から離れてしまった場合に、経路から離れてしまっていることおよび元の経路または移動の開始位置への戻り方を容易に把握することができない。
発明者は、誘導案内技術の上記問題を認識し、正しい進行方向および経路から離れた場合の戻り方を直感的に把握することを可能にする誘導案内技術を研究するに至った。そして、当該案内技術の研究の中で、発明者は、「異種鳴き交わし方式」に着目した。
異種鳴き交わし方式は、視覚障害者が安全に道路を横断できるように信号機に導入される音声誘導手法である(「平成十五年10月22日警視庁丁規発77号 視覚障害者用付加装置に関する設置・運用指針の制定について」を参照)。当該異種鳴き交わし方式によれば、一方の横断歩道端に位置する信号機が、「カッコー」、「ピヨ」等の音声を発し、他方の横断歩道端に位置する信号機が、「カカッコー」、「ピヨピヨ」等の音声を発する。ユーザは、これらの音声を聞くことによって、2つの横断歩道端がどのあたりに存在するかを直感的に把握することができる。また、ユーザが聞くこれらの音声は、ユーザの移動に応じて変化するので、ユーザは、当該音声の変化から、自身が正しい進行方向に進んでいるか、横断歩道から離れていないかを、随時直感的に把握することができる。また、横断歩道の両端の信号機から音声が発せられるので、ユーザは、横断歩道から離れてしまった場合であっても、横断歩道や自身がいた方の横断歩道端に戻ることもできる。このように、異種鳴き交わし方式は、正しい進行方向および横断歩道から離れた場合の戻り方を直感的に把握することを可能にするという利点を有する。なお、2つの信号機は互いに異なる音声を発するので、ユーザは当該2つの信号機(または2つの横断歩道端)を区別することができる。また、これらの音声は異なる時間に交互に発せられるので、当該音声は混じり合わず、その結果、ユーザは当該音声を容易に聞きとることができる。ただし、当該異種鳴き交わし方式は、横断歩道のように特定の場所に設置されたスピーカ等により音声が発せられるので、当該特定の場所以外ではユーザを誘導することはできない。
そこで、本実施形態では、上記特定の位置に限定されずに、異種鳴き交わし方式のように、正しい進行方向および経路から離れた場合の戻り方を直感的に把握させることを可能にする誘導案内システムを説明する。
<2.誘導案内システムの概略的な構成>
まず、図1を参照して、本実施形態に係る誘導案内システム1の概略的な構成について説明する。図1は、本実施形態に係る誘導案内システム1の概略的な構成の一例を示す説明図である。図1を参照すると、誘導案内システム1は、センサ10、音声出力装置20および音声処理装置100を含む。
(センサ10)
センサ10は、ユーザ3の位置(以下、「ユーザ位置」と呼ぶ)を検知する装置である。センサ10は、例えばGPS(Global Positioning System)受信機を備えてもよい。または、センサ10は、例えば特開2003−91794号公報に開示されているような、ユーザ3が移動する環境内に設けられたアクティブマーカまたはパッシブマーカから電波、赤外線等により位置情報を受信する受信機を備えてもよい。ここで、センサ10は、当該受信機によりアクティブマーカまたはパッシブマーカから位置情報ではなくIDを取得し、当該IDと位置情報との対応関係を記憶するサーバ装置にアクセスすることにより、位置情報を取得可能であってもよい。
また、センサ10は、例えば、ユーザ3の向き(以下、「ユーザの向き」と呼ぶ)をさらに検知する。センサ10は、ジャイロセンサ、地磁気センサ、加速度センサのいずれかを備えてもよい。または、センサ10は、アクティブマーカまたはパッシブマーカから情報を受信する上記受信機を備え、当該受信機とアクティブマーカまたはパッシブマーカとの位置関係からユーザ3の方向を検知してもよい。
図1を参照すると、一例として、センサ10は、GPS受信機および加速度センサを備える場合に、ユーザ3の腰に装着される。なお、センサ10は、アクティブマーカまたはパッシブマーカから情報を受信する受信機である場合に、ユーザ3が利用する白杖と同様の形状で形成され、ユーザ3により携行されてもよい。
(音声出力装置20)
音声出力装置20は、音声処理装置100により作成された音声データの音声を出力する装置である。音声出力装置20は、例えば、2チャンネルステレオ音声を発するヘッドホンである。音声出力装置20は、例えば、音声データをデジタル/アナログ変換(以下、「D/A変換」と呼ぶ)することにより得られるアナログ音声信号を音声処理装置100から取得し、当該アナログ音声信号に基づいて音声を出力する。音声出力装置20は、音声処理装置100から音声データそのものを取得し、当該音声データをD/A変換してもよい。図1を参照すると、一例として、音声出力装置20は、上記ヘッドホンである場合にユーザ3の頭部に装着される。
(音声処理装置100)
音声処理装置100は、正しい進行方向および経路から離れた場合の戻り方を直感的に把握することを可能にするための音声データを作成する装置である。音声処理装置100は、有線または無線によりセンサ30および音声出力装置20と接続される。音声処理装置100は、例えば、センサ10により検知されたユーザ位置およびユーザの向きに基づいて音声データを作成する。そして、音声処理装置100は、例えば、音声データをD/A変換することにより得られたアナログ音声信号を音声出力装置20に出力する。音声出力装置20が音声データをD/A変換する場合には、音声処理装置100は音声データを音声出力装置20に出力してもよい。なお、当該音声処理装置100の具体的な構成および当該音声処理装置100による具体的な音声処理については、後述の<3.音声処理装置の構成>および<4.処理の流れ>において説明する。
以上、図1を参照して本発明の実施形態に係る誘導案内システム1の構成の一例を説明したが、誘導案内システム1の構成はこれに限られない。例えば、センサ10、音声出力装置20および音声処理装置100を物理的に分離された別の装置として説明したが、これらの装置のうちのいずれか2つ以上が、物理的に一体化された装置であってもよい。
<3.音声処理装置の構成>
次に、図2〜図10を参照して、本実施形態に係る音声処理装置100の構成の一例について説明する。図2は、本実施形態に係る音声処理装置100の構成の一例を示すブロック図である。図2を参照すると、音声処理装置100は、検出部110、目標入力部120、記憶部130、案内情報作成部140、音源設定部150、音声作成部160および音声出力部170を備える。
(検出部110)
検出部110は、ユーザ位置Pを検出する。より具体的には、検出部110は、例えば、センサ10により検知されたユーザ位置をセンサ10から取得することにより、ユーザ位置Pを検出する。ユーザ位置Pは、例えば、x座標、y座標からなる平面座標(x,y)で表される。例えば、センサ10がGPS受信機を備える場合に、x座標およびy座標は、それぞれ緯度および経度であってもよい。なお、ユーザ位置Pは、x座標、y座標およびz座標からなる空間座標(x,y,z)により表されてもよい。この場合に、z座標は、標高のような高さを示す値であってもよい。
また、検出部110は、例えば、ユーザの向きをさらに検出する。より具体的には、検出部110は、例えば、センサ10により検知されたユーザの向きをセンサ10から取得することにより、ユーザの向きを検出する。ここでのユーザの向きは、例えばユーザの正面方向であり、ユーザの正面方向と所定の方向とのなす角度θで表される。図3は、検出されるユーザの向きの例を説明するための説明図である。図3を参照すると、例えば、ユーザ位置Pが上記平面座標(x,y)で表される場合に、ユーザの向きは、x軸の正の方向とユーザの向きとのなす角度θで表される。
(目標入力部120)
目標入力部120は、ユーザ3による移動の最終的な目標位置(以下、「最終目標位置」と呼ぶ)を取得する。最終目標位置は、例えば、ユーザ位置Pと同様の形式で表される。目標入力部120は、例えばユーザ3による入力操作に応じて最終目標位置を取得する。より具体的には、目標入力部120は、音声により最終目標位置の候補をユーザ3に提示し、ボタン、スイッチ、レバー等の操作部によりユーザ3により選択された候補を最終目標位置として取得してもよい。または、目標入力部120は、操作部によりユーザ3により選択された数字を検知し、当該数字を最終目標位置の平面座標として取得してもよい。または、目標入力部120は、集音されたユーザ3の音声を認識し、認識された音声に対応する最終目標位置を取得してもよい。なお、目標入力部120は、操作部を用いたユーザによる開始指示に応じて、ユーザ3に入力操作を求めてもよく、または、ユーザ位置Pが地下鉄の改札出口、横断歩道端等の特定の位置となる場合に、ユーザ3に入力操作を求めてもよい。一方、ユーザ3による入力操作の代わりに、目標入力部120は、自動的に最終目標位置を取得してもよい。例えば、目標入力部120は、ユーザ位置Pが地下鉄の改札出口、横断歩道端等の特定の位置となる場合に、当該特定の位置に対応する所定の位置を最終目標位置として自動的に取得してもよい。
(記憶部130)
記憶部130は、音声処理装置100において一時的にまたは恒久的に保持すべき情報を記憶する。記憶部130は、例えば、ユーザが移動する空間における地図情報、および後述の案内情報作成部140により作成される経路を記憶する。また、記憶部130は、音声データを作成するためのサンプル音声データを記憶する。なお、記憶部130は、ハードディスク(Hard Disk)等の磁気記録媒体であってもよく、またはEEPROM(Electrically Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)、PRAM(Phase change Random Access Memory)等の不揮発性メモリであってもよい。
(案内情報作成部140)
案内情報作成部140は、ユーザ3を誘導すべき目標位置Pと、当該目標位置への誘導の開始位置Pとを設定する。案内情報作成部140は、例えば、記憶部130に記憶される地図情報に基づき、目標入力部120により取得された最終目標位置までの経路を作成し、当該経路に基づいて上記目標位置Pおよび上記開始位置Pを設定する。以下、この点について図4を参照してより具体的に説明する。
図4は、案内情報作成部140により作成される経路の例を説明するための説明図である。図4の4−1に示されるように、一例として、最終目標位置43は、直線的な移動により経路作成時のユーザ位置41から到達可能な位置である。この場合に、案内情報作成部140は、経路作成時のユーザ位置41および最終目標位置43を含む経路を作成する。そして、案内情報作成部140は、例えば経路作成時のユーザ位置41を開始位置Pとして設定し、最終目標位置43を目標位置Pとして設定する。
また、図4の4−2に示されるように、別の例として、最終目標位置43は、進行方向を変えることにより経路作成時のユーザ位置41から到達可能な位置である。この場合に、案内情報作成部140は、経路作成時のユーザ位置41、最終目標位置43、および進行方向を変えるべき経路上の位置45を含む経路を作成する。そして、案内情報作成部140は、まず例えば経路作成時のユーザ位置41を開始位置Ps1として設定し、当該開始位置Ps1から直線的な移動により到達可能な経路上の位置45aを目標位置Pg1として設定する。その後、ユーザ3が、経路上の位置45aである目標位置Pg1に到達すると、案内情報作成部140は、経路上の位置45aを新たな開始位置Ps2として設定し、当該開始位置Ps2から直線的な移動により到達可能な経路上の位置45bを新たな目標位置Pg2として設定する。その後、同様に、案内情報作成部140は、経路上の位置45bを新たな開始位置Ps3として設定し、最終目標位置43を新たな目標位置Pg3として設定する。なお、案内情報作成部140は、例えば、作成された経路を記憶部130に記憶させる。
なお、案内情報作成部140は、例えば、ユーザ3が目標位置Pに到達したか否かを判定する。案内情報作成部140は、目標位置Pとユーザ位置Pとが一致する場合、または目標位置Pとユーザ位置Pとの距離が所定の閾値以下である場合に、ユーザ3が目標位置Pに到達したと判定してもよい。また、案内情報作成部140は、ユーザの向きにも基づいて、ユーザ3が目標位置Pに到達したと判定してもよい。例えば、案内情報作成部140は、上記距離が所定の閾値以下であって、かつユーザの向きが次の目標位置Pの方向と一致する場合、すなわちユーザ3が次の目標位置Pに向けて進み始める場合に、ユーザ3が目標位置Pに到達したと判定してもよい。
(音源設定部150)
音源設定部150は、開始位置Pに応じた第1の仮想音源位置(以下、「開始側仮想音源位置」と呼ぶ)、および目標位置Pに応じた第2の仮想音源位置(以下、「目標側仮想音源位置」と呼ぶ)を設定する。音源設定部150は、例えば、案内情報作成部140により設定された開始位置Pを開始側仮想音源位置として設定し、案内情報作成部140により設定された目標位置Pを目標側仮想音源位置として設定する。以下、開始側仮想音源位置および目標側仮想音源位置がこのように設定される例について説明する。当該設定が前提となることを容易に理解できるように、開始側仮想音源位置を開始側仮想音源位置P、目標側仮想音源位置を目標側仮想音源位置Pと記載する。
(音声作成部160)
音声作成部160は、検出部110により検出されたユーザ位置Pを用いて、開始側仮想音源位置Pが音源位置としてユーザ3に知覚される第1の音声データ(以下、「開始側音声データ」と呼ぶ)、および目標側仮想音源位置Pが音源としてユーザ3に知覚される第2の音声データ(以下、「目標側音声データ」と呼ぶ)を作成する。また、音声作成部160は、例えば、開始側音声データまたは目標側音声データの各々を、ユーザ位置Pまたはユーザの向きと、開始側仮想音源位置Pまたは目標側仮想音源位置Pの各々との相対的関係に基づいて作成する。以下、この点について図5を参照してより具体的に説明する。
図5は、音声作成部160による音声データの作成を説明するための説明図である。図5を参照すると、例えば、音声作成部160は、ユーザ位置Pと開始側仮想音源位置Pとの距離d、およびユーザの向き(ユーザの正面方向)と開始側仮想音源位置Pの方向のなす角度θを算出する。そして、音声作成部160は、開始側音声データとして、正面方向から角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される音声データを作成する。同様に、音声作成部160は、例えば、ユーザ位置Pと目標側仮想音源位置Pとの距離d、およびユーザの向き(ユーザの正面方向)と目標側仮想音源位置Pの方向のなす角度θを算出する。そして、音声作成部160は、目標側音声データとして、正面方向から角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される音声データを作成する。すなわち、上記相対的関係は、例えば、ユーザ位置Pと開始側仮想音源位置Pとの距離d、ユーザ位置Pと目標側仮想音源位置Pとの距離d、ユーザの向きと開始側仮想音源位置Pの方向とのなす角度θ、またはユーザの向きと目標側仮想音源位置Pの方向とのなす角度θを含む。
上記距離dおよびd、並びに上記角度θおよびθの算出手法を説明する。図5を参照すると、音声作成部160は、まず、検出部110により検出されたユーザ位置Pおよびユーザの向きθ、並びに、音源設定部150により設定された開始側仮想音源位置Pおよび目標側仮想音源位置Pを取得する。ここで、ユーザ位置P、開始側仮想音源位置Pおよび目標側仮想音源位置Pが、それぞれ平面座標(x,y)、(x,y)および(x,y)で表されるものとする。すると、音声作成部160は、以下の式(1)および(2)により、距離dおよびdを算出する。
Figure 2013047653
(1)
Figure 2013047653
(2)

また、音声作成部160は、以下の式(3)および(4)により、ユーザ位置Pから開始側仮想音源位置Pへの方向θ、およびユーザ位置Pから目標側仮想音源位置Pへの方向θを算出する。
Figure 2013047653
(3)
Figure 2013047653
(4)

そして、音声作成部160は、以下の式(5)および(6)により、角度θおよびθを算出する。
Figure 2013047653
(5)
Figure 2013047653
(5)
また、音声作成部160は、例えば以下のような音源定位手法により、正面方向から角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される開始側音声データと、正面方向から角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される目標側音声データとを作成する。なお、音声作成部160は、開始側音声データおよび目標側音声データをステレオ形式で作成する。
第1の例として、音声作成部160は、開始側音声データおよび目標側音声データを頭部伝達関数(HRTF:Head Related Transfer Function)の畳み込みにより作成する。HRTFは、音源から耳に至るまでの音の伝達特性を表す関数である。例えば、ダミーヘッドとその耳の箇所に取付けられたマイクロフォンで、離散的に配置された音源で発する音のインパルス応答を測定することにより、HRTFを得ることができる。音声作成部160は、記憶部130に記憶されている第1のサンプル音声データに、角度θおよび距離dに対応するHRTFを時間領域で畳み込むことにより、開始側音声データを作成することができる。同様に、音声作成部160は、記憶部130に記憶されている第2のサンプル音声データに、角度θおよび距離dに対応するHRTFを時間領域で畳み込むことにより、目標側音声データを作成することができる。
第2の例として、音声作成部160は、ステレオ形式におけるチャンネル間の音量のバランスを調整することにより、開始側音声データおよび目標側音声データを作成する。例えば、左右の2チャンネルステレオ形式で各音声データが作成される場合に、音声作成部160は、角度θおよび距離dに応じて左チャネルと右チャネルとの間の音量バランスを調整することにより、開始側音声データを作成する。同様に、音声作成部160は、角度θおよび距離dに応じて左チャネルと右チャネルとの間の音量バランスを調整することにより、目標側音声データを作成する。
以上、音声作成部160による開始側音声データおよび目標側音声データの作成手法を説明した。次に、図6〜図8を参照して、ユーザ3が開始位置Pから目標位置Pに移動するまでどのように音声データが作成されるかについて説明する。
図6は、ユーザ3が目標位置Pの方向に向くまでの音声データの作成を説明するための説明図である。図6を参照すると、6−1で、開始位置Pから目標位置Pへのユーザ3の誘導が開始される。そして、6−1から6−3にかけて、ユーザ3は、ユーザの向きと目標位置Pの方向とが一致するように向きを変える。これに伴い、ユーザの向きと目標位置P(すなわち目標側音源位置P)の方向とのなす角θが変化するので、音声作成部160は、正面方向から当該角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される目標側音声データを随時作成する。なお、開始位置P(すなわち開始側音源位置P)とユーザ位置Pとが一致するので、ユーザの向きと開始側仮想音源位置Pの方向とのなす角θは存在しない。しかし、図6に示されるように、音声作成部160は、例えば、6−1の誘導開始時のユーザの向きを開始側仮想音源位置Pの方向とみなす。すなわち、音声作成部160は、現在のユーザの向きと誘導開始時のユーザの向き(開始側仮想音源位置Pの方向)とのなす角θだけずれた方向にあるいずれかの位置が音源として知覚される開始側音声データを作成する。このように、開始位置Pにおいて誘導開始時のユーザの向きが開始側仮想音源位置Pの方向とみなされることにより、ユーザ3は、開始位置Pにおいて誘導開始時のユーザの向きにいつでも向き直ることが可能となる。
図7は、ユーザ3が目標位置Pに向かって直線移動する際の音声データの作成を説明するための説明図である。図7を参照すると、7−1で、ユーザ3は目標位置Pへの移動を開始する。そして、7−1から7−3にかけて、ユーザ3は、目標位置Pの方向へ移動する。これに伴い、ユーザ位置Pと目標位置P(すなわち目標側音源位置P)との距離dが変化するので、音声作成部160は、正面方向に当該距離dだけ離れた位置が音源として知覚される目標側音声データを随時作成する。また、ユーザ位置Pと開始位置P(すなわち開始側音源位置P)との距離dが変化するので、音声作成部160は、背面方向に当該距離dだけ離れた位置が音源として知覚される開始側音声データを随時作成する。このように音声データを随時作成するにあたり、音声作成部160は、例えば、距離dおよび距離dに応じて、開始側音声データおよび目標側音声データの音量を変化させる。以上のように、ユーザ3は、図6および図7のように移動すれば開始位置Pから目標位置Pに到達可能である。ただし、次に説明するように、ユーザ3は、開始位置Pに戻ろうとする場合、経路から外れた場合等に移動の途中で向きを変える可能性もある。
図8は、ユーザ3が移動の途中で向きを変える際の音声データの作成を説明するための説明図である。図8を参照すると、8−1で、ユーザ3は目標位置Pへの移動を停止する。そして、8−1から8−3にかけて、ユーザ3は、右側に向きを変化させる。これに伴い、ユーザの向きと目標位置P(すなわち目標側音源位置P)の方向とのなす角θが変化するので、音声作成部160は、正面方向から当該角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される目標側音声データを随時作成する。同様に、ユーザの向きと開始位置P(すなわち開始側音源位置P)の方向とのなす角θが変化するので、音声作成部160は、正面方向から当該角度θだけずれた方向に距離dだけ離れた位置が音源として知覚される開始側音声データを随時作成する。
このような開始側音声データおよび目標側音声データの作成により、特定の位置にスピーカのような音声を発する装置が設置されなくても、開始位置Pおよび目標位置Pがどのあたりに存在するかをユーザ3に直感的に把握させることが可能となる。また、ユーザ3が聞くこれらの音声データの音声は、ユーザの移動に応じて変化するので、ユーザは、当該音声の変化から、自身が正しい進行方向に進んでいるか、経路から離れていないかを、随時直感的に把握することができる。また、目標側音声データのみならず開始側音声データも作成されるので、ユーザは、正しい経路や開始位置Pに戻ることもできる。すなわち、音声を発する装置が設置されていない場所であっても、異種鳴き交わし方式のように、正しい進行方向および経路から離れた場合の戻り方を直感的に把握させることが可能になる。
以上のように作成される開始側音声データおよび目標側音声データは、例えば、異なる音声パターンを有する。ここでの音声パターンは、例えば、音声の種類である。開始側音声データは、例えば「カッコー」という音声の種類を有し、目標側音声データは、例えば「カカッコー」という音声の種類を有する。なお、より具体的な情報を提供するために、開始側音声データが「開始位置」または「後ろ」という音声の種類を有し、目標側音声データが「目標位置」または「前」という音声の種類を有してもよい。また、音声パターンは、音声の種類に限られず、例えば音声の音高、テンポ等であってもよい。このように、開始側音声データと目標側音声データの音声パターンが互いに異なれば、ユーザ3は両者の音声を聞き分けることができる。その結果、ユーザ3は、どちらが開始位置Pであり、どちらが目標位置Pであるかを識別することが可能となる。
以上のように、音声作成部160は、開始側音声データおよび目標側音声データをそれぞれ作成する。そして、音声作成部160は、作成した開始側音声データおよび目標側音声データを時間軸上の異なる位置に配置する。図9は、音声作成部160による音声データの時間軸上への配置を説明するための説明図である。図9を参照すると、時間帯t1に示されるように、音声作成部160は、例えば、時間軸上において開始側音声データAと目標側音声データBとを交互に配置する。または、時間帯t2に示されるように、音声作成部160は、例えば、開始側音声データAと目標側音声データBとを異なる頻度で配置してもよい。このように開始側音声データと目標側音声データとが時間軸上の異なる位置に配置されれば、開始側音声データの音声と目標側音声データの音声とが混じらない。その結果、ユーザ3は、開始側音声データの音声と目標側音声データの音声を容易に聞き分けることができる。なお、音声作成部160は、例えば、音声の出力頻度または出力タイミングを示すパラメータを設定することにより、開始側音声データおよび目標側音声データを時間軸上の異なる位置に配置する。
(音声出力部170)
音声出力部170は、音声作成部160により作成された開始側音声データおよび目標側音声データをD/A変換することによりアナログ音声信号を生成し、当該アナログ音声信号を音声出力装置20へ出力する。音声出力部170は、音声作成部160による時間軸上への音声データの配置に従ってアナログ音声信号の出力を行う。なお、音声出力装置20が音声データをD/A変換する場合には、音声出力部170は音声データそのものを音声出力装置20に出力してもよい。
以上、図2〜図10を参照して、本実施形態に係る音声処理装置100の構成の一例について説明したが、本実施形態に係る音声処理装置100の構成はこの一例に限定されない。
(変形例)
−音声データの作成
例えば、音声作成部160は、開始側音声データおよび目標側音声データの各々を、ユーザ位置Pまたはユーザの向きと、開始側仮想音源位置Pまたは目標側仮想音源位置Pの各々との相対的関係に応じた音量または音声パターンで作成してもよい。既に説明したように、上記相対的関係は、例えば、ユーザ位置Pと開始側仮想音源位置Pとの距離d、ユーザ位置Pと目標側仮想音源位置Pとの距離d、ユーザの向きと開始側仮想音源位置Pの方向とのなす角度θ、またはユーザの向きと目標側仮想音源位置Pの方向とのなす角度θを含む。また、音声パターンは、例えば、音声の種類、音声の音高、テンポ等である。
具体的な例として、図7を再び参照すると、音声作成部160は、例えば、距離dまたは距離dが小さくなるにつれて、開始側音声データまたは目標側音声データにおける音声のテンポを速くしてもよい。または、音声作成部160は、距離dと距離dとの比率に応じて、開始側音声データにおける音声のテンポおよび目標側音声データにおける音声のテンポを変化させてもよい。また、図6または図8を再び参照すると、音声作成部160は、例えば、角度θまたは角度θが小さくなるにつれて、開始側音声データまたは目標側音声データにおける音量を大きくしてもよい。または、音声作成部160は、角度θと角度θとの比率に応じて、開始側音声データにおける音量および目標側音声データにおける音量を変化させてもよい。または、音声作成部160は、角度θまたは角度θが0°または所定の閾値よりも小さい値である場合、すなわちユーザ3が開始位置Pまたは目標位置Pの方向を向いている場合に、開始側音声データまたは目標側音声データにおける音声の種類を、その他の場合とは異なる音声の種類としてもよい。
別の具体的な例として、音声作成部160は、開始側音声データおよび目標側音声データの各々を、上記相対的関係に応じた案内情報(すなわち音声の種類)で作成してもよい。例えば、案内情報作成部140が、開始位置Pまたは目標位置Pに関する案内情報と、当該案内情報が音声化されたサンプル音声データとを作成する。そして、音声作成部160は、案内情報作成部140により作成された当該サンプル音声データを用いて、開始側音声データまたは目標側音声データを作成する。当該案内情報は、例えば、「目標までdメートル、角度θ度」という情報である。または、当該案内情報は、開始位置Pまたは目標位置Pに何があるかを示す情報であってもよい。
以上のように、上記相対的関係に応じた音量または音声パターンで開始側音声データおよび目標側音声データを作成することにより、開始位置Pまたは目標位置Pの位置をより容易に認識することをユーザ3に可能にする。例えば、ユーザ3は、開始位置P若しくは目標位置Pの方向を容易に認識することができ、または、開始位置P若しくは目標位置Pに近づいているか否かを容易に認識することができる。
−音声データの時間軸上での配置
また、音声作成部160は、開始側音声データおよび目標側音声データの各々を、上記相対的関係に応じた頻度で時間軸上の異なる位置に配置してもよい。
具体的には、音声作成部160は、例えば、距離dまたは距離dがより小さくなるにつれて、開始側音声データまたは目標側音声データをより高い頻度で配置してもよい。または、音声作成部160は、例えば、角度θまたは角度θが小さくなるにつれて、開始側音声データまたは目標側音声データをより高い頻度で配置してもよい。または、音声作成部160は、距離dと距離dとの比率、または角度θと角度θとの比率に応じて、開始側音声データおよび目標側音声データの頻度を変化させてもよい。図9を再び参照すると、例えば、ユーザ3が開始位置Pから目標位置Pに近づいた結果、比率d/dが時間帯tから時間帯tになって大きくなる場合に、音声作成部160は、目標側音声データBの頻度をより高くしてもよい。
以上のように、相対的関係に応じた時間軸上に配置される頻度を変えることによっても、開始位置Pまたは目標位置Pの位置をより容易に認識することをユーザ3に可能にする。
−仮想音源位置の設定
また、音源設定部150は、開始位置P以外の位置を開始側仮想音源位置として設定してもよく、また目標位置P以外の位置を目標側仮想音源位置として設定してもよい。以下、図10を参照して、具体的な仮想音源位置の設定の変形例を説明する。
図10は、仮想音源位置の設定の変形例を説明するための説明図である。一例として、図10の10−1および10−2に示されるように、音源設定部150は、開始位置Pとユーザ位置Pとの間のいずれかの位置51を開始側仮想音源位置として設定してもよい。同様に、音源設定部150は、目標位置Pとユーザ位置Pとの間のいずれかの位置53を目標側仮想音源位置として設定してもよい。
別の例として、図10の10−3および10−4に示されるように、音源設定部150は、開始位置Pから目標位置Pまでの経路上の位置であって、ユーザ位置Pから開始位置Pに戻るために通過すべき位置55を開始側仮想音源位置として設定してもよい。同様に、音源設定部150は、開始位置Pから目標位置Pまでの経路上の位置であって、ユーザ位置Pから目標位置Pに到達するために通過すべき位置57を目標側仮想音源位置として設定してもよい。
さらに別の例として、音源設定部150は、開始位置Pの近傍のいずれかの位置および目標位置Pの近傍のいずれかの位置を、それぞれ開始側仮想音源位置および目標側仮想音源位置として設定してもよい。
なお、別の観点として、音源設定部150は、開始側仮想音源位置および目標側仮想音源位置を2次元平面上ではなく3次元空間内に設定してもよい。この場合に、音声作成部160は、HRTFを用いてユーザ3よりも高い位置または低い位置が音源として知覚される開始側音声データまたは目標側音声データを作成してもよい。このような音声データによれば、ユーザ3は、例えば階下または階上に目標位置を直感的に把握することができる。
<4.処理の流れ>
以下では、図11を用いて、本実施形態に係る位置推定処理の一例について説明する。図11は、本実施形態に係る位置推定処理の概略的な流れの一例を示すフローチャートである。
まず、ステップS201では、目標入力部120は、最終目標位置を取得する。またステップS203では、検出部110は、ユーザ位置Pおよびユーザの向きを検出する。そして、ステップS205では、案内情報作成部140は、記憶部130に記憶される地図情報に基づき、ユーザ位置Pから最終目標位置までの経路を作成する。
次に、ステップS207では、案内情報作成部140は、作成された経路に基づいて、ユーザ3を誘導すべき目標位置Pと、当該目標位置への誘導の開始位置Pとを設定する。そして、ステップS209では、音源設定部150は、開始位置Pに応じた開始側仮想音源位置、および目標位置Pに応じた目標側仮想音源位置を設定する。
次に、ステップS211では、音声作成部160は、検出部110により検出されたユーザ位置Pを用いて、開始側仮想音源位置Pが音源位置としてユーザ3に知覚される開始側音声データ、および目標側仮想音源位置Pが音源としてユーザ3に知覚される目標側音声データを作成する。そして、ステップS213では、音声作成部160は、開始側音声データおよび目標側音声データを時間軸上の異なる位置に配置する。そして、ステップS215では、音声出力部170は、音声作成部160により作成された開始側音声データおよび目標側音声データをD/A変換することによりアナログ音声信号を生成し、当該アナログ音声信号を音声出力装置20へ出力する。
次に、ステップS217では、検出部110は、ユーザ位置Pおよびユーザの向きを検出する。次に、ステップS219では、音声作成部160は、ユーザ位置Pまたはユーザの向きが変わったか否かを判定する。ユーザ位置Pまたはユーザの向きが変わっていれば、処理はステップS221へ進む。そうでなければ、処理はステップS213へ戻る。
ステップS221では、案内情報作成部140は、ユーザ3が目標位置Pに到達したか否かを判定する。ユーザ3が目標位置Pに到達していれば、処理はステップS223へ進む。そうでなければ、処理はステップS211へ戻る。
ステップS221では、案内情報作成部140は、目標位置Pが最終目標位置であるか否かを判定する。目標位置Pが最終目標位置であれば、処理は終了する。そうでなければ、処理はステップS207へ戻る。
以上、本発明の一実施形態について説明したように、本実施形態によれば、特定の位置に音声を発する装置が設置されなくても、異種鳴き交わし方式のように、正しい進行方向および経路から離れた場合の戻り方を直感的に把握させることが可能になる。
なお、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
また、本明細書の音声処理における各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理する必要はない。例えば、音声処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、音声処理装置100に内蔵されるCPU、ROMおよびRAM等のハードウェアを、上記音声処理装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた記憶媒体も提供される。
1 誘導案内システム
3 ユーザ
10 センサ
20 音声出力装置
100 音声処理装置
110 検出部
120 目標入力部
130 記憶部
140 案内情報作成部
150 音源設定部
160 音声作成部
170 音声出力部

Claims (11)

  1. ユーザ位置を検出する検出部と、
    開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、
    前記検出部により検出された前記ユーザ位置を用いて、前記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および前記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部と、
    を備える、音声処理装置。
  2. 前記第1の音声データおよび前記第2の音声データは、異なる音声パターンを有し、
    前記音声作成部は、前記第1の音声データおよび前記第2の音声データを時間軸上の異なる位置に配置する、請求項1に記載の音声処理装置。
  3. 前記検出部は、前記ユーザの向きをさらに検出し、
    前記音声作成部は、前記第1の音声データまたは前記第2の音声データの各々を、前記ユーザ位置または前記ユーザの向きと、前記第1の仮想音源位置または前記第2の仮想音源位置の各々との相対的関係に基づいて作成する、請求項2に記載の音声処理装置。
  4. 前記音声作成部は、前記第1の音声データおよび前記第2の音声データの各々を、前記相対的関係に応じた音量または音声パターンで作成する、請求項3に記載の音声処理装置。
  5. 前記音声作成部は、前記第1の音声データおよび前記第2の音声データの各々を、前記相対的関係に応じた頻度で時間軸上の異なる位置に配置する、請求項3または4のいずれか一項に記載の音声処理装置。
  6. 前記相対的関係は、前記ユーザ位置と、前記第1の仮想音源位置若しくは前記第2の仮想音源位置との距離、または、前記ユーザの向きと、前記第1の仮想音源位置の方向若しくは前記第2の仮想音源位置の方向とのなす角度を含む、請求項3〜5にいずれか一項に記載の音声処理装置。
  7. 前記音声作成部は、前記第1の音声データおよび前記第2の音声データをステレオ形式で作成する、請求項1〜6のいずれか一項に記載の音声処理装置。
  8. 前記音声作成部は、前記第1の音声データおよび前記第2の音声データを頭部伝達関数の畳み込みにより作成する、請求項7のいずれか一項に記載の音声処理装置。
  9. ユーザ位置を検出するステップと、
    開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定するステップと、
    検出された前記ユーザ位置を用いて、前記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および前記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成するステップと、
    を含む、音声処理方法。
  10. コンピュータを、
    ユーザ位置を検出する検出部と、
    開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、
    前記検出部により検出された前記ユーザ位置を用いて、前記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および前記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部と、
    として機能させるためのプログラム。
  11. センサ、音声出力装置および音声処理装置を含む誘導案内システムであって、
    前記音声処理装置は、
    前記センサからの入力に基づいてユーザ位置を検出する検出部と、
    開始位置に応じた第1の仮想音源位置、および目標位置に応じた第2の仮想音源位置を設定する音源設定部と、
    前記検出部により検出された前記ユーザ位置を用いて、前記第1の仮想音源位置が音源位置としてユーザに知覚される第1の音声データ、および前記第2の仮想音源位置が音源としてユーザに知覚される第2の音声データを作成する音声作成部と、
    を備え、
    前記音声出力装置は、前記第1の音声データの音声および前記第2の音声データの音声
    を出力する、
    誘導案内システム。
JP2011186489A 2011-08-29 2011-08-29 音声処理装置、音声処理方法、プログラムおよび誘導案内システム Active JP5807451B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011186489A JP5807451B2 (ja) 2011-08-29 2011-08-29 音声処理装置、音声処理方法、プログラムおよび誘導案内システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011186489A JP5807451B2 (ja) 2011-08-29 2011-08-29 音声処理装置、音声処理方法、プログラムおよび誘導案内システム

Publications (2)

Publication Number Publication Date
JP2013047653A true JP2013047653A (ja) 2013-03-07
JP5807451B2 JP5807451B2 (ja) 2015-11-10

Family

ID=48010718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011186489A Active JP5807451B2 (ja) 2011-08-29 2011-08-29 音声処理装置、音声処理方法、プログラムおよび誘導案内システム

Country Status (1)

Country Link
JP (1) JP5807451B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016102666A (ja) * 2014-11-27 2016-06-02 凸版印刷株式会社 案内システム及び案内方法
JP2016194612A (ja) * 2015-03-31 2016-11-17 株式会社ニデック 視覚認識支援装置および視覚認識支援プログラム
JP2017173134A (ja) * 2016-03-24 2017-09-28 株式会社ゼンリンデータコム 経路案内装置、経路案内方法及び経路案内プログラム
CN111035544A (zh) * 2019-12-26 2020-04-21 吕日鹏 盲人导航系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783674A (ja) * 1993-09-17 1995-03-28 Aqueous Res:Kk 案内装置
JPH07103781A (ja) * 1993-10-04 1995-04-18 Aqueous Res:Kk ボイスナビゲーション装置
JP2000123281A (ja) * 1998-10-13 2000-04-28 Koito Ind Ltd 音響式視覚障害者用交通信号付加装置
JP2000285378A (ja) * 1999-03-31 2000-10-13 Studio Ion:Kk 音像移動による誘導システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783674A (ja) * 1993-09-17 1995-03-28 Aqueous Res:Kk 案内装置
JPH07103781A (ja) * 1993-10-04 1995-04-18 Aqueous Res:Kk ボイスナビゲーション装置
JP2000123281A (ja) * 1998-10-13 2000-04-28 Koito Ind Ltd 音響式視覚障害者用交通信号付加装置
JP2000285378A (ja) * 1999-03-31 2000-10-13 Studio Ion:Kk 音像移動による誘導システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016102666A (ja) * 2014-11-27 2016-06-02 凸版印刷株式会社 案内システム及び案内方法
JP2016194612A (ja) * 2015-03-31 2016-11-17 株式会社ニデック 視覚認識支援装置および視覚認識支援プログラム
JP2017173134A (ja) * 2016-03-24 2017-09-28 株式会社ゼンリンデータコム 経路案内装置、経路案内方法及び経路案内プログラム
CN111035544A (zh) * 2019-12-26 2020-04-21 吕日鹏 盲人导航系统

Also Published As

Publication number Publication date
JP5807451B2 (ja) 2015-11-10

Similar Documents

Publication Publication Date Title
AU2020256377B2 (en) Facilitating interaction between users and their environments using sounds
CN111148969B (zh) 空间音频导航
KR101384528B1 (ko) 입체 음향을 이용한 방향 안내 처리 방법 및 그를 적용한네비게이션 시스템
TW201102618A (en) Outdoor to indoor navigation system
KR20170137636A (ko) 탑승자 모니터링에 기초한 정보 획득 시스템
US20110144901A1 (en) Method for Playing Voice Guidance and Navigation Device Using the Same
JP5807451B2 (ja) 音声処理装置、音声処理方法、プログラムおよび誘導案内システム
JPWO2006075606A1 (ja) 音案内装置、音案内方法および音案内プログラム
WO2005103622A1 (ja) 音情報出力装置及び音情報出力方法
Strumillo et al. Different approaches to aiding blind persons in mobility and navigation in the “Naviton” and “Sound of Vision” projects
JP6479289B1 (ja) ナビゲーション装置及びナビゲーション方法
JP2002005675A (ja) 音響ナビゲーション装置
TW200949202A (en) Navigation system and method for providing travel information in a navigation system
US10667073B1 (en) Audio navigation to a point of interest
JP2002257581A (ja) 携帯型誘導案内装置
Zwinderman et al. Oh music, where art thou?
JP2008023237A (ja) 視覚障害者向けナビシステム
KR100697442B1 (ko) 음향 재생 장치를 이용한 이동 시뮬레이팅 방법 및 상기방법을 수행하기 위한 사운드 재생 장치
JPH08252279A (ja) 対象物を音で提示する経路誘導方法
JP2022549752A (ja) 自動運転車インタラクションシステム
WO2024162454A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2008082732A (ja) 地域代表点取得装置
JP2003288671A (ja) 案内装置およびその装置を用いた案内方法およびそのプログラムおよび記憶媒体
WO2023204076A1 (ja) 音響制御方法及び音響制御装置
JP2017173134A (ja) 経路案内装置、経路案内方法及び経路案内プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150824

R150 Certificate of patent or registration of utility model

Ref document number: 5807451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150