JP2021156600A - 移動体位置推定装置および移動体位置推定方法 - Google Patents

移動体位置推定装置および移動体位置推定方法 Download PDF

Info

Publication number
JP2021156600A
JP2021156600A JP2020054234A JP2020054234A JP2021156600A JP 2021156600 A JP2021156600 A JP 2021156600A JP 2020054234 A JP2020054234 A JP 2020054234A JP 2020054234 A JP2020054234 A JP 2020054234A JP 2021156600 A JP2021156600 A JP 2021156600A
Authority
JP
Japan
Prior art keywords
voice
moving
user
movement
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020054234A
Other languages
English (en)
Other versions
JP7484290B2 (ja
Inventor
幸生 多田
Yukio Tada
幸生 多田
和也 粂原
Kazuya Kumehara
和也 粂原
光希 有田
Mitsuki Arita
光希 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2020054234A priority Critical patent/JP7484290B2/ja
Publication of JP2021156600A publication Critical patent/JP2021156600A/ja
Application granted granted Critical
Publication of JP7484290B2 publication Critical patent/JP7484290B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Navigation (AREA)
  • Headphones And Earphones (AREA)

Abstract

【課題】人などの移動体の移動した位置を簡易な構成で推定できるようにする。【解決手段】移動体推定装置は、移動方向決定部、状態決定部、記憶部および現在位置入力部を備える。移動方向決定部は、移動体が移動する方向を決定する。状態決定部は、移動体の移動状態の検出結果が入力される。記憶部は、移動状態と移動速度の対応を記憶する。現在位置入力部は、現在位置が入力される。移動体推定装置は、移動状態が移動を示すのもである場合、移動状態に対応した移動速度と経過時間に応じた距離だけ入力された移動方向へ入力された現在位置から移動した位置を新たな現在位置として推定する。【選択図】図8

Description

この発明の一実施形態は、人などの移動体の移動を推定する移動体位置推定装置および移動体位置推定方法に関する。
ユーザに、ヘッドホン、イヤホンなどの音響デバイスを装用させ、ユーザが滞在している場所に応じた音声を音響デバイスから放音して、ユーザに拡張現実(AR:Augmented Reality)を体験させることが提案されている。このためには、ユーザの頭部の向き、および、にユーザの移動を検出する必要がある。
従来より、3軸のジャイロセンサ(3Dof)を備え、ユーザの頭部の向きを検出可能なヘッドホンは提案されている(例えば、特許文献1参照)。しかし、ジャイロセンサに加えてユーザの移動を検出する3軸の加速度センサを備え、ユーザの移動と頭部の向きを並行して検出可能なもの(6Dof)は、構造が複雑化するため提案されていない。なお、特許文献1に設けられている加速度センサは、イヤホンの傾きを検出するためのものである。
現実空間において、人の移動または移動した位置を測定する手段としては、GPS(Global Positioning System)、Wi−Fi(登録商標)、BLE(Bluetooth(登録商標) Low Energy)ビーコンを使用した三角測量などがある。また、人工衛星からの信号を用いて移動体の速度等を推定する衛星測位システムなども提案されている(例えば、特許文献2参照)。
特許4735993号公報 特開2015−002308号公報
上述のような移動測定手段のうち、GPSおよび衛星測位システムの場合は屋内で使用できず、またWi−FiやBLEビーコンは、設置に手間がかかるという問題があった。
そこで、本発明の一実施形態に係る目的の一つは、6DoFの機能を持たなくても移動体の移動を簡易に推定できるようにすることにある。
本発明の一実施形態に係る移動体推定装置は、移動方向決定部、状態決定部、記憶部および現在位置入力部を備える。移動方向決定部は、移動体の移動方向を決定する。状態決定部は、移動体の移動状態の検出結果が入力される。記憶部は、移動状態と移動速度の対応を記憶する。現在位置入力部は、現在位置が入力される。また、移動体推定装置は、移動状態が停止から変化した時、移動状態に対応した移動速度と経過時間に応じた距離だけ入力された移動方向へ入力された現在位置から移動した位置を新たな現在位置として推定する。
本発明の一実施形態に係る移動体位置推定方法は、携帯端末装置が、移動体が移動する方向を取得し、移動体の移動状態を取得し、移動状態に基づいて移動体が停止しているか移動しているかを推定する。携帯端末装置は、移動状態が移動を示すものである場合、移動状態に対応した移動速度を移動状態と移動速度との対応データに基づいて決定し、現在位置から取得された移動方向へ経過時間に応じた距離だけ移動した位置を新たな現在位置として推定する。
この発明によれば、移動体の移動した位置を簡易な構成で推定することが可能になる。
この発明が適用される音声再生システムの構成を示す図である。 この発明が適用される携帯端末装置のブロック図である。 この発明が適用されるヘッドホンのブロック図である。 速度テーブルを示す図である。 展示施設のフロアマップを示す図である。 シナリオファイルの例を示す図である。 携帯端末装置の処理動作を示すフローチャートである。 携帯端末装置の処理動作を示すフローチャートである。 携帯端末装置の処理動作を示すフローチャートである。 他の実施形態のシナリオファイルの例を示す図である。 他の実施形態の携帯端末装置の処理動作を示すフローチャートである。
図1は、本発明が適用される音声再生システム1の構成を示す図である。音声再生システム1は、携帯端末装置10および音響デバイスであるヘッドホン20を含む。図1は、ユーザ(移動体)Lが、携帯端末装置10を手に持ち、ヘッドホン20を装用した例を示す図である。携帯端末装置10は、例えば、スマートホン(多機能携帯電話)が用いられる。携帯端末装置10とヘッドホン20とは、Bluetooth(登録商標)で接続(ペアリング)されており、相互に通信可能である。携帯端末装置10とヘッドホン20との接続は、Bluetoothに限定されず、他の無線通信規格または有線でもよい。ヘッドホン20は、例えば、2個のスピーカ21R,21Lとヘッドバンド22とを組み合わせた、いわゆる耳掛け型である。また、ヘッドホン20は、ヘッドバンド22に3軸のジャイロセンサ(センサ)23を有し、ユーザの頭部の向きがトラッキング可能である。音響デバイスとして、ヘッドホン20に代えてイヤホンを用いてもよい。
音声再生システム1は、携帯端末装置10に設けられた加速度センサ150(図2参照)の検出値によって、ユーザLの移動を検出し、それをもとに現在位置を推定する。音声再生システム1は、推定されたユーザLの現在位置および頭部の向きに応じた音声を自動的に再生する。このシステムは、主としてGPSによる測位をすることができない屋内で用いられる。このシステムは、例えば、美術館などの展示施設で展示物の解説音声を再生するシステムに適用される。携帯端末装置10は、ユーザLの現在位置に応じて再生した音声を所定の位置に定位させるように処理してヘッドホン20に送信する。ヘッドホン20は、受信した音声をスピーカ21R,21Lから出力する。これにより、ユーザLは、所定の位置から聞こえてくる聴感で音声を聞くことができる。たとえは、上述の美術館の場合、ユーザLに絵画などの展示物から解説音声が聞こえてくるような聴感を与えることができる。音声の定位は、頭部伝達関数を用いて音声信号を処理することにより、精度の良い定位を実現することが可能である。音声の定位には、ユーザLの現在位置、音声の定位位置(展示物の位置)およびユーザLの頭部の向きの情報が必要である。ユーザLの現在位置は、上述の加速度センサ150による推定値が用いられる。音声の定位位置は、図6に示すようなシナリオファイルに記載されている。ユーザLの頭部の向きは、ヘッドホン20のジャイロセンサ23で検出することができる。これらの情報を用いることにより、ユーザLがどの位置にいても、どの方向を向いていても、所定の位置(例えば、展示物の位置)に音声を定位させることができる。
図2は、携帯端末装置10のブロック図である。携帯端末装置10は、ハードウェア的には、制御部100、記憶部103、音声生成部106、および、加速度センサ150等で構成されるスマートホンである。制御部100は、CPUを有している。記憶部103は、ROM,RAMおよびフラッシュメモリを有しており、アプリケーションプログラム70を含む種々のプログラム、データを記憶している。音声生成部106は、信号処理部106Aを有している。携帯端末装置10およびヘッドホン20は、移動体位置推定プログラムを含むアプリケーションプログラム70が起動されることにより移動体推定装置を含む音声再生装置として機能する。アプリケーションプログラム70は、記憶部(フラッシュメモリ)103に記憶されている。
携帯端末装置10の制御部100は、アプリケーションプログラム70が起動されることにより、移動方向決定部101、状態決定部102、推定部104、および、頭部方向決定部108として機能する。
移動方向決定部101は、ユーザLの移動方向を決定する。この実施形態では、後述のシナリオファイル(図6参照)に記載されている仮想通路210上を移動するように移動方向が決定される。移動方向決定部101は、さらに、ヘッドホン20から受信したユーザLの頭部の向きを移動方向として決定してもよく、音声の定位方向に接近または遠ざかる向きを移動方向として決定してもよい。状態決定部102は、加速度センサ150の検出値を入力し、加速度センサ150の検出値に基づいてユーザLの移動状態を決定する。
記憶部103は、上述のアプリケーションプログラム70、速度テーブル71、シナリオファイル72および音声データ73を記憶する。また、本発明の現在位置記憶部105も記憶部103に設けられている。速度テーブル71は、図4に示すように、加速度センサ150の検出値と推定される移動速度とが対応付けて記載されたテーブルである。具体的には、加速度センサ150の検出値が所定値以上になった場合のユーザLの推定される移動速度が対応付けて記憶されている。図4において、加速度センサ150の検出値がV1以上の場合は、ユーザLの移動状態が「歩行」と決定される。「歩行」の場合、ユーザLの移動速度は、4km/h(1.1m/秒)と決定される。加速度センサ150の検出値がV2(>V1)以上の場合は、ユーザLの移動状態が「走行」と決定される。「走行」の場合、ユーザLの移動速度は、10km/h(2.8m/秒)と決定される。加速度センサ150の検出値がV1未満の場合は、ユーザLの移動状態が「停止」と決定される。「停止」の場合、ユーザLの移動速度は、0km/hと決定される。したがって、本実施形態では、加速度センサ150の検出値によって、ユーザLの移動状態が、「停止」、「歩行」、「走行」の3段階の状態で決定される。
移動状態の決定は上述の3段階に限定されない。加速度センサ150の検出値に対して、より多くの段階(Vn:n≦3)が決定されてもよく、「停止」、「移動」の2段階(V1)のみ決定されてもよい。この実施形態では、各段階は、しきい値V1、V2に対する「以上/未満」で区切られているが、「より大きい/以下」で区切られてもよい。
なお、状態決定部102は、しきい値に基づいて移動状態を決定する必要はない。例えば、状態決定部102は、加速度センサ150から得られる加速度の振幅の周波数(歩くテンポに同期するもの)を分析して移動状態を決定してもよい。また、状態決定部102は、実際の歩行状態および走行状態の加速度センサの値を予め測定し、ディープラーニングなどの手法で学習して、学習済モデルから移動状態を決定してもよい。 一般的にスマートホンは三次元の加速度センサを備えているため、その姿勢が特定できれば加速度センサ150によってどの向きにどれだけの加速度が加わったかを検出することができる。しかしながら、この実施形態では携帯端末装置(スマートホン)10がユーザLにどのような姿勢で所持されているかを特定することができない。そこで、状態決定部102は、加速度センサ150の任意の方向の加速度を検出値として用いている。 推定部104は、ユーザLの現在位置を一定時間毎に推定する。推定部104は、一定時間毎(例えば1秒毎)に、移動方向および移動速度の情報を、移動方向決定部101および状態決定部102から取得する。推定部104は、取得した移動方向に取得した移動速度×一定時間の距離だけ移動したと推定し、この移動分だけ現在位置を更新する。状態決定部102から取得した移動速度が「停止」であれば、一定時間内の移動距離は0であり、現在位置は更新されない。現在位置は、現在位置記憶部105に記憶されている。
推定部104は、現在位置記憶部105から現在位置を取得し、この現在位置から移動方向に上記距離だけ移動させた位置を、ユーザLの新たな現在位置とする。推定部104は、現在位置記憶部105に新たな現在位置を書き込むことによって更新する。
頭部方向決定部108は、ヘッドホン20からジャイロセンサ23の積算値を取得し、この検出値を直前のユーザLの頭部の向きに加算することによって、現在の頭部の向きを決定する。
音声生成部106は、ヘッドホン20に出力する音声を生成する。音声生成部106は、ユーザLの現在位置に応じた音声データ73を読み出して再生する。どの音声データをどの条件で読み出すかは、シナリオファイル72に書き込まれている。条件と音声データ73とが関連付けられたデータはイベントと呼ばれる。イベント発生の条件はトリガと呼ばれる。
音声生成部106は、信号処理部106Aを備えている。信号処理部106Aは、再生された音声信号を、音声データの位置、推定されたユーザLの現在位置、および、ユーザLの頭部の向きに基づき、所定の位置に定位させるように信号処理を行う。この信号処理は定位処理と呼ばれる。定位処理は、頭部伝達関数を用いたフィルタリング処理で行われる。再生され、定位処理をされた音声信号は、通信処理部107によってヘッドホン20に送信される。
通信処理部107は、Bluetooth対応機器であるヘッドホン20(通信処理部24:図3参照)と通信する。通信処理部107は、ヘッドホン20に対してオーディオ信号の送信を行い、ヘッドホン20からジャイロセンサ23の検出値を受信する。
図3は、ヘッドホン20のブロック図である。ヘッドホン20は、ユーザLの左右の耳に装着されるスピーカ21L,21Rを備え、これらスピーカ21L,21Rがヘッドバンドで接続された構成を有している。ヘッドホン20は、ヘッドバンド、または、左右のスピーカ21L,21Rが収容されるハウジングの内部に、ジャイロセンサ23、通信処理部24、AIF25、DAC26L,26R、アンプ27L,27Rを備えている。
通信処理部24は、Bluetooth対応機器である携帯端末装置10(通信処理部107)と通信する。AIF(Audio Interface)25は、携帯端末装置10から受信した音声信号を左右チャンネル毎にDAC26L,26Rに送信する。DAC(Digtal to Analog Converter)26L,26Rは、AIF25から入力されたデジタル信号をアナログ信号に変換する。アンプ27L,27Rは、DAC26L,26Rから入力されたアナログ信号を増幅してスピーカ21L,21Rに供給する。これにより、携帯端末装置10から受信した音声信号は、音響としてスピーカ21L,21Rから放音される。上述したように、音声信号は、ユーザLの現在位置の変化や、頭部の向きの変化をキャンセルして、常に予め決められた定位位置に定位するよう信号処理されている。これにより、ユーザLが移動しても且つ頭部の向きを変えても、ユーザLには同じ位置から発音しているように聞こえる。
図5を参照して、本発明が適用される展示施設200の例と、ユーザLの現在位置について説明する。ユーザLの現在位置は、現実空間上に設定された座標情報で表される。図5は、現実空間を例示した図であり、例えば美術館などの展示施設200のフロアマップを示す図である。展示施設200では、絵画などの展示物301〜303が壁面に配置されている。図中、展示施設200の下側には、入口E1および出口E2が設けられている。入口E1から出口E2までの間に、逆U字状の仮想通路210が設定されている。移動方向決定部101は、ユーザLが、入口E1から入り、仮想通路210上を後戻りせずに矢印211方向に移動して出口E2から退出するとして、ユーザLの移動方向を決定する。
この現実空間に座標軸が設定されている。図5左下に示すように、図中左右方向にX軸、上下方向にY軸が設定されている。図面の表裏方向にZ軸をさらに設定してもよいが、本実施形態では、ユーザLの上下方向の移動は無いとみなし、高さ(z値)は一定値とすることで処理を簡略化している。
XY座標においては、フロアの入口E1の位置Pが、原点(0,0)とされる。ユーザLは、入口E1において、アプリケーションプログラム70を起動させる。アプリケーションプログラム70は、起動時または起動後の所定タイミングに、ユーザLに正面、すなわちY軸方向(図5の矢印HDの方向)に向くことを促す。これにより、ユーザLの現在位置および頭部の向きが初期化される。アプリケーションプログラム70は、初期化処理で、現在位置記憶部105に座標値(x,y)=(0,0)を書き込み、Y軸方向(図5の矢印HDの方向)をユーザLの頭部の向きの初期値とする。頭部の向きは、頭部方向決定部108に記憶される。
その後、携帯端末装置10は、定期的(例えば1秒毎)にユーザの移動を検出する。ユーザLの状態が「移動」と判定されると、携帯端末装置10(推定部104)は、その移動方向および移動距離からなる移動ベクトルを決定し、この移動ベクトルを現在位置(x,y)に加算することで現在位置を更新する。移動方向は、現在位置に基づき、図5の仮想通路210上を移動するように決定される。
現在位置の初期値および頭部の向きの初期値は、上述したように、アプリケーションプログラム70の起動時に自動設定されるが、これらを、ユーザに入力させてもよい。例えば、携帯端末装置10の画面に図5に示すフロアマップを表示し、ユーザLがフロアマップ上のどの位置にいるか、および、どの方向を向いているかを入力させればよい。入力は、画面上のタッチパネルのタップ操作やフリック操作によって行われればよい。
図5に示した展示施設200において、どのように音声が再生されるかを、図6を参照して説明する。図6は、シナリオファイル72の例を示す図である。このシナリオファイル72は、展示施設200において、どのタイミングでどの音声データを再生するかが記述されたファイルである。シナリオファイル72には、イベント毎に、トリガ種類、トリガデータ、定位位置、コンテンツIDが記憶されている。シナリオファイル72には、図5に示した仮想通路210の座標をプロットした仮想通路情報も記憶されている。イベントとは、所定のコンテンツを再生するタイミングや場所が記述された一群のデータである。音声生成部106は、イベントに従って所定のコンテンツ(本実施形態では音声データ)を再生する。トリガ種類は、どの指標に基づいてこのイベントを起動するかの情報である。図6の例では、全てのイベントが場所に応じて起動される。トリガ種類としては、場所以外に、時刻、停止時間などが適用可能である。トリガデータは、具体的に、トリガ種類がどの条件を満たしたときイベントを起動するか、この実施形態では、ユーザLがどの位置に来たときイベントを起動するか、を定めたデータである。コンテンツIDは、再生されるコンテンツの識別情報である。この実施形態では、コンテンツは音声データであるが、音声データに対する信号処理などの効果を含んでいてもよい。定位位置は、再生されるコンテンツの定位位置であり、図5に示したX,Y座標の座標値で表される。
図6において、第1イベントは、展示物301を説明する音声(音声データA)を再生するイベントであり、ユーザLが領域201に居る間再生される。音声データAの定位位置は、図中SP1で示される展示物301の中央である。第2イベントは、展示物302を説明する音声(音声データB)を再生するイベントであり、ユーザLが領域202に居る間再生される。音声データBの定位位置は、図中SP2で示される展示物302の中央後方の壁の中である。また、第3イベントは、展示物303を説明する音声(音声データC)を再生するイベントであり、ユーザLが領域203に居る間再生される。音声データCの定位位置は、図中SP3で示される展示物303の中央である。
推定部104は、一定時間毎に、ユーザLの現在位置を推定する。シナリオファイル72では、ユーザLは仮想通路210上を矢印211方向に移動するとしているため、推定される現在位置は、仮想通路210上のいずれかの地点である。音声生成部106は、推定部104が推定したユーザLの現在位置を判断し、ユーザLがいずれかのイベントの領域にいる場合は、そのコンテンツを再生する。例えば、図5において、ユーザLが入口E1から位置P2に移動して領域201に入ったタイミングで、音声生成部106が、音声データAの再生を開始する。音声生成部106は、ユーザLが同一の領域201にいる間、同一のコンテンツ(音声データA)の再生を継続する。
音声生成部106は、音声データAを再生するとき、展示物301の中央の定位位置SP1に音声が定位するように信号処理(定位処理)を行う。音声生成部106は、ユーザLの現在位置と定位位置SP1の座標から、ユーザLから定位位置SP1までの距離および絶対方位を算出し、この絶対方位およびユーザLの頭部の向きに基づいて相対方位を決定する。音声生成部106は、この相対方位および距離に対応する頭部伝達関数を選択し、生成した音声を頭部伝達関数でフィルタリングして、ユーザLに対して、音声を定位位置SP1に定位させる。これにより、ユーザLは、展示物301から聞こえてくるような聴感で音声を聞くことができる。
音声データA,B,Cは、展示物301,302,303の解説音声に限定されない。例えば、展示物に登場するキャラクタの声が適用可能である。この場合、定位位置SP1は、キャラクタが描かれている位置に設定すればよい。シナリオファイル72に記憶されるイベントは、ユーザLの位置に応じて音声データに音響効果を付与するイベントでもよい。
ユーザLが領域201にいる間は、音声データAが再生される。携帯端末装置10は、一定時間(例えば1秒)毎にユーザLの現在位置および頭部の向きを検出し、上述の定位処理を更新する。現在位置は、図2を参照して説明したように、加速度センサ150の検出値に基づいて決定された移動速度で仮想通路210に沿って矢印211の方向に移動したとして更新される。
図7〜図9のフローチャートを参照して、携帯端末装置10が実行する処理動作について説明する。図7は、アプリケーションプログラム70が起動したときに実行される動作である。アプリケーションプログラム70が起動されると、携帯端末装置10は、ユーザLの現在位置および頭部の向きに初期値を設定する(ステップS10:以下、ステップSnを単にSnと記す。)。すなわち、携帯端末装置10は、現在位置記憶部105に(0,0)を書き込み、図5のHD方向を頭部の向きとして記憶する。携帯端末装置10は、アプリケーションプログラム70の起動時、または、起動後所定のタイミングに、音声または表示で、ユーザLに対して入口E1で正面を向くよう促せばよい。この処理ののち、携帯端末装置10は、図8の移動推定処理および図9の音声再生処理を起動する。
図8は、携帯端末装置10によって実行される移動推定処理を示すフローチャートである。この処理は、所定の推定間隔(例えば1秒間隔)で繰り返し実行される。携帯端末装置10は、加速度センサ150から検出値を取得する(S21)。携帯端末装置10は、取得した検出値で速度テーブル71を検索して現在のユーザLの移動状態を判断し、移動速度を決定する(S22)。決定された移動速度が0(停止)である場合には(S23でNO)、携帯端末装置10は、今回の移動推定処理を終了する。
推定された移動速度が移動(歩行または走行)である場合(S23でYES)、携帯端末装置10は、仮想通路210の形状と現在位置とに基づいて移動方向を決定する(S24)。携帯端末装置10は、決定された移動速度×推定間隔と移動方向に基づいて移動ベクトルを算出する(S25)。携帯端末装置10は、算出された移動ベクトルを現在位置に加算して現在位置を更新する(S26)。例えば、決定された移動速度が1.1m/sであれば、1.1m/sで推定間隔(1秒)だけ移動した距離を、今回の移動距離とすればよい。
図9は、音声再生処理を示すフローチャートである。この処理は、移動推定処理と同様に、所定の推定間隔(例えば1秒間隔)で繰り返し実行される。携帯端末装置10は、現在位置記憶部105から現在位置を取得し(S31)、音声データを生成する領域に入っているか否かを判断する(S32)。再生領域に入っている場合(S32でYES)、携帯端末装置10は、現在、音声データを再生中であるか否かを判断する(S35)。音声データを再生中で無い場合(S35でNO)、携帯端末装置10は、その領域に対応する音声データを読み出して(S36)、再生をスタートする(S37)。
携帯端末装置10は、ヘッドホン20からジャイロセンサ23の積算値を取得し、この検出値を直前のユーザLの頭部の向きに加算することによって、現在の頭部の向きを決定する(S38)。携帯端末装置10は、頭部の向き、S31で取得した現在位置、および、シナリオファイル72に記載されている音声データの定位位置(絶対定位位置)に基づいて相対定位位置を算出する(S39)。相対定位位置とは、音声データに基づいて生成された音声のユーザLから見た定位位置であり、絶対定位位置が動かなくても、ユーザLが移動したり頭部の向きを変えることによって変化する。携帯端末装置10は、音声をこの相対定位位置に定位させるための頭部伝達関数を算出または選択して信号処理部106Aのフィルタに設定する(S40)。この実施形態では、ジャイロセンサ23の積算値を取得することで、頭部の向きが決定される。これにより、ユーザLが体を固定して頭部だけ回転させた場合でも、ユーザLが体を回転させ、これに併せて頭部が回転した場合でも、同様に頭部の向きが決定可能である。ユーザLの頭部の向きは、ジャイロセンサ23以外の方法で測定もしくは決定されてもよい。
S35で音声データを再生中であった場合(S35でYES)、携帯端末装置10は、その再生を継続し(S45)、ユーザLの頭部の向きを再度決定する(S46)。ユーザLの頭部の向きは、S38と同様に、ヘッドホン20からジャイロセンサ23の積算値を取得し、この検出値を直前のユーザLの頭部の向きを加算することによって決定されればよい。この頭部の向き、および、S31で取得した現在位置が、前回の処理から変化があるかを判断する(S47)。変化がない場合(S47でNO)、携帯端末装置10は、S40で設定済の頭部伝達関数を用いて音声再生処理を継続する。現在位置または頭部の向きが前回の音声再生処理から変化していた場合(S47でYES)、携帯端末装置10は、処理をS39に進め、相対定位位置を算出して(S39)、信号処理部106Aのフィルタを更新する(S40)。
S32で、ユーザLの現在位置が再生領域外であると判断された場合(S32でNO)、携帯端末装置10は、現在、音声データを再生中か否かを判断する(S33)。携帯端末装置10は、音声データを再生中の場合(S33でYES)、その音声データの再生を停止して今回の音声再生処理を終了する。音声データを再生中でない場合(S33でNO)、携帯端末装置10は、音声再生処理を終了する。
以上のように、この実施形態では、携帯端末装置10が、以下のように現在位置を推定する。
停止、歩行、走行の3状態を加速度センサ150の検出値に基づいて簡易に決定する。
仮想通路210上を移動するものとして移動方向を決定する。
決定した移動方向へ、移動状態に対応した移動速度と経過時間とに応じた距離だけ現在位置から移動した位置を、新たな現在位置と推定する。
これにより、携帯端末装置10は、3DoFの移動センサを備えていなくても、人などの移動体の移動した位置を簡易な構成で推定できる。
本実施形態で例示したように、この音声再生システム1を用いた音響ARは、簡易な現在位置の推定であっても、シナリオに基づく音声データの再生を認容できる精度で実現でき、十分なAR体験をユーザに提供できる。
上述の実施形態では、シナリオファイル72に記憶された仮想通路210上をユーザLが移動するものとして、ユーザLの移動方向が推定されているが、他の情報に基づいてユーザLの移動方向が推定されてもよい。例えば、音声の定位方向にユーザLが移動していると推定して、ユーザLの移動方向を決定してもよい。この場合、全ての音声に対して、ユーザLがその定位方向に移動していると推定するのではなく、特定の音声(例えば、移動を促す内容の音声)の場合のみ、その音声の定位方向にユーザLが移動していると推定してもよい。
再生されるコンテンツに基づいて移動方向を決定することも可能である。音声データが「こっちに来い」など接近を促す文言の場合には、ユーザLがその音声の方向に移動していると推定してもよい。「あっちへ行け」など離反を促す文言の場合には、ユーザLがその音声と反対の方向に移動していると推定してもよい。図10、図11にこの例を示す。
図10は、シナリオファイル720の例を示す図である。このシナリオファイルには、各イベントの音声データが、接近を促す文言であるか、または、離反を促す文言であるかの方向指定情報が書き込まれている。音声データBは、接近を促す文言である。音声データCは、離反を促す文言である。一方、音声データAは、ユーザLの移動方向を指定する文言を含んでいない。このシナリオファイル720は、図5に示した展示施設200に関連付けられたものではない。
図11は、方向指定情報を有する音声データが再生される場合の移動推定処理を示すフローチャートである。この処理は、図8に示した移動推定処理に方向指定情報に関する処理を加えたものである。このため、図8と同様の処理には同一のステップ番号を付す。この処理は、所定の推定間隔(例えば1秒間隔)で繰り返し実行される。携帯端末装置10は、加速度センサ150から検出値を取得する(S21)。携帯端末装置10は、取得した検出値で速度テーブル71を検索して現在のユーザLの推定される移動速度を決定する(S22)。推定された移動速度が0(停止)である場合には(S23でNO)、携帯端末装置10は、今回の移動推定処理を終了する。
推定された移動速度が移動(歩行または走行)である場合(S23でYES)、携帯端末装置10は、現在音声データを再生中であるか否かを判断する(S60)。音声データを再生中の場合(S60でYES)、携帯端末装置10は、シナリオファイル720から方向指定情報を読み出す(S61)。再生中の音声データが方向指定情報を有するものであれば(S62でYES)、携帯端末装置10は、その指定方向がユーザLの現在位置から見てどの方向になるかを計算し、この計算された方向をユーザLの移動方向と決定して更新する(S63)。携帯端末装置10は、この移動方向を用いて移動ベクトルを算出する(S25)。
再生中の音声データが方向指定情報を有しないものである場合(S62でNO)、および、現在、音声データを再生中でない場合(S60でNO)、携帯端末装置10は、直前に決定された移動方向を維持する(S64)。携帯端末装置10は、決定された移動速度×推定間隔と頭部の向きに基づいて移動ベクトルを算出する(S25)。携帯端末装置10は、算出された移動ベクトルを現在位置に加算して現在位置を更新する(S26)。
実施形態では、携帯端末装置10として、多機能携帯電話(スマートホン)が例示された。しかし、携帯端末装置10は、図2に示す機構を有するものであればスマートホンに限られない。たとえば、携帯音楽プレーヤが適用可能である。
実施形態では、移動方向決定部101、状態決定部102、記憶部103、推定部104、現在位置記憶部105、および、音声生成部106が、携帯端末装置10設けられていた。これらの構成部が、ヘッドバンド22等、ヘッドホン20に内蔵されていてもよい。
実施形態では、音声再生システム1について説明した。本発明の適用は、これに限定されない。移動体の現在位置を特定が必要なシステムであれば、本発明を適用可能である。例えば、本発明は、ユーザが頭部に装着して仮想空間を体験するヘッドマウントディスプレイ(VRゴーグル)に適用可能である。本発明は、仮想現実を現実世界に反映(拡張)させるARゴーグルに適用可能である。
実施形態では、現在位置に基づく単一のコンテンツの再生について説明した。本発明の適用は、これに限定されるものではない。例えば、複数のコンテンツが同時期に併行して再生されてもよい。例えば、図5において、領域201,202,203が、相互に重なり合っていてもよい。
上実施形態では、屋内施設の構成について説明したが、屋外でも本発明を適用可能である。屋外の場合には、上述の現在位置を推定する構成とGPS測位とを併用してもよい。
携帯端末装置10および音響デバイスであるヘッドホン20が、本発明の移動体位置推定装置に対応する。ユーザLが、本発明の移動体に対応する。
以上詳述した実施形態から、以下のような態様が把握される。
《態様1》
本開示の態様1に係る移動体位置推定装置は、移動方向決定部、状態決定部、記憶部および現在位置入力部を備える。移動方向決定部は、移動体が移動する方向を決定する。状態決定部は、移動体の移動状態の検出結果が入力される。記憶部は、移動状態と移動速度の対応を記憶する。現在位置入力部は、現在位置が入力される。移動体推定装置は、移動状態に対応した移動速度と経過時間に応じた距離だけ入力された移動方向へ入力された現在位置から移動した位置を新たな現在位置として推定する。状態決定部および移動方向決定部で移動体の移動状態および移動方向を推定するようにしたので、カメラ等のセンサを設けることなく、簡易に移動体の移動および現在位置を推定できる。
《態様2》
本開示の態様2に係る移動体位置推定装置は、態様1に以下の態様が追加される。状態決定部は、加速度センサを有する。記憶部は、加速度センサの検出値が所定値以上になった場合の移動体の移動速度を対応づけて記憶している。加速度センサの検出値をリニアに位相速度に反映させるのでなく所定のしきい値以上になった場合にある速度で移動していると推定することで、処理が容易になる。
《態様3》
本開示の態様3に係る移動体位置推定装置は、態様1に以下の態様が追加される。移動方向決定部は、移動体であるユーザが頭部に装用する音響デバイスに設けられたジャイロセンサを含んでいる。音響デバイスに出力する音声を生成する音声生成部をさらに備える。音声生成部は、音声の絶対定位位置、推定された現在位置、および、ユーザの頭部の向きに応じて、ユーザに対して前記音声を定位させる。ユーザが音響デバイスを装用することで音響ARを実現することができる。さらに、音響デバイスにジャイロセンサを備えたことで、移動体であるユーザの頭部の向きを検出することができる。
《態様4》
本開示の態様4に係る移動体位置推定装置は、態様3に以下の態様が追加される。音響デバイスは、ヘッドホンまたはイヤホンである。これにより、ユーザは、音声再生部が再生する音声を聴くことができる。
《態様5》
本開示の態様5に係る移動体位置推定装置は、態様3に以下の態様が追加される。音声生成部が生成する音声には、ユーザに移動を促す音声である誘導音声が含まれている。誘導音声は、その音声の定位位置方向への移動を促す音声、または、その音声の定位位置から遠ざかる方向への移動を促す音声のいずれかである。音声の定位位置方向への移動を促す誘導音声が音響デバイスに入力されているとき、ユーザが移動を促す音声の定位位置方向に移動していると推定する。音声の定位位置から遠ざかる方向への移動を促す誘導音声が音響デバイスに入力されているとき、ユーザが前記移動を促す音声の定位位置方向と逆の方向に移動していると推定する。ユーザの頭部の向きのみでなく、再生される音声で移動体であるユーザの移動方向を推定することができる。
《態様6−9》
態様6−9に係る移動体位置推定方法は態様1−5の移動体位置推定装置が方法で表現される。
1 音声再生システム
10 携帯端末装置(スマートホン)
20 ヘッドホン(音響デバイス)
21 スピーカ
22 ヘッドバンド
23 ジャイロセンサ
24 通信処理部
70 アプリケーションプログラム
100 制御部
101 移動方向決定部
102 状態決定部
103 記憶部
104 推定部
105 現在位置記憶部
106 音声生成部
107 通信処理部
108 頭部方向決定部
150 加速度センサ

Claims (9)

  1. 移動体の移動方向を決定する移動方向決定部と、
    前記移動体の移動状態の検出結果が入力される状態決定部と、
    前記移動状態と移動速度の対応を記憶した記憶部と、
    現在位置が入力される現在位置入力部と、
    を備え、
    前記移動状態が移動を示している場合、前記移動状態に対応した移動速度と経過時間に応じた距離だけ前記入力された移動方向へ前記入力された現在位置から移動した位置を新たな現在位置として推定する
    移動体位置推定装置。
  2. 前記状態決定部は、加速度センサを有し、
    前記記憶部は、前記加速度センサの検出値が所定値以上になった場合の前記移動体の移動速度を対応づけて記憶している
    請求項1に記載の移動体位置推定装置。
  3. 前記移動方向決定部は、移動体であるユーザが頭部に装用する音響デバイスに設けられたジャイロセンサを含んでおり、
    前記音響デバイスに出力する音声を生成する音声生成部をさらに備え、
    前記音声生成部は、前記音声の定位位置、前記推定された現在位置、および、前記ジャイロセンサの検出値に基づいて決定された前記ユーザの頭部の向きに応じて、前記ユーザに対して前記音声を定位させる
    請求項1または請求項2に記載の移動体位置推定装置。
  4. 前記音響デバイスは、ヘッドホンまたはイヤホンである請求項3に記載の移動体位置推定装置。
  5. 前記音声生成部が生成する音声には、前記ユーザに移動を促す音声である誘導音声が含まれており、
    前記誘導音声は、その音声の定位位置方向への移動を促す音声、または、その音声の定位位置から遠ざかる方向への移動を促す音声のいずれかであり、
    前記音声の定位位置方向への移動を促す誘導音声が前記デバイスに入力されているとき、前記ユーザが前記移動を促す音声の定位位置方向に移動していると推定し、
    前記音声の定位位置から遠ざかる方向への移動を促す誘導音声が前記音響デバイスに入力されているとき、前記ユーザが前記移動を促す音声の定位位置方向と逆の方向に移動していると推定する
    請求項3または請求項4に記載の移動体位置推定装置。
  6. 携帯端末装置が、
    移動体が移動する方向を取得し、
    前記移動体の移動状態を取得し、
    前記移動状態に基づいて前記移動体が停止しているか移動しているかを推定し、
    前記移動状態が移動を示すものである場合、前記移動状態に対応した移動速度を前記移動状態と移動速度との対応データに基づいて決定し、
    現在位置から、経過時間に応じた距離だけ前記取得された移動方向へ移動した位置を新たな現在位置として推定する
    移動体位置推定方法。
  7. 前記移動体の移動状態として、加速度センサの検出値を取得し、
    前記移動体が停止しているか移動しているかを、前記加速度センサの検出値が所定値以上になったか否かに基づいて推定する
    請求項6に記載の移動体位置推定方法。
  8. 前記移動体は、音響デバイスを装用したユーザであり、
    前記音響デバイスに出力する音声を生成する音声生成部は、前記推定された現在位置に応じて、前記ユーザに対して前記音声を定位させる
    請求項6または請求項7に記載の移動体位置推定方法。
  9. 前記音声生成部は、その音声の定位位置方向への移動を促す誘導音声、または、その音声の定位位置から遠ざかる方向への移動を促す誘導音声を前記音響デバイスに入力し、
    前記音声の定位位置方向への移動を促す誘導音声が前記音響デバイスに入力されているとき、前記ユーザが前記移動を促す音声の定位位置方向に移動していると推定し、
    前記音声の定位位置から遠ざかる方向への移動を促す誘導音声が前記音響デバイスに入力されているとき、前記ユーザが前記移動を促す音声の定位位置方向と逆の方向に移動していると推定する
    請求項8に記載の移動体位置推定方法。
JP2020054234A 2020-03-25 2020-03-25 移動体位置推定装置および移動体位置推定方法 Active JP7484290B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020054234A JP7484290B2 (ja) 2020-03-25 2020-03-25 移動体位置推定装置および移動体位置推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054234A JP7484290B2 (ja) 2020-03-25 2020-03-25 移動体位置推定装置および移動体位置推定方法

Publications (2)

Publication Number Publication Date
JP2021156600A true JP2021156600A (ja) 2021-10-07
JP7484290B2 JP7484290B2 (ja) 2024-05-16

Family

ID=77917951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054234A Active JP7484290B2 (ja) 2020-03-25 2020-03-25 移動体位置推定装置および移動体位置推定方法

Country Status (1)

Country Link
JP (1) JP7484290B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085511A (ja) 2002-08-29 2004-03-18 Hitachi Ltd 移動体の移動速度および位置推定方法およびシステムおよびナビゲーションシステム
JP2015076797A (ja) 2013-10-10 2015-04-20 富士通株式会社 空間情報提示装置、空間情報提示方法及び空間情報提示用コンピュータプログラム
JP5621899B2 (ja) 2013-11-14 2014-11-12 セイコーエプソン株式会社 電子機器
JP2016218027A (ja) 2015-05-26 2016-12-22 株式会社東芝 測位システムおよび計測端末
JP2017103598A (ja) 2015-12-01 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6348537B2 (ja) 2016-05-27 2018-06-27 京セラ株式会社 携帯電子機器、携帯電子機器制御方法及び携帯電子機器制御プログラム

Also Published As

Publication number Publication date
JP7484290B2 (ja) 2024-05-16

Similar Documents

Publication Publication Date Title
US10645519B2 (en) Information processing apparatus, information processing method, and program
CN111148969B (zh) 空间音频导航
US20150326963A1 (en) Real-time Control Of An Acoustic Environment
EP2700907B1 (en) Acoustic Navigation Method
Loomis et al. Navigation system for the blind: Auditory display modes and guidance
JP6673346B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6055657B2 (ja) ゲームシステム、ゲーム処理制御方法、ゲーム装置、および、ゲームプログラム
US11051120B2 (en) Information processing apparatus, information processing method and program
US11647352B2 (en) Head to headset rotation transform estimation for head pose tracking in spatial audio applications
JPWO2006075606A1 (ja) 音案内装置、音案内方法および音案内プログラム
US11512972B2 (en) System and method for communicating possible travel paths through head scanning and sound modulation
US20180324532A1 (en) Hearing system and hearing apparatus
JP2017138277A (ja) 音声ナビゲーションシステム
US10667073B1 (en) Audio navigation to a point of interest
JP7484290B2 (ja) 移動体位置推定装置および移動体位置推定方法
JP6194740B2 (ja) 音声処理装置、音声処理方法、及びプログラム
JP6884854B2 (ja) 音声提供装置、音声提供方法及びプログラム
JP7063353B2 (ja) 音声ナビゲーションシステムおよび音声ナビゲーション方法
WO2022209000A1 (ja) コンテンツ再生システム、情報処理装置及びコンテンツ再生制御アプリケーション
WO2022208999A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム
CN108924761B (zh) 一种信息呈现方法、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7484290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150