JP2004147283A - Sound image localization device, sound image localization method, sound data distribution system, sound data distribution method and program - Google Patents
Sound image localization device, sound image localization method, sound data distribution system, sound data distribution method and program Download PDFInfo
- Publication number
- JP2004147283A JP2004147283A JP2003051877A JP2003051877A JP2004147283A JP 2004147283 A JP2004147283 A JP 2004147283A JP 2003051877 A JP2003051877 A JP 2003051877A JP 2003051877 A JP2003051877 A JP 2003051877A JP 2004147283 A JP2004147283 A JP 2004147283A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- terminal
- sound data
- sounding
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stereophonic System (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、音像を定位させる音像定位装置、音像定位方法およびプログラム、ならびに、音を表すサウンドデータを配信するサウンドデータ配信システムおよびサウンドデータ配信方法に関する。
【0002】
【従来の技術】
従来から、無線通信網を介してストリーム配信された楽曲などのオーディオデータを移動端末において受信し、該移動端末に接続されたヘッドフォンなどから音として出力するオーディオ配信システムが知られている(例えば、特許文献1参照)。このようなオーディオ配信システムによれば、ユーザは、外出時などにおいても、音楽を手軽に楽しむことができる。
【0003】
【特許文献1】
特開平9−181510号公報(第3図)
【0004】
【発明が解決しようとする課題】
しかしながら、従来のオーディオ配信システムにあっては、配信されたオーディオデータを移動端末において忠実に再生することはできても、ユーザがオーディオデータの生成に参加するなどといった娯楽性をユーザに提供することはできなかった。
【0005】
本発明は上述した事情に鑑みてなされたものであり、その目的とするところは、娯楽性の高い音響アミューズメントを提供することを可能にする音像定位装置、音像定位方法、サウンドデータ配信システム、サウンドデータ配信方法およびプログラムを提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る音像定位装置は、ユーザの位置、および、顔の向いている方向を示すユーザ情報を取得するユーザ情報取得手段と、仮想的な発音地点の位置を示す発音位置情報を取得する発音位置情報取得手段と、取得したユーザ情報で示される位置であって、取得したユーザ情報で示される方向に顔を向けたユーザからみて、前記発音地点に予め関連付けられた種類の音が、前記発音位置情報で示される位置から出力しているように音像を定位させる定位手段とを具備する構成を特徴とする。
上記構成によれば、ユーザがある地点に位置し、かつ、ある方向に顔を向けたとき、仮想的な発音地点に予め関連付けられた種類の音が、当該発音地点から出力しているように定位するので、ユーザに対して、あたかも、発音地点が配置された空間にいるかのような感覚を与えることが可能となる。
【0007】
ここで、前記発音位置情報取得手段は、前記発音位置情報として、前記発音地点に対応付けられた移動体の位置を示す移動体位置情報を取得し、前記定位手段は、取得された前記移動体位置情報により示される前記移動体の位置から前記音が出力しているように音像を定位させることが好ましい。
この構成によれば、ユーザは、移動体とのおおよその位置関係を音像により知覚することができる。
【0008】
また、別の好ましい態様において、前記発音地点に予め関連付けられた種類の音を示すサウンドデータを受信する受信手段を備え、前記定位手段は、前記受信手段により受信されたサウンドデータによって示される音の音像を定位させる。このように、受信手段を介してサウンドデータを取得することにより、音像定位装置において、サウンドデータを不揮発に記憶する記憶装置を特別に設ける必要がない。さらに、音像定位装置にサウンドデータを配信する配信装置によりサウンドデータを一括して管理できるため、サウンドデータの更新などが容易なものとなる。
なお、本発明は、上記音像定位装置のほか、音像定位方法およびプログラムとしても実現可能であり、上記音像定位装置と同様な効果を奏することが可能である。
【0009】
また、本発明は、仮想的な発音地点に予め関連付けられた種類の音を表すサウンドデータを配信するサウンドデータ配信装置と、前記サウンドデータ配信装置から配信されたサウンドデータを受信し、受信したサウンドデータを用いて、ある地点に位置し、ある方向に顔を向けたユーザからみて、前記発音地点に予め関連付けられた種類の音が、当該発音地点の位置から出力しているように音像を定位させる端末とを具備することを特徴とするサウンドデータ配信システムを提供する。
【0010】
【発明の実施の形態】
以下、本発明の実施形態について図面を参照して説明する。
【0011】
<サウンドデータ配信システムの概略構成>
はじめに、本実施形態にかかるサウンドデータ配信システムの概略構成について図1を参照して説明する。この図において、衛星群400は、GPS(GlobalPositioning System)などのGNSS(Global Navigation Satellite System)に対応した人口衛星であり、図示しない地上制御局によって管制制御され、地上に向けて衛星信号を送出する。この衛星信号には、衛星から送出された時刻や、当該信号を送出した衛星の軌道位置などを示す情報が含まれている。
【0012】
一方、移動通信網500は、基地局制御装置など、データ通信サービスを提供するための各種装置を含んでおり、多数の基地局510が接続されている。サウンドデータ配信サーバ300は、移動通信網500および基地局510を介して、サウンドデータを端末100にストリーム配信する。ここで、サウンドデータとは、3次元座標によって規定された仮想的な発音地点から出力される音を表す情報である。
【0013】
端末100は、携帯型の無線通信端末であり、いずれかの基地局510を介して、端末100の位置を示す端末位置情報などをサウンドデータ配信サーバ300に送信したり、サウンドデータ配信サーバ300からサウンドデータなどを受信したりする。端末100は、後述するように、サウンドデータを受信すると、当該サウンドデータに対応する発音地点の位置から発せられると想定される音の音像を定位させたオーディオ信号をサウンドデータから生成する。
【0014】
また、端末100は、ステレオ形式のヘッドフォン200が接続可能になされており、サウンドデータから生成されたオーディオ信号を、ヘッドフォン200を介して放音する。このヘッドフォン200は、ユーザの頭に装着された使用状態において、ユーザの顔の向く方向を検出する方位センサ210を有しており、オーディオ信号が入力される間にわたり、検出した方位を示す信号を端末100に送信する。また、端末100は、衛星群400から送出される衛星信号を受信するための受信機を備えている。
なお、この図においては、端末100およびヘッドフォン200の組として、2人のユーザ、すなわち、ユーザU1に用いられる組と、ユーザU2に用いられる組との2組が例示されているが、端末100とヘッドフォン200との組は、1組であっても良いし、3組以上であっても良い。
【0015】
<サウンドデータ配信サーバの構成>
図2は、サウンドデータ配信サーバ300の構成を示すブロック図である。この図において、制御部310は、バスB3を介して各部を制御する。また、制御部310は、後述するように発音地点を選択するための処理や、サウンドデータのデータ量を変換するための処理などを実行する。
【0016】
通信部320は、移動通信網500を介して、端末100から送信された端末位置情報などの情報を受信する。また、通信部320は、後述するように制御部310によって選択された4つの発音地点に対応するサウンドデータの各々を並列して、端末100に送信する。記憶部330は、磁気ディスクなどから構成され、各種情報を記憶する。
【0017】
図3は、記憶部330に記憶される情報の一部を示す図である。この図に示されるように、記憶部330には、複数の発音地点IDと、各々の発音地点IDに対応付けられた発音位置情報およびサウンドデータが記憶されている。このうち、発音地点IDは、発音地点を識別するためのものである。本実施形態においては、各発音地点は、街中における構造物(例えば、店舗や、ビルなど)に対応する位置に規定されており、それらの構造物を示す「ミニストアA」や、「ビルA」などの構造物名が、発音地点IDとして登録されている。なお、発音地点の配置場所は、構造物に対応する位置に限られず、任意に設定することが可能である。また、発音位置情報は、例えば、緯度、経度、高度などからなり、3次元座標によって発音地点の位置を規定するものである。
【0018】
サウンドデータは、発音地点から発せられると想定される音を表すデータであり、所定の周波数(例えば、44.1kHz)でサンプリングされたデータである。サウンドデータは、楽曲、楽音、音声などの音を表すデータであればどのようなデータであっても良く、本実施形態においては、サウンドデータとして「買い物マーチ(楽曲)」、「太鼓音(楽音)」、「犬の鳴き声(音声)」、「チャイム(電子音)」などが記録されている。サウンドデータ配信サーバ300は、記憶部330に記憶されるサウンドデータのうち、4つのサウンドデータを端末100に配信する。そして、端末100おいては、配信された4つのサウンドデータを加工・混合した後、ヘッドフォン200を介して放音する。
【0019】
また、記憶部330には、サウンドデータのデータ量変換に使用されるデータ量変換テーブルが記憶されている。図4は、データ量変換テーブルの構成を示す図である。この図に示されるように、データ量変換テーブルTBLは、端末100および発音地点の距離Dと、当該発音地点に対応するサウンドデータが変換されるべきサンプリング周波数とが対応付けられたテーブルである。例えば、図4においては、「0」以上「L1(>0)」未満の距離Dには、サンプリング周波数「f1(=44.1kHz)」が対応付けられており、「L1」以上「L2(>L1)」未満の距離Dには、サンプリング周波数「f2(=22kHz)」が対応付けられている。制御部310は、データ量変換テーブルTBLに従って、後述するデータ量変換処理において、サウンドデータのデータ量を変換する。なお、図4における「L1」、「L2」、「L3」および「L4」の各々は、「0」<「L1」<「L2」<「L3」<「L4」の関係を満たしている。
【0020】
<端末の構成>
図5は、端末100の構成を示すブロック図である。この図において制御部110は、バスB1を介して各部を制御する。また、衛星電波受信部145は、衛星群400に含まれる複数の衛星の各々から、並列して衛星信号を受信し、受信された各々の信号を測位部140に入力する。測位部140は、衛星電波受信部145から入力された各々の衛星信号に含まれる送出時刻や軌道位置などの情報を用いて、端末100の位置を示す端末位置情報を生成する。この際、測位部140は、端末100から各々の衛星信号が送出された衛星までの距離(擬似距離)を測定し、測定された各々の距離を測位方程式に代入して、3次元座標による端末位置情報を生成する。
ここで、端末100は、ユーザに携帯されて使用される。このため、測位部140によって測定された端末100の位置は、ユーザの位置(中心位置)と等しいものとみなすことができる。
【0021】
指示入力部120は、操作ボタンなどから構成され、オーディオ信号の生成開始を指示する生成開始信号などを制御部110に入力する。ここで、オーディオ信号の生成とは、発音地点から出力される音の音像を定位させたオーディオ信号を、サウンドデータから生成する処理である。制御部110は、指示入力部120を介して与えられるユーザからの指示に従って、端末100全体を制御する。
【0022】
方位検出部150は、ヘッドフォン200に備えられた方位センサ210によって、ヘッドフォンを装着したユーザの顔がいずれの方向を向いているのかを検出し、方位情報としてバスB1に供給する。なお、ヘッドフォン200に備えられる方位センサ210としては、地磁気を検出する手法や、ジャイロスコープを用いる手法の他、次の手法を用いることも可能である。すなわち、複数の測位部をヘッドフォン200に設け、各測位部により検出された位置の相対的な変化量を用いて、ユーザの顔の向く方向を検出することも可能である。
【0023】
無線通信部130は、制御部110の制御の下、端末100が在圏するエリアの基地局510との間に無線リンクを確立し、これを経由して、端末位置情報をサウンドデータ配信サーバ300に送信したり、4つのサウンドデータを並行してサウンドデータ配信サーバ300から受信したりする。
【0024】
オーディオ信号生成部160は、無線通信部130から並列して入力された4つのサウンドデータの各々から、2チャネルのオーディオ信号を生成し、生成したオーディオ信号をバスB1に供給する。この際、オーディオ信号生成部160は、左耳用のオーディオ信号であるLチャネル信号と、右耳用のオーディオ信号であるRチャネル信号とを別個独立に生成し、その各々をバスB1に供給する。バスB1に供給されたLチャネル信号およびRチャネル信号の各々は、オーディオ信号出力部190を介して、ヘッドフォン200から音として出力される。
【0025】
次に、オーディオ信号生成部160の詳細構成について、図6を参照して説明する。この図に示されるように、オーディオ信号生成部160には、端末100がサウンドデータ配信サーバ300から並行して受信するサウンドデータ数と等しい4つの加工部170−1、170−2、170−3、170−4が含まれている。これらの加工部170−1、170−2、170−3、170−4の各々は、4つのサウンドデータのうちいずれかひとつのサウンドデータを加工して、発音地点から発せられると想定される音の音像を定位させたオーディオ信号を生成する。いずれの加工部170−1、170−2、170−3、170−4が、いずれのサウンドデータを加工するかについては、各発音地点と端末100との距離に応じて、加工部170−1、170−2、170−3、170−4の順に、端末100との距離が長くなる発音地点に対応するサウンドデータを割り当てるなどの構成が考えられる。なお、以下の説明においては、加工部170−1、170−2、170−3、170−4の各々を区別する必要のない場合には、単に、その符号を170と記すことにする。
【0026】
ここで、加工部170の詳細説明に先立って、ある地点(音源)から実際に出力された音を聴いた聴取者が、当該音源の方向や音源までの距離を知覚する仕組み、すなわち、音像定位について説明する。例えば、聴取者の右方に音源が位置する場合、聴取者の右耳から音源までの距離は、左耳から音源までの距離より近くなる。このため、ある時点に音源から出力された音が、右耳に到達するのにかかる時間は、左耳に到達するのにかかる時間より短くなる。このような左耳と右耳との間に生じる遅延時間により、聴取者は、音源の方向を知覚する。また、聴取者の近くに位置する音源と、遠くに位置する音源との2つの音源がある場合を想定する。この場合、ある音量(音圧)の音が各々の音源から出力されたとき、聴取者の位置においては、聴取者の遠くに位置する音源による音の音量より、近くに位置する音源による音の音量のほうが大きいものとなる。このような音量の差により、聴取者は、音源までの距離を知覚する。
【0027】
そこで、本実施形態における各々の加工部170は、あたかも発音地点が実在するかのようにユーザが体感することができるように、各々の発音地点について、当該発音地点の位置と、ユーザ(聴取者)の左右の耳の位置とに応じて、左右の耳で生じる遅延時間および音量が規定されたオーディオ信号を生成する。以下、ひとつの加工部170に着目して、ひとつの発音地点に関するオーディオ信号の生成について説明する。
【0028】
図7に示されるように、端末位置情報によって示されるユーザUの中心位置P(XP,YP,ZP)と、方位情報によって示されるユーザの顔方向Aとが与えられた場合、左耳と右耳との距離をeとしたとき、ユーザUの左耳の位置L(XL,YL,ZL)は、中心位置P(XP,YP,ZP)から水平、かつ、方向Aと垂直にe/2の距離だけ左側の位置によって特定され、右耳の位置R(XR,YR,ZR)は、中心位置P(XP,YP,ZP)から水平、かつ、方向Aと垂直にe/2の距離だけ右側の位置によって特定される。ここで、発音地点S(XS,YS,ZS)とユーザ(中心位置P)との距離が十分離れていることを想定し、音は平面波としてユーザの耳に到達するものとする。また、ユーザからみて発音地点Sが右前方に位置し、このとき、ユーザの顔の向いている方向Aとユーザからみた発音地点Sの方向との成す角がθであると仮定する。このとき、発音地点Sから音が出力されると、右耳と左耳との間に生じる音の到達する時間差(遅延時間)Δtは、到達経路の距離の差dおよび音速cを用いて、
【0029】
【数1】
【0030】
と表現される。ここで、d=e・sinθが成り立つので、遅延時間Δtは、
【0031】
【数2】
【0032】
となる。
また、発音地点Sからユーザの左右各々の耳までの距離を、それぞれDL、DRとし、時刻をt、球面波の波動方程式をfとした場合、左耳で生じる音圧PL、および、右耳で生じる音圧PRの各々は、以下のように表すことができる。
すなわち、
【0033】
【数3】
【0034】
【数4】
【0035】
と表現することができる。
加工部170は、これらの遅延時間Δt式(2)、音圧PL式(3)および音圧PR式(4)を表現するオーディオ信号を、サウンドデータから生成する。これにより、ユーザにおいては、発音位置情報で示される位置から発音しているかのように、仮想的な発音地点による音像が定位する。
【0036】
再び説明を図6に戻す。各々の加工部170には、パラメータ生成部172、遅延部176およびアンプ178が含まれている。このうち、パラメータ生成部172には、さらに、ディレイパラメータ生成部173およびアンプパラメータ生成部174が含まれている。ディレイパラメータ生成部173は、Lチャネル信号およびRチャネル信号の各々の遅延時間Δtを規定するパラメータを生成する。より詳細には、ディレイパラメータ生成部173は、サウンドデータ配信サーバ300から受信した発音位置情報と、方位検出部150によって検出された方位情報と、測位部140によって検出された端末位置情報と、左右両耳間の距離eとを入力して、左右の耳間における遅延時間Δtを規定するパラメータDPを式(2)により生成し、パラメータDPを遅延部176に送信する。
【0037】
一方、アンプパラメータ生成部174は、Lチャネル信号およびRチャネル信号の各々が放音されたときの音圧を表すパラメータを生成する。より詳細には、アンプパラメータ生成部174は、サウンドデータ配信サーバ300から受信した発音位置情報と、方位検出部150によって検出された方位情報と、測位部140によって検出された端末位置情報と、左右両耳間の距離eとを入力して、左耳において生じる音圧PLを規定するパラメータALと、右耳において生じる音圧PRを規定するパラメータARを式(3)および式(4)により生成し、パラメータAL、ARをアンプ178に送信する。
なお、パラメータ生成部172に入力されるユーザの左右の耳間の距離eは、制御部110に含まれるROM(Read Only Memory)などに記憶され、ROMなどから読み出される構成としても良いし、指示入力部120を介してユーザが入力する構成としても良い。また、上述した、左右の耳の位置の特定方法、遅延時間Δt、音圧PLおよびPRを表す式(2、3および4)は、あくまでも一例であり、さらに、頭部伝達関数や、周波数スペクトルの変化による音の質的変化、直接音と残響音との比による影響を取り入れるなどの各種の変更や改良を加えることが可能である。
【0038】
遅延部176は、無線通信部130を介して入力したサウンドデータから、左耳用のLチャネル信号SL1および右耳用のRチャネル信号SR1を生成し、その各々をアンプ178に送信する。より具体的には、遅延部176は、ディレイパラメータ生成部173から受け取ったディレイパラメータDPに応じて、Lチャネル信号SL1とRチャネル信号SR1とにおいて遅延が生じるように各々の信号を生成する。これにより、ひとつのサウンドデータについてのLチャネル信号SL1およびRチャネル信号SR1が、ユーザの左右の耳の位置に応じて、あたかも発音地点から到達時間の差が生じているかのように、すなわち、ユーザからみて、ある方向に位置する発音地点から出力された音であるかのように生成される。
【0039】
アンプ178は、遅延部176から受け取ったLチャネル信号SL1を、アンプパラメータ生成部174から受け取ったパラメータALによって増幅する一方、遅延部176から受け取ったRチャネル信号SR1を、アンプパラメータ生成部174から受け取ったパラメータARによって増幅し、それぞれLチャネル信号SL2およびRチャネル信号SR2として混合部180に送信する。これにより、Lチャネル信号SL2およびRチャネル信号SR2の各々が、ユーザの左右の耳の位置と各々の発音地点との距離に応じて、音圧レベルが異なるかのように生成される。なお、このようなアンプ178による音圧レベルの調整は、加工部170−1、170−2、170−3、170−4ごとに行われる。このため、各々の加工部170−1、170−2、170−3、170−4において生成されるオーディオ信号によって、ユーザに対して、あたかも各々の発音地点までの距離が異なるかのような感覚を与えることが可能となる。
【0040】
混合部180は、4つの加工部170から送信された4つのLチャネル信号SL2を混合し、Lチャネル信号SL3としてオーディオ信号出力部190に送信する一方で、4つのRチャネル信号SR2を混合し、Rチャネル信号SR3としてオーディオ信号出力部190に送信する。この際、混合部180は、ユーザの耳に障害を与えないように、混合されたLチャネル信号SL3およびRチャネル信号SR3の信号レベルに制限をかけることが好ましい。混合部180から送信されたLチャネル信号SL3およびRチャネル信号SR3の各々は、オーディオ信号出力部190によって、D/A(Digital / Analog)変換された後、ヘッドフォン200に出力され、左耳用の放音部220および右耳用の放音部230を介して放音される。
なお、確認的ではあるが、オーディオ信号生成部160による処理は、無線通信部130によるサウンドデータの受信や、測位部140による端末位置情報の生成、方位検出部150による方位情報の生成などの各種処理と並列して実行され、オーディオ信号は、サウンドデータからストリーム形式で生成される。このため、ユーザが移動すると、それに応じて端末位置情報や方位情報などが更新され、ユーザがいずれの位置に移動しようとも、また、いずれの方向に顔を向けようとも、ユーザからみて、各々の発音地点から出力される音の音像が定位するようにオーディオ信号が生成される。
【0041】
<サウンドデータ配信システムの動作>
次にサウンドデータ配信システムの動作について、図8を参照して説明する。この動作は、サウンドデータ配信サーバ300から端末100にサウンドデータを配信し、端末100において、端末位置情報や方位情報を更新しつつ、配信されたサウンドデータからオーディオ信号を生成する処理である。なお、この動作は、端末100の指示入力部120から入力される生成開始信号をトリガとして処理を開始し、その後、端末100によって、タイマ割り込みされる処理である。また、サウンドデータ配信サーバ300と端末100との接続認証や端末認証などの、一般的な移動通信システムにおいて実行される各種処理は、本件発明と直接関係しないため、それらの説明については省略することとする。
【0042】
まず、端末100の制御部110は、ステップSA1において、衛星群400から送信される衛星信号を衛星電波受信部145により受信し、衛星信号を取得する。次に、端末100の制御部110は、ステップSA2において、取得した衛星信号に応じて端末100の位置を示す端末位置情報SPを測位部140により生成する。次いで、端末100の制御部110は、ステップSA3において、生成した端末位置情報SPを基地局510に送信する。
基地局510は、端末100から端末位置情報SPを受信すると、ステップSA4において、端末位置情報SPをサウンドデータ配信サーバ300に転送する。
【0043】
サウンドデータ配信サーバ300の制御部310は、基地局510から転送された端末位置情報SPを受信すると、ステップSA5において、発音地点選択処理を実行する。この発音地点選択処理は、受信した端末位置情報SPによる端末100の位置と、発音位置情報による発音地点の位置とに応じて、発音地点を所定数に達するまで選択する処理である。ここで、サウンドデータ配信サーバ300の制御部310が実行する発音地点選択処理を、図9を参照して説明する。
【0044】
まず、制御部310は、ステップSA51において、選択された発音地点の数を示す選択数nを「0」にし、選択数nを初期化する。次に、制御部310は、ステップSA52において、この時点で未選択の発音地点のうち、最も近い発音地点を選択する。この際、制御部310は、受信した端末100の端末位置情報SPと、記憶部330に記憶される各発音地点の発音位置情報とを用いて発音地点を選択する。例えば、いま、図11に示されるように、端末100の周りに、8つの発音地点S1、S2、…、S8が配置されている場合を想定する。これらの発音地点S1、S2、…、S8の各々は、この順で端末100から遠ざかる様に配置されているものとする。このとき、制御部310は、いずれの発音地点S1、S2、…、S8も未選択(選択数n=0)であれば、ステップSA52において、発音地点S1を選択する。
【0045】
次に、制御部310は、ステップSA53において、選択数nを「1」だけインクリメントする。次いで、制御部310は、ステップSA54において、選択数nが所定数(本実施形態では4つ)に達したか否かを判別する。この判別結果が否定的であれば、制御部310は、処理手順をステップSA52に戻し、選択数nが所定数に達するまで、ステップSA52からステップSA54までの処理を繰り返す。
【0046】
一方、ステップSA54の判別結果が肯定的となれば、制御部310は、所定数の発音地点が選択されたため、発音地点選択処理を終了する。例えば、図11においては、制御部310は、8つの発音地点S1、S2、…、S8のうち、端末100に近い、黒丸で示される4つの発音地点S1、S2、S3およびS4を選択する。なお、本実施形態においては、制御部310によって4つの発音地点が選択されるが、選択される発音地点の数は任意に設定することが可能である。
【0047】
さて、再び図8において、サウンドデータ配信サーバ300の制御部310は、発音地点選択処理(ステップSA5)が終了すると、次に、ステップSA6において、データ量変換処理を実行する。このデータ量変換処理は、選択された発音地点に対応するサウンドデータのデータ量、すなわち、端末100に配信されるサウンドデータのデータ量を変換する処理である。ここで、サウンドデータ配信サーバ300の制御部310が実行するデータ量変換処理を、図10を参照して説明する。この説明においては、サウンドデータ配信サーバ300の記憶部330に予め記録されるサウンドデータのサンプリング周波数は、44.1kHz以上であるものとする。
【0048】
まず、制御部310は、ステップSA61において、発音地点選択処理によって選択された各々の発音地点と端末100との距離Dを、発音位置情報および端末位置情報SPを用いて求める。次に、制御部310は、ステップSA62において、図4に示されるデータ量変換テーブルTBLを参照し、各々の発音地点から端末100までの距離Dに応じて、各発音地点のサウンドデータが変換されるべきサンプリング周波数を特定する。例えば、いま、図11において、端末100と発音地点S1との距離Dが「0」以上「L1」未満であり、端末100と発音地点S2との距離Dが「L1」以上「L2」未満であり、端末100と発音地点S3との距離Dが「L2」以上「L3」未満であり、端末100と発音地点S4との距離Dが「L3」以上「L4」未満であるものとする。このとき、制御部310は、データ量変換テーブルTBLを参照して、発音地点S1のサウンドデータについてのサンプリング周波数をf1(44.1kHz)に特定し、発音地点S2のサウンドデータについてのサンプリング周波数をf2(22kHz)に特定し、発音地点S3のサウンドデータについてのサンプリング周波数をf3(10Hz)に特定し、発音地点S4のサウンドデータについてのサンプリング周波数をf4(5kHz)に特定する。
【0049】
次に、制御部310は、ステップSA63において、記憶部330に予め記録される各々の発音地点のサウンドデータから、ステップSA62において特定されたサンプリング周波数のサウンドデータを生成する。これにより、生成されたサウンドデータは、端末100からの距離が遠い発音地点のサウンドデータほど、サンプリング周波数が低下するため、端末100からの距離が遠い発音地点のサンプリングデータほど、そのデータ量が縮減される。これにより、サウンドデータ配信サーバ300から配信されるサウンドデータの総データ量が縮減され、結果として、サウンドデータの配信にかかる移動通信網500におけるネットワークトラフィック、および、サウンドデータの送信にかかるサウンドデータ配信サーバ300の負荷が低減されることとなる。
なお、一般に、オーディオ信号のサンプリング周波数が低下すると、当該オーディオ信号が放音されたときの音質は劣化するが、本実施形態においては、端末100に配信されたサウンドデータは、端末100の加工部170によって、端末100から遠くに位置する発音地点のサウンドデータほど小さな音量となるように加工される。このため、端末100から遠くに位置する発音地点のサウンドデータのサンプリング周波数を低下させても、端末100において生成されるオーディオ信号が放音されたときの音質に、ほとんど影響することがない。言い換えれば、データ量変換処理によれば、音質を不当に損なうことなく、サウンドデータのデータ量を縮減させ、サウンドデータの配信によるネットワークトラフィックおよびサウンドデータ配信サーバ300の負荷を低減することができる。
【0050】
さて、再び図8において、サウンドデータ配信サーバ300の制御部310は、データ量変換処理(ステップSA6)が終了すると、次に、ステップSA7において、データ量が変換された4つのサウンドデータSD1、SD2、SD3、SD4の各々を、並列に基地局510に送信する。この際、制御部310は、各サウンドデータSD1、SD2、SD3、SD4に、記憶部330に記録される発音位置情報を付加した後、サウンドデータSD1、SD2、SD3、SD4をストリーム形式で送信する。例えば、図3において、基地局510に送信すべきサウンドデータが、発音地点ID「ミニストアA」に対応する「買い物マーチ」であれば、制御部310は、「買い物マーチ」に発音位置情報(x1,y1,z1)を付加した後、「買い物マーチ」を送信する。
基地局510は、サウンドデータ配信サーバ300から送信されたサウンドデータSD1、SD2、SD3、SD4を受信すると、ステップSA8において、それらのサウンドデータSD1、SD2、SD3、SD4を端末100に転送する。
【0051】
一方、端末100の制御部110は、ステップSA3において端末位置情報SPを基地局510に送信すると、次に、ステップSA9において、ユーザの顔方向を示す方位情報を方位検出部150によって生成する。次いで、端末100の制御部110は、ステップSA10において、基地局510から受信したサウンドデータSD1、SD2、SD3、SD4からオーディオ信号を生成する。この際、端末100の制御部110は、端末位置情報SP、方位情報および発音位置情報に応じて、オーディオ信号生成部160によりオーディオ信号をストリーム形式で生成する。次に、端末100の制御部110は、ステップSA11において、オーディオ信号出力部190からオーディオ信号を出力する。端末100から出力されたオーディオ信号は、ヘッドフォン200を介して音として出力される。
【0052】
例えば、いま、図12に示されるように、発音地点S1、S2、S3、S4の位置が設定されており、端末位置情報SPによって端末100(ユーザ)の位置、方位情報によってユーザの顔の向く方向Aが与えられたものとする。また、このとき、ユーザから各発音地点S1、S2、S3、S4までの距離は、左右両耳とも、この順で遠くなるものとする。この際、ヘッドフォン200から出力される各発音地点のサウンドデータの音圧(音量)は、発音地点S1に対応するサウンドデータの音圧が最も大きくなり、発音地点S4に対応するサウンドデータの音圧が最も小さくなる。これにより、ユーザは、発音地点S1が最も近くに位置し、発音地点S4が最も遠くに位置するように知覚する。また、発音地点S1からユーザの右耳までの距離は、左耳までの距離より短いため、発音地点S1のサウンドデータについてのLチャネル信号は、Rチャネル信号より遅延したものとなる。これにより、ユーザは、発音地点S1が右側に位置することを知覚する。同様に、Lチャネル信号とRチャネル信号との間の遅延量(遅延時間Δt)により、ユーザは発音地点S4が左側に位置することを知覚する。
【0053】
次に、図13に示されるように、ユーザが、発音地点S4の方向を向いたとする。このとき、方位検出部150によって、ユーザの顔の向く方向Aが更新されるため、Lチャネル信号とRチャネル信号との間における各サウンドデータの遅延量(遅延時間Δt)が更新される。これにより、ユーザは、発音地点S2が右側に位置し、発音地点S3が左側に位置することを知覚する。
【0054】
次いで、図14に示されるように、ユーザが、発音地点S4に近づき、ユーザから各発音地点S1、S2、S3、S4までの距離が、発音地点S4、発音地点S2、発音地点S3、発音地点S1の順で遠くなる位置に移動したものとする。このようにユーザが移動すると、発音地点S1から遠ざかるため、発音地点S1のサウンドデータの音圧(音量)は小さくなる一方、発音地点S4に近づくため、発音地点S4のサウンドデータの音圧は大きくなる。これにより、ユーザは、発音地点S1から離れ、発音地点S4に近づいたことを知覚する。
【0055】
以上説明したように、本実施形態によれば、ユーザの位置およびユーザの向く方向と、発音地点の位置とに応じて、ユーザからみて、発音位置情報で示される位置から発音しているかのように定位させたオーディオ信号が生成される。これにより、ユーザは、あたかも発音地点の各々が、規定された位置に実在するかのような感覚を得ることができる。例えば、ある領域に発音地点としてオーケストラの各パートを配置した場合、ユーザが当該領域内を移動すれば、ユーザは、あたかも各パートが配置された空間内を移動するかのような感覚を得ることが可能となり、ユーザがオーディオデータの生成に参加でき、変化に富んだ楽しい音響アミューズメントを提供することができる。
【0056】
また、本実施形態においては、発音地点の音像が定位されるため、音声でユーザの目標物の位置を指示する音声情報システムに適用した場合、目標物が右側に位置すれば、「右方向、ガソリンスタンドの手前を右折です。」などの音声が、あたかも右側から出力されたかのように聞こえる。これにより、従来における音像を考慮しない音声情報システムと比較して、より直感的に方向に関する情報をユーザに与えることが可能となり、音声指示の効率が向上する。
さらに、サウンドデータ配信システムを視覚障害者向けガイドとしても使用できる。例えば、駅における切符自販機、駅員室、改札口などに、それら各々を表す音声を出力するような発音地点を配置する構成としても良い。このような構成にすれば、音声によって、目で見るのと同様に位置を案内することができるため、ユーザは自主的に目標物に近づくことができる。
【0057】
くわえて、発音地点を商店などの位置に配置し、当該商店の広告を示す音声を出力する構成としても良い。これにより、あたかも商店から音声が出力されたかのように聞こえるため、ユーザは、例えばビルの2階などの目に付きにくい場所に立地する商店を探しやすくなる。一方、商店においては、広告効果が期待でき、商売が活性化することとなる。また、聴覚に働きかける広告が、呼び込みなどの実際の音から、仮想的な発音地点の広告に転換されることにより、街中における騒音が低減される。
【0058】
<第1実施形態の変形例>
なお、上述した第1実施形態においては、サウンドデータの配信によるネットワークトラッフィックおよびサウンドデータ配信サーバの負荷を緩和するために、データ量変換処理においてサウンドデータのデータ量を縮減する例を示した。しかし、これらが問題とならない場合には、データ量変換処理を省略することができる。
【0059】
<第2実施形態>
<サウンドデータ配信システムの構成>
上述した第1実施形態においては、ひとつのサウンドデータ配信サーバ300から端末100にサウンドデータを配信するサウンドデータ配信システムについて説明した。これに対し、第2実施形態では、複数のサウンドデータ配信サーバの各々から端末100にサウンドデータを配信するサウンドデータ配信システムについて説明する。
なお、第2実施形態におけるサウンドデータ配信システムの構成のうち、第1実施形態に係るシステムと共通するものについては同一の符号が付されている。
【0060】
図15は、第2実施形態におけるサウンドデータ配信システムの概略構成を示す図である。この図に示されるように、移動通信網500には、大別して2種類のサーバ装置が接続されている。すなわち、コントロールサーバ600と、サウンドデータ配信サーバ610A、610B、610Cとである。このうち、サウンドデータ配信サーバ610A、610B、610Cの各々は、端末100に配信されるサウンドデータであり、互いに異なる発音地点に対応したサウンドデータを記憶している。また、コントロールサーバ600は、サウンドデータ配信サーバ610A、610B、610Cから端末100へのサウンドデータの配信を管理するものである。詳述すると、コントロールサーバ600は、端末100の位置と、各々の発音地点の位置とに応じて、所定数(例えば2つ)の発音地点を選択する。サウンドデータ配信サーバ610A、610B、610Cは、コントロールサーバ600によって選択された発音地点に対応するサウンドデータを、端末100に配信する。なお、これらのコントロールサーバ600、サウンドデータ配信サーバ610A、610B、610Cの各々には、移動通信網500において各々を特定するためのサーバIDが割り当てられている。
なお、説明の便宜上、第2実施形態においては、サウンドデータ配信サーバ610A、610B、610Cは、移動通信網500に直接接続されているが、サウンドデータ配信サーバ610A、610B、610Cは、インターネットなどを介して移動通信網500に接続される構成としても良い。また、第2実施形態においては、サウンドデータ配信サーバ610A、610B、610Cの数が3つである例を説明するが、サウンドデータ配信サーバ610A、610B、610Cの数は、3つに限られるものではなく、それ以外の数であってもよい。
【0061】
まず、サウンドデータ配信サーバ610A、610B、610Cの構成について説明する。第2実施形態におけるサウンドデータ配信サーバ610A、610B、610Cは、第1実施形態におけるサウンドデータ配信サーバ300(図2参照)と同様の構成をしており、各部を制御する制御部と、移動通信網とデータを授受する通信部と、各種情報を記憶する記憶部とを備えている。
【0062】
図16は、サウンドデータ配信サーバ610Aの記憶部に記憶される情報のうち主要なものを示す図であり、図17は、サウンドデータ配信サーバ610Bの記憶部に記憶される情報のうち主要なものを示す図である。なお、図示しないが、サウンドデータ配信サーバ610Cにおける記憶部もサウンドデータ配信サーバ610A、610Bと同様な情報が記憶されている。これらの図に示されるように、各サウンドデータ配信サーバ610A、610Bの記憶部には、発音地点IDと、各々の発音地点IDに対応付けられたサウンドデータとが記憶される。この記憶部が、第1実施形態におけるサウンドデータ配信サーバ300の記憶部330と比較して特徴的なのは、発音位置情報を記憶していない点にある。
【0063】
次いで、コントロールサーバ600の構成について説明する。コントロールサーバ600は、サウンドデータ配信サーバ610の構成と同様の構成をしており、各部を制御する制御部と、移動通信網500とデータを授受する通信部と、各種情報を記憶する記憶部とを備えている。
【0064】
図18は、コントロールサーバ600の記憶部に記憶される情報のうち、主要なものを示す図である。この図に示されるように、記憶部には、発音地点IDと、各々の発音地点IDに対応付けられた発音位置情報およびサーバIDが記憶されている。コントロールサーバ600の記憶部が、第1実施形態におけるサウンドデータ配信サーバ300の記憶部330と比較して特徴的な点は、サウンドデータを記憶していない点と、サーバIDを記憶している点にある。発音地点IDは、サウンドデータ配信サーバ610A、610B、610Cに記憶される発音地点を特定するためのものである。また、サーバIDは、発音地点IDによって特定される発音地点のサウンドデータが、いずれのサウンドデータ配信サーバ610A、610B、610Cに記憶されているかを示す情報である。この図におけるサーバID「A」は、サウンドデータ配信サーバ610Aを示し、サーバID「B」は、サウンドデータ配信サーバ610Bを示し、サーバID「C」は、サウンドデータ配信サーバ610Cを示している。例えば、この図においては、発音地点ID「ミニストアA」の発音地点は、座標(x1,y1,z1)に位置し、そのサウンドデータはサウンドデータ配信サーバ610Aに記憶されることを示し、発音地点ID「ミニストアB」の発音地点は、座標(x2,y2,z2)に位置し、そのサウンドデータはサウンドデータ配信サーバ610Bに記憶されることを示している。
【0065】
<サウンドデータ配信システムの動作>
第2実施形態におけるサウンドデータ配信システムの動作について図19を参照して説明する。この動作は、コントロールサーバ600によって選択された発音地点に対応するサウンドデータを、サウンドデータ配信サーバ610から端末100に配信し、端末100において、配信されたサウンドデータからオーディオ信号を生成する処理である。なお、この動作は、ユーザが端末100の指示入力部120を介して、オーディオ信号の生成の開始を指示する生成開始信号を入力すると処理を開始し、その後、端末100によって、タイマ割り込みされる処理である。また、コントロールサーバ600と端末100との間における接続認証や端末認証などの、一般的な移動通信システムにおいて実行される各種処理は、本件発明と直接関係しないため、それらの説明については省略することとする。
【0066】
まず、端末100の制御部110は、ステップSB1において、衛星群400から送信される衛星信号を、衛星電波受信部145により受信し、衛星信号を取得する。次に、端末100の制御部110は、ステップSB2において、取得した衛星信号に応じて端末100の3次元位置を示す端末位置情報SPを測位部140により生成する。
【0067】
次に、端末100の制御部110は、ステップSB3において、端末位置情報SPを、その情報の送信先であるコントロールサーバ600を示すサーバIDと共に基地局510に送信する。基地局510は、端末位置情報SPを端末100から受信すると、ステップSB4において、その情報をコントロールサーバ600に転送する。
【0068】
コントロールサーバ600の制御部は、端末位置情報SPを受信すると、ステップSB5において、受け取った端末位置情報SPと、記憶部に記憶される発音位置情報とに応じて、発音地点選択処理を実行する。この発音地点選択処理は、上述した第1実施形態における発音地点選択処理(図9参照)と同様の処理であり、端末100に近い発音地点から順に、所定数(2つ)に達するまで発音地点を選択する処理である。この動作説明においては、例として、コントロールサーバ600の制御部は、図18に示される発音地点IDのうち「ミニストアA」と「ビルB」との2つの発音地点を選択したものとして、すなわち、サウンドデータ配信サーバ610Aに記憶される「買い物マーチA(図16参照)」と、サウンドデータ配信サーバ610Bに記憶される「太鼓音B(図17参照)」とが端末100に配信されるものとして説明する。なお、コントロールサーバ600の制御部によって選択される発音地点の数は、2つに限られず、任意に設定することが可能である。
【0069】
次に、コントロールサーバ600の制御部は、ステップSB6において、選択された発音地点のサウンドデータを有するサウンドデータ配信サーバ610のサーバID_SIDを基地局510に送信する。この際、コントロールサーバ600の制御部は、サーバID_SIDに対して、その記憶部に記憶される発音地点IDおよび発音位置情報を付加した後、サーバID_SIDを送信する。すなわち、コントロールサーバ600の制御部は、図18におけるサーバID「A」に発音地点ID「ミニストアA」と発音位置情報(x1,y1,z1)とを付加すると共に、サーバID「B」に発音地点ID「ビルB」と発音位置情報(x2,y2,z2)とを付加した後、サーバID「A」およびサーバID「B」を基地局510に送信する。
基地局510は、各サーバID_SIDをコントロールサーバ600から受信すると、ステップSB7において、それらを端末100に転送する。
【0070】
端末100の制御部110は、基地局510によって転送されたサーバID_SIDを受信すると、ステップSB8において、当該サーバID_SIDによって特定されるサウンドデータ配信サーバ610A、610Bの各々にサウンドデータの配信を要求すべく、配信要求DRA、DRBを基地局510に送信する。すなわち、端末100の制御部110は、サウンドデータ配信サーバ610Aに対する「買い物マーチA」の配信要求DRAと、サウンドデータ配信サーバ610Bに対する「太鼓音B」の配信要求DRBとを基地局510に送信する。
【0071】
基地局510は、配信要求DRA、DRBを端末100から受け取ると、ステップSB9およびステップSB10において、受け取った配信要求DRA、DRBの各々を、対応するサウンドデータ配信サーバ610A、610Bに転送する。すなわち、基地局510は、ステップSB9において、配信要求DRAをサウンドデータ配信サーバ610Aに転送する一方、ステップSB10において、配信要求DRBをサウンドデータ配信サーバ610Bに転送する。
【0072】
サウンドデータ配信サーバ610Aの制御部は、基地局510から配信要求DRAを受け取ると、ステップSB11において、当該配信要求DRAによって示されるサウンドデータSDA(ここでは「買い物マーチA」)を基地局510にストリーム形式で送信する。基地局510は、サウンドデータ配信サーバ610AからサウンドデータSDAを受け取ると、ステップSB12において、サウンドデータSDAを端末100に転送する。
【0073】
一方、サウンドデータ配信サーバ610Bの制御部は、基地局510から配信要求DRBを受け取ると、ステップSB13において、当該配信要求DRBによって示されるサウンドデータSDB(ここでは「太鼓音B」)を基地局510にストリーム形式で送信する。基地局510は、サウンドデータ配信サーバ610BからサウンドデータSDBを受け取ると、ステップSB14において、サウンドデータSDBを端末100に転送する。これらのステップSB13およびステップSB14の処理は、上述したステップSB11およびステップSB12の処理と並列して実行される。
【0074】
なお、第1実施形態と同様に、サウンドデータSDA、SDBを送信する前に、サウンドデータ配信サーバ610A、610Bにおいて、データ量変換処理を実行しても良い。すなわち、サウンドデータ配信サーバ610A、610Bの各々において、端末100と発音地点との距離に応じて、各々のサウンドデータSDA、SDBのデータ量を縮減した後、サウンドデータを基地局510に送信する構成としても良い。
【0075】
端末100の制御部110は、サウンドデータ配信サーバ610Aから送信されたサウンドデータSDA(ここでは「買い物マーチA」)と、サウンドデータ配信サーバ610Bから送信されたサウンドデータSDB(ここでは「太鼓音B」)とを、基地局510を介して並列に受信すると、ステップSB15において、それらのサウンドデータをオーディオ信号生成部160に入力して、左右2チャネルのオーディオ信号を生成する。この際、「買い物マーチA」と「太鼓音B」との各々のサウンドデータは、オーディオ信号生成部160に含まれる2つの加工部170のいずれか一方によって処理される。そして、端末100の制御部110は、ステップSB16において、オーディオ信号出力部190からオーディオ信号を出力する。端末100から出力されたオーディオ信号は、ヘッドフォン200を介して音として出力される。
【0076】
このように第2実施形態においては、コントロールサーバ600の管理の下、各サウンドデータ配信サーバ610A、610B、610Cから端末100にサウンドデータが配信され、端末100において、ユーザの位置および顔の向く方向Aに応じて、仮想的な発音地点による音像を定位させたオーディオ信号が生成される。これにより、上述した第1実施形態と同様に、ユーザは、あたかも発音地点が実在するかのような空間を移動することができ、従来にない音響アミューズメントを提供することができる。
【0077】
また、第2実施形態においては、複数のサウンドデータ配信サーバ610A、610B、610Cからサウンドデータが配信される。このため、複数の端末100が、ひとつのサウンドデータ配信サーバから集中的にサウンドデータの配信を受ける事態が回避され、サウンドデータ配信サーバにかかる負荷が分散されることとなる。さらに、コントロールサーバ600によってサウンドデータの配信が一括管理されるため、サウンドデータの管理が容易となり、サウンドデータを容易に増加することができる。これにより、端末100に配信されるサウンドデータの種類や内容が充実したものとなる。
【0078】
<第1および第2実施形態の変形例>
なお、上述した第1および第2実施形態においては、端末位置情報SPを、GNSSによって端末100において生成する例を示したが、これに限られない。例えば、サウンドデータ配信サーバ300やコントロールサーバ600において、端末100が無線リンクを確立する基地局510の位置などに応じて、端末位置情報SPを生成する構成としても良い。
【0079】
また、上述した第1および第2実施形態においては、基地局510と無線通信する無線通信部130を備えた端末100を説明したが、これに限られない。例えば、PDA(Personal Digital Assistants)などの無線通信機能を有さない携帯端末と、当該携帯端末に着脱可能な通信モジュールを取り付けて、サウンドデータ配信サーバ300などとデータを授受する構成としても良い。
【0080】
上述した第1および第2実施形態においては、サウンドデータをストリーム形式で配信する例を示したが、端末100にサウンドデータを記憶する記憶部を設けて、記憶部にキャッシュされたサウンドデータによりオーディオ信号を生成する構成としても良い。
【0081】
くわえて、上述した第1および第2実施形態においては、端末100と発音地点との距離に応じて、サウンドデータ配信サーバ300、610Aなどにおいて、端末100に配信するサウンドデータのデータ量を変換する例を示したがこれに限られない。例えば、サウンドデータ配信サーバ300の記憶部330に、同一の音を表すサウンドデータであって、データ量が互いに異なる複数のサウンドデータ(例えば、サンプリング周波数が互いに異なる複数のサウンドデータ)を予め記憶させておき、このうちのいずれかを、端末100と発音地点との距離に応じて選択し、選択されたサウンドデータを端末100に送信する構成としても良い。これにより、上述した各実施形態と同様に、ネットワークトラフィックが低減されることとなる。
【0082】
<第3実施形態>
上述した第1、第2実施形態においては、無線通信網500を介してサウンドデータ配信サーバ300、610からサウンドデータを受信し、受信したサウンドデータからオーディオ信号を生成する端末100について説明した。これに対し、第3実施形態では、端末内に設けられた記憶部に記憶されるサウンドデータからオーディオ信号を生成する端末を説明する。第3実施形態においては、上述した各実施形態におけるサウンドデータ配信サーバ300、および、基地局510などの無線通信のための設備は不要となる。
【0083】
図20は、第3実施形態における端末の構成を示す図である。この図において、第1実施形態における端末100と同一の構成については、同一の符号が付されている。
第3実施形態における端末700の構成のうち、特徴的なのは、発音情報記憶部720である。この発音情報記憶部720は、発音地点に関する発音位置情報や、サウンドデータを記憶するものであり、それらの情報をバスB1に供給する。上述した第1および第2実施形態における端末100の制御部110は、サウンドデータ配信サーバ300から配信されるサウンドデータからオーディオ信号を生成したが、第3実施形態における端末700の制御部710は、発音情報記憶部720に記憶されるサウンドデータを読み出して、読み出されたサウンドデータからオーディオ信号を生成する。
【0084】
より具体的には、まず、制御部710は、測位部140によって生成された端末位置情報SPが示す端末700の位置と、発音情報記憶部720に記憶される発音位置情報が示す発音地点の位置とに応じて、発音地点選択処理を実行する。この発音地点選択処理は、上述した第1実施形態におけるサウンドデータ配信サーバ300において実行される発音地点選択処理(図9参照)と同様の処理であり、発音地点を、端末700に近いものから順番に、所定数に達するまで選択する処理である。次に、制御部710は、選択された複数の発音地点の各々に対応するサウンドデータを、発音情報記憶部720から並列して読み出す。そして、制御部710は、読み出された各々のサウンドデータから、端末位置情報SPと発音位置情報とに応じて、2チャネルのオーディオ信号をオーディオデータ生成部160によって生成する。
【0085】
このように第3実施形態においては、端末700に含まれる発音情報記憶部720から読み出されたサウンドデータによってオーディオ信号が生成される。これにより、上述した第1および第2実施形態と同様に、ユーザが仮想的な発音位置が配置された空間を移動することができ、従来にない音響アミューズメントを提供することができる。また、サウンドデータを配信する構成が不要となるためその構成が簡略化される。
【0086】
なお、発音情報記憶部720は、必ずしも端末700に内蔵でなくとも良い。例えば光ディスクなどの記録媒体から発音地点に関する情報を読み出すリムーバブルストレージを端末700に設けても良いし、さらには、リムーバブルストレージを外付けするためのインターフェースを端末700に設ける構成としても良い。
【0087】
また、上述した第1、第2および第3実施形態においては、発音地点の位置が固定である例を示したが、発音地点の位置は、時系列的に変化する構成としても良い。このような構成にすると、例えば、ジェット機などの移動体から出力されると想定される音を仮想的に生成することができる。これにより、ヘッドフォン200から出力される音像が、さらに、変化に富んで楽しいものとなる。
【0088】
くわえて、上述した各実施形態においては、発音位置情報および端末位置情報SPの各々を、3次元位置によって規定する例を示したが、2次元位置によって規定する構成としても良い。
【0089】
<第4実施形態>
上述した各実施形態においては、位置が固定の発音地点についての音像を定位させるサウンドデータ配信システムについて説明した。これに対し、第4実施形態においては、発音地点の位置をユーザにより携行される端末の位置と対応付け、ユーザに対して、移動する他のユーザの位置から音が出力されているかのように音像を定位させるサウンドデータ配信システムについて説明する。この実施形態におけるサウンドデータ配信システムの構成のうち、第1実施形態に係るシステムと共通するものについては同一の符号が付されている。
【0090】
<サウンドデータ配信サーバの構成>
上述した第1実施形態のサウンドデータ配信サーバ300は、記憶部330にあらかじめ記憶されるサウンドデータを端末100に配信した。これに対し、本実施形態にかかるサウンドデータ配信サーバは、サウンドデータと端末位置情報SPとを端末から受け取り、それらを含む情報を他の端末に対して配信する。端末からサウンドデータ配信サーバにアップロードされるサウンドデータは、当該端末の位置から仮想的に出力される音を示す情報である。一方、サウンドデータと共にアップロードされる端末位置情報SPは、サウンドデータに応じた音が出力されるべき仮想的な音源の位置を示す情報であり、その役割は、上記各実施形態における発音位置情報と共通する。
【0091】
図21は、サウンドデータ配信サーバ800の構成を示す図である。この図に示されるように、サウンドデータ配信サーバ800は、上述したサウンドデータ配信サーバ300と比較して、移動ベクトル量演算部810を有している点、および記憶部330に記憶される情報の点で異なる。このうち移動ベクトル量演算部810は、1つの端末に関する2時点間の相対的な位置関係から、その端末の単位時間あたりの変位を示すベクトル量、すなわち速度(以下「移動ベクトル量MV」と称する)を演算する。例えば、図22に示すように、地点PT−1(xT−1,yT−1)に位置する端末900が、単位時間「ut」だけ経過した後、地点PT(xT,yT)に移動したとする。このとき、移動ベクトル量演算部810は、移動ベクトル量MVとして、
【0092】
【数5】
【0093】
を演算する。なお、この移動ベクトル量MVは、後述するように、端末900において他の端末900の移動経路の予測に用いられる。
一方、図23は、サウンドデータ配信サーバ800の記憶部330に記憶される情報を示す図である。この図に示すように、記憶部330には、「端末ID」と「端末位置情報SP」と「移動ベクトル量MV」と「サウンドデータ」とが対応付けられて記憶されている。このうち、端末IDは、サウンドデータ配信システムに含まれる端末900を識別するための情報である。記憶部330には、全ての端末900に対応する端末IDのうち、サウンドデータ配信サーバ800と接続中の端末900に対応する端末IDが記憶される。
【0094】
端末位置情報SPは、端末IDに対応する端末900の位置を示す情報であり、1つの端末IDにつき「T−1期」における情報と「T期」における情報との2つの時点における位置情報が含まれる。ここで、「T−1期」は、上述した単位時間「ut」だけ「T期」から過去の時点に相当する。
【0095】
端末位置情報SPは、端末900が基地局510のサービスエリアに在圏する間にわたり単位時間「ut」が経過する度に更新される。なお、この実施形態においては、端末位置情報SPは、(x1T−1,y1T−1)や(x1T,y1T)などにより示すように、2次元にて規定された位置情報とするが、上記発音位置情報と同様に3次元により規定された位置情報であっても良い。
【0096】
移動ベクトル量MVは、上述した移動ベクトル量演算部810により生成された情報であり、端末IDに対応する端末900の「T−1期」から「T期」までの期間における速度を示す。移動ベクトル量演算部810は、「T−1期」および「T期」の端末位置情報SPを用いて移動ベクトル量MVを演算する。
【0097】
サウンドデータは、端末IDに対応する端末900からアップロードされたデータであり、サウンドデータ配信サーバ800から他の端末900に配信される。この実施形態においては、端末900の位置から仮想的に出力される音は楽曲を構成する音であるものとして説明するが、端末900の位置から仮想的に発せられる音は楽曲を構成する音に限られず、楽音や音声などの音であればいかなるものであっても良い。
以上説明した端末IDと、端末位置情報SPと、移動ベクトル量MVと、サウンドデータとの組は、端末IDに対応する端末900がサウンドデータ配信サーバ800と接続している間のみ記憶部330に記憶され、それらの接続関係が切断されると、制御部310により記憶部330から消去される。
【0098】
<端末の構成>
端末900は、自装置の位置から仮想的に出力される音を示すサウンドデータと、自装置の位置を示す端末位置情報SPとをサウンドデータ配信サーバ800にアップロードする一方で、他の端末900に関するサウンドデータと端末位置情報SPと移動ベクトル量MVとをサウンドデータ配信サーバ800からダウンロードする。端末900は、ダウンロードした他の端末900に関するサウンドデータと、端末位置情報SPと、移動ベクトルMVとを用いて、あたかも他の端末900(ユーザ)の位置からサウンドデータで示される楽曲が出力されているかのように音像を定位させる。
【0099】
図24は、端末900の構成を示すブロック図である。この図に示されるように、端末900は、第1実施形態における端末100(図5参照)の構成各部に加え、記憶部910と位置予測部920とを備えている。
このうち記憶部910は、「サウンドデータ」および自装置(端末900)の「端末ID」を記憶する。このサウンドデータは、自装置の位置から仮想的に出力されると想定された音を示すデータである。ユーザは、例えばネットワークを介してダウンロードするなどして、サウンドデータを端末900の記憶部910に記憶させることができる。
【0100】
位置予測部920は、サウンドデータ配信サーバ800から配信された他の端末900に関する「T期」の端末位置情報SPと、移動ベクトル量MVとを用いて、「T期」以降に他の端末900が移動する経路を予測する。例えば、前掲図22に示すように、「T期」における端末900の位置PT(xT,yT)と、「T−1期」から「T期」までの端末900の移動ベクトル量MVとが与えられた場合、位置予測部920は、端末900の位置PC(xC,yC)を例えば次式により時系列的に予測する。
【0101】
【数6】
【0102】
ここで、etは、「T期」からの経過時間を示す。
説明を再び図24に戻す。オーディオ信号生成部160は、第1実施形態と同様に自装置で生成した端末位置情報SPと方位情報Aとを用いて、音像を定位させたオーディオ信号SL3およびSR3をサウンドデータから生成するが、発音地点の位置を示す発音位置情報の代わりとして、位置予測部920により予測された他の端末900の位置PCを用いて音像を定位させる。なお、音像を定位させる際に、他の端末900の位置について実測値ではなく位置予測部920により予測された予測値(位置PC)を用いる理由は、ネットワークトラフィックなどの影響により定位された音像が不自然なものとなるのを防止するためであるが、この点については後述する。
【0103】
<サウンドデータ配信システムの動作>
次にサウンドデータ配信システムの動作について図25を参照して説明する。この動作は、端末900において、あたかも他の端末900の位置から楽曲が出力されているかのように音像を定位させる動作である。サウンドデータ配信システムにおいては、複数の端末900の各々が、サウンドデータをアップロードする動作と、サウンドデータ配信サーバ800からサウンドデータをダウンロードしたうえで自装置と他の端末900との相対的な位置関係に応じて音像を定位させる動作とを並行して実行する。ただし、以下では、説明の便宜のために、サウンドデータ配信システムに含まれる複数の端末900のうち2つの端末900のみに着目し、このうち一方の端末(以下「900U」という)についてはサウンドデータをアップロードする動作に特に注目し、他方の端末(以下「900D」という)についてはサウンドデータのダウンロードおよび音像の定位のための処理に特に注目して説明を進める。
【0104】
まず、いずれかの基地局510が管轄するサービスエリアに端末900Uが入ると、端末900Uの制御部110は、ステップSC1およびSC2において、記憶部910に記憶されるサウンドデータSDと自装置の端末ID_MIとを、基地局510を介してサウンドデータ配信サーバ800に送信する。サウンドデータ配信サーバ800の制御部310は、端末900UからサウンドデータSDと端末ID_MIとを受信すると、前掲図23に示すように端末ID_MIとサウンドデータSDとを対応づけて記憶部330に記憶させる。
【0105】
一方、端末900Uの制御部110は、サウンドデータSDおよび端末IDを基地局510に送信した後(ステップSC1)、ステップSC4において、衛星群400から送信される衛星信号を衛星電波受信部145により受信する。続いて、端末900Uの制御部110は、ステップSC5において、受信した衛星信号を用いて、自装置の位置を示す端末位置情報SP1を測位部140により生成する。次いで、端末900Uの制御部110は、ステップSC6およびSC7において、生成した端末位置情報SP1と自装置の端末ID_MIとを、基地局510を介してサウンドデータ配信サーバ800に送信する。
【0106】
サウンドデータ配信サーバ800の制御部310は、基地局510を介して端末900Uから端末位置情報SP1と端末ID_MIとを受信すると、ステップSC8において、記憶部330に記憶された端末IDのうち受信した端末ID_MIと等しい端末IDに、受信した端末位置情報SP1を対応づけて記憶部330に記憶する。例えば、いま、図26の上段に示されるように、あらかじめ記憶部330に端末ID「MS1」と、「T−1期」の端末位置情報SP(x1T−2,y1T−2)と、「T期」の端末位置情報SP(x1T−1,y1T−1)と、移動ベクトル量MV(x1V−1,y1V−1)と、サウンドデータSD「楽曲1」とが対応づけられて記憶されている状況を想定する。この状況のもと、サウンドデータ配信サーバ800がステップSC7において、基地局510から端末IDとして「MS1」と、端末位置情報SP1として(x1T,y1T)とを受信したとする。この際、制御部310は、同図の下段に示されるように、まず、現時点における「T期」の端末位置情報SP(x1T−1,y1T−1)を、「T−1期」の端末位置情報SPとして書き換えた後、受信した端末位置情報SP1(x1T,y1T)を「T期」の端末位置情報SPとして記憶部330に記憶させる。
【0107】
次に、サウンドデータ配信サーバ800の制御部310は、ステップSC9において、記憶部330に記憶された「T−1期」の端末位置情報SPと「T期」の端末位置情報SPとを用いて、移動ベクトル量演算部810により端末900Uの移動ベクトル量MVを演算する。次いで、制御部310は、演算した移動ベクトル量MVを端末IDと対応づけて記憶部330に記憶させる。なお、「T−1期」の端末位置情報SPが存在しない場合、すなわちサウンドデータ配信サーバ800によるステップSC9の処理が第1回目の場合には、記憶部330には移動ベクトル量MVとして零ベクトルが記録される。
【0108】
ここで、サウンドデータ配信サーバ800からサウンドデータSDをダウンロードする端末900Dの動作へと説明を移す。
端末900Dの制御部110は、オーディオ信号の生成開始を指示する生成開始信号を指示入力部120から入力すると、ステップSC10において、衛星群400から送信される衛星信号を衛星電波受信部145により受信する。次に、端末900Dの制御部110は、ステップSC11において、受信した衛星信号を用いて自装置の位置を示す端末位置情報SP2を測位部140により生成する。次いで、端末900Dの制御部110は、ステップSC12およびSC13において、端末ID_MIと生成した端末位置情報SP2とを、基地局510を介してサウンドデータ配信サーバ800に送信する。
【0109】
サウンドデータ配信サーバ800の制御部310は、基地局510から転送された端末位置情報SP2と端末ID_MIとを受信すると、ステップSC15において、端末選択処理を実行する。この端末選択処理は、第1実施形態における発音地点選択処理(図9参照)と略同様の処理であり、端末900Dと他の端末900との相対的な距離に応じて、他の端末900のうち、端末900Dの近傍に位置する他の端末900を選択する処理である。この例では、端末選択処理によって端末900Uが選択されたものとし、以降、端末900Uに関するサウンドデータSDの音像を定位させる動作について説明する。
【0110】
サウンドデータ配信サーバ800の制御部310は、端末選択処理により端末900Uを選択すると、ステップSC16において、選択した端末900Uの端末ID_MIと、記憶部330において当該端末IDと対応づけられた「T期」の端末位置情報SP1と、移動ベクトル量MVと、サウンドデータSDとを組にして基地局510に送信する。この際、制御部310は、サウンドデータSDのヘッダとして、端末ID_MI、端末位置情報SP1および移動ベクトル量MVを付加する形式でこれらの情報を送信する。なお、仮に端末選択処理において複数の端末900が選択された場合、制御部310は、端末ID_MIと、「T期」の端末位置情報SPと、移動ベクトル量MVと、サウンドデータSDとを端末900ごとに組にして基地局510に送信する。
基地局510は、端末ID_MIと、「T期」の端末位置情報SP1と、移動ベクトル量MVと、サウンドデータSDとを受信すると、ステップSC17において、それらを端末900Dに向けて転送する。
【0111】
一方、端末900Dの制御部110は、端末位置情報SP2と端末ID_MIとを基地局510に送信すると(ステップSC12)、次に、ステップSC14において、ユーザの顔の向く方向Aを示す方位情報ODを方位検出部150により生成する。続いて、端末900Dの制御部110は、基地局510から端末ID_MIと、「T期」の端末位置情報SP1と、移動ベクトル量MVと、サウンドデータSDとを受信すると(ステップSC17)、ステップSC18において、受信したサウンドデータSDの音像を定位させたオーディオ信号を生成し、生成したオーディオ信号をヘッドフォン200を介して放音する。この際、端末900Dは、自装置に関する端末位置情報SP2および方位情報ODを一定の時間間隔で更新しつつ、オーディオ信号を生成する。
サウンドデータ配信システムにおいては、以上説明したステップSC4からステップSC18までの処理が繰り返されることにより、サウンドデータ配信サーバ800から端末900Dに配信されるサウンドデータSDが、ストリーム形式で端末900Dにおいて再生される。
【0112】
以下、端末900DがステップSC18において音像を定位させる処理について詳細に説明する。まず、端末900Dの制御部110は、「T期」の端末位置情報SP1と、移動ベクトル量MVとを用いて、位置予測部920により端末900Uの位置を予測する。次に、端末900Dの制御部110は、予測した端末900Uの位置、ならびに自装置において生成した端末位置情報SP2および方位情報ODに応じて、サウンドデータSDから音像を定位させたオーディオ信号をオーディオ信号生成部160により生成する。
【0113】
例えば、図27中の実線で示すように、端末900Dのユーザ902Dが、端末900Uのユーザ902Uから離れた位置にて、ユーザ902Uの方向Aに顔を向けている場合を想定する。この場合、端末900Dの制御部110は、楽曲があたかもユーザ902Uの位置から放音されているかのようなオーディオ信号を生成し、ヘッドフォン200を介して放音する。
【0114】
次に、図中波線で示すように、各ユーザ902Dおよび902Uが互いに近づくように移動すると、端末900Dの制御部110は、端末900Uおよび900D間の距離が短くなるにつれ、ヘッドフォン200から放音する楽曲の音圧(音量)を増大させる。これにより、ユーザ902Dは、自身の位置と楽曲が放音される地点との相対的な位置関係が、ユーザ902Dと他のユーザ902Uとの相対的な位置関係と連動するかのような感覚を得ることができる。
【0115】
次いで、図28中の破線で示すように、ユーザ902Uが、端末900Dのユーザ902Dからみて右手方向に遠のくように移動したとする。このようにユーザ902U(端末900U)が移動すると、ユーザ902Uが遠のくにつれ、ヘッドフォン200から放音される楽曲の音圧は左右両耳とも小さくなる。ただし、ユーザ902Dの右耳とユーザ902Uとの距離は、ユーザ902Dの左耳とユーザ902Uとの距離より短いため、右耳に至る音の音圧は、左耳に至る音の音圧よりも高くなる。同様の理由により、Rチャネル信号はLチャネル信号より遅延したものとなる。これにより、ユーザ902Dは、楽曲が放音される地点が右手方向に遠のくことを知覚するとともに、他のユーザ902Uが右手方向に移動するという情報を得ることができる。すなわち、ユーザ902Dは、あらかじめ他のユーザ902Uの位置に対応付けられた音の種類を知っていれば、ヘッドフォン200から放音される音を聞くのみで、他のユーザ902Uのおおよその位置を得ることができる。
【0116】
ここで、音像を定位させる際に、端末900Uの位置の実測値ではなく位置予測部920による予測値を用いる理由について説明する。
例えばサウンドデータ配信サーバ800と端末900Dとのデータ伝送速度が遅い場合や、サウンドデータ配信サーバ800の処理能力が低い場合などにおいては、端末900Dが取得できる他の端末900Uの端末位置情報SP1の単位時間あたりのサンプル数が少なくなる。このように、端末位置情報SP1のサンプル数が少なくなると、時間的に連続する端末位置情報SP1により示される位置が互いに極端に離間してしまうといった事態が生じ得る。このような事態が生じると、定位された音像により、ユーザ902Dに対して、発音地点が瞬間的に離れた地点に移動するかのような違和感を与えるおそれがある。これに対処すべく、本実施形態では、端末900Dにおいて、端末位置情報SP1を取得した後、次の端末位置情報SP1を取得するまでの期間中に、端末900Uの位置を予測に基づいて更新して、更新した位置に応じて音像を定位させている。つまり、予測値により実測値を時系列的に補間して、音像定位に用いられる時間的に連続した端末900Uの位置が極端に離間するという事態を回避しつつ音像を定位させている。これにより、ユーザ902Dに与える違和感を排除することが可能となる。
【0117】
なお、端末900Uの位置を予測する方法は、移動ベクトル量MVを用いた線形の予測方法に限られない。例えば、過去における3以上の時点と、それらの各時点における端末900Uの位置との組をパラメータとする非線形関数により、非線形状の端末900Uの経路を予測しても良い。さらに、道路情報などの地理情報を用いて、ユーザ902Uが移動する周辺の地理状況の影響を取り入れて経路を予測しても良い。これにより、人間が行動可能な範囲を考慮して経路を予測できるため、予測精度を向上させることができる。
もっとも、端末900Dが十分なサンプル数の端末位置情報SP1を取得できる場合であれば、予測値を用いることなく実測値(端末位置情報SP1)のみを用いて音像を定位させても良いのはもちろんである。また、原則的には実測値を用いて音像を定位させる一方で、端末位置情報SP1のサンプル数が少ない場合にのみ選択的に予測値を用いて音像を定位させても良い。
【0118】
本実施形態においては、仮想的に音を出力する地点の位置は、全て端末900の位置に対応づけられていたが、端末900の位置に対応づけられた発音地点と、第1実施形態で説明した位置が固定された発音地点とを混在させる構成としても良い。このような構成とする場合、サウンドデータ配信サーバ800において、位置が移動する発音地点と、移動しない発音地点とに分けて処理を実行することにより、すなわち位置が移動する発音地点に対してのみ移動ベクトル量MVの演算を行うことにより、全体としての処理量を低減させることが可能である。
【0119】
本実施形態においては、端末900Dに配信されるサウンドデータSDは、端末900Uからアップロードされたデータであったがこれに限られない。例えば、サウンドデータ配信サーバ800の記憶部330にあらかじめ複数のサウンドデータSDを記憶させ、そのいずれかを端末900Dに配信しても良い。いずれのサウンドデータSDをいずれの他の端末900Uに対応づけるかは、ユーザ902Uが端末900Uを介して指示しても良いし、ユーザ902Dが端末900Dを介して指示しても良い。これにより、端末900Uからアップロードされる情報からサウンドデータSDを省略することができるので、そのデータ量が大幅に削減される。
【0120】
本実施形態においては、ユーザ902Dおよび902U間の位置関係と、ユーザ902Dの顔の向く方向Aとに応じて音像を定位させたが、さらに以下のような種々の変更を加えることが可能である。例えば、端末900Uと端末900Dとの速度差に応じて音の振動数を変化させることによって、音像にドップラー効果の影響を取り入れても良い。これにより、ユーザ902Dおよび902Uがすれ違う際に、その雰囲気をリアルに表現することができる。
【0121】
また、端末900Dあるいは900Uの位置に応じて、ヘッドフォン200から出力される音にエフェクトをかけても良い。例えば、基地局510が提供するサービスエリアのうち、特定の領域に端末900Dあるいは900Uが位置する場合に、楽曲のテンポや音のコード感などを変化させても良い。かかるサウンドデータ配信システムを実現するには、サウンドデータ配信サーバ800の記憶部330に、サービスエリアを区画した領域ごとに、サウンドデータSDにエフェクトを付与するためのパラメータを記憶させる。そして、サウンドデータSDの配信時において、端末900Dあるいは900Uの位置に応じてパラメータを選択し、パラメータに応じたエフェクトを付与したサウンドデータSDを端末900Dに配信すれば良い。これにより、ユーザ902Dあるいは902Uが、例えば商店街などの特定の領域を通過する場合に、発音地点からの音にエフェクトが付与されるため、アミューズメント性が向上する。
【0122】
さらに、ユーザ902Uの顔を向く方向Aの影響を音像定位に取り入れることも可能である。例えば、ユーザ902Uの位置から仮想的に出力する音について、ユーザ902Uの顔の向く方向Aの指向性を持たせても良い。これにより、ユーザ902Dは、あたかもユーザ902Uの口から音が出力されているかのような感覚を得ることができる。
【0123】
また上述の端末900Dは、音のみにより他の端末900Uとの位置関係をユーザ902Dに示したが、これと並列して、他の手法を用いて端末900Uとの位置関係を示しても良い。例えば、上述した構成に加え、端末900DにLED(Light Emitting Diode)などの表示手段を設け、他の端末900Uとの距離が近い場合ほど、LEDの発光強度を強くして、ユーザ902Dに位置関係を示す構成としても良いし、また、端末900Dに機械的な振動を発生させるバイブレータを内蔵しておき、振動により他の端末900Uとの位置関係を示しても良い。これにより、ユーザ902Dは、聴覚に加え、視覚あるいは触覚によって、他のユーザ902Dの位置を把握することができる。
【0124】
<第1、第2、第3および第4実施形態の変形例>
なお、上述した各実施形態におけるオーディオデータ生成部160は、ユーザの位置および顔の方向と、発音地点の位置とに応じて、オーディオ信号を生成したが、さらに、ユーザが位置する空間の音場(例えば、ビルの壁による音の反射、回折などの効果)を取り入れる構成としても良い。
【0125】
また、上述した各実施形態においては、ヘッドフォン200によってオーディオ信号を音として出力する例を示したが、これに限られない。例えば、自動車の車内に設置された複数のスピーカなどから放音する構成としても良い。このような構成にする場合、オーディオ信号生成部160においては、例えば、自動車の進行方向などにより、ユーザの顔の向きを特定し、特定された顔の向きと、自動車の位置と、各々のスピーカおよび左右の耳の相対的な位置関係とに応じて、各スピーカから出力されるオーディオ信号を生成しても良い。
【0126】
さらに、上述した各実施形態においては、発音地点の音像を定位させるために、2チャネルのオーディオ信号を生成する例を示したが、本発明はこれに限定されない。例えば、5.1チャネルなどの2チャネル以上のオーディオ信号を生成し、スピーカなどの放音装置から放音する構成としても良い。
【0127】
上述した各実施形態においては、発音地点選択処理として、端末100、700および900との距離が近い発音地点から順番に、所定数に達するまで選択する方法(図9参照)を示したが、発音地点を選択する方法はこれに限られない。例えば、端末100との距離が閾値以下である発音地点を、選択数にかかわらず選択する方法など、端末100の位置と発音地点の位置とに応じて、発音地点を選択する方法であれば任意に本発明を適用できる。
なお、テーマパークなどの比較的狭い領域に、サウンドデータ配信システムを適用した場合などにおいて、全ての発音地点についての音像を定位させるときには、発音地点選択処理を省略することが可能である。
【0128】
上述した第1、第2および第4実施形態では、端末100および900の各々において、仮想的な発音地点の音像を定位させたが、サウンドデータ配信サーバ300、610A、610B、610Cおよび800、あるいはコントロールサーバ600において音像を定位させ、その音像を示す信号を端末に配信しても良い。要は、ユーザの位置、および、顔の向いている方向Aを示す情報を取得し、その位置および顔の向いている方向Aと、仮想的な発音地点の位置とに応じて、ユーザからみて、発音地点に予め関連付けられた音が、当該発音地点の位置から出力しているように音像を定位させるならば任意に本発明を適用可能である。
【0129】
また、本発明は、コンピュータを、以上説明した音像を定位させる端末100、700あるいは900として機能させるためのプログラムとしても実行可能である。すなわち、このプログラムは、コンピュータを、ユーザの位置、および、顔の向いている方向を示すユーザ情報を取得する機能と、仮想的な発音地点の位置を示す発音位置情報を取得する機能と、取得したユーザ情報で示される位置であって、取得したユーザ情報で示される方向に顔を向けたユーザからみて、発音地点に予め関連付けられた種類の音が、発音位置情報で示される位置から出力しているように音像を定位させる機能とを実現させるためのプログラムとして特定される。
さらに、本発明は、このプログラムを記録したコンピュータ読みとり可能な記録媒体としても実現可能である。
【0130】
【発明の効果】
以上説明したように本発明によれば、娯楽性の高い音響アミューズメントを提供することを可能にする音像定位装置、音像定位方法、サウンドデータ配信システム、サウンドデータ配信方法およびプログラムが提供される。
【図面の簡単な説明】
【図1】本発明の第1実施形態におけるサウンドデータ配信システムの構成を示す図である。
【図2】同サウンドデータ配信システムに含まれるサウンドデータ配信サーバの構成を示す図である。
【図3】同サウンドデータ配信サーバの記憶部に記憶される情報を示す図である。
【図4】同サウンドデータ配信サーバの記憶部に記憶されるデータ量変換テーブルを示す図である。
【図5】同サウンドデータ配信システムに含まれる端末の構成を示す図である。
【図6】同端末に含まれるオーディオ信号生成部などの構成を示す図である。
【図7】同オーディオ信号生成部による処理を説明するための図である。
【図8】同サウンドデータ配信システムの動作を示すフローチャートである。
【図9】同サウンドデータ配信サーバが実行する発音地点選択処理を示すフローチャートである。
【図10】同サウンドデータ配信サーバが実行するデータ量変換処理を示すフローチャートである。
【図11】同サウンドデータ配信サーバによって選択された発音地点の様子を示す図である。
【図12】同端末が生成するオーディオ信号による音像定位を説明するための図である。
【図13】同音像定位を説明するための図である。
【図14】同音像定位を説明するための図である。
【図15】本発明の第2実施形態におけるサウンドデータ配信システムの構成を示す図である。
【図16】同サウンドデータ配信システムに含まれるサウンドデータ配信サーバに記憶される情報を示す図である。
【図17】同サウンドデータ配信サーバに記憶される情報を示す図である。
【図18】同サウンドデータ配信システムに含まれるコントロールサーバに記憶される情報を示す図である。
【図19】同サウンドデータ配信システムの動作を示すフローチャートである。
【図20】本発明の第3実施形態における端末の構成を示す図である。
【図21】本発明の第4実施形態におけるサウンドデータ配信サーバの構成を示す図である。
【図22】端末の移動経路の予測方法を説明するための図である。
【図23】同実施形態におけるサウンドデータ配信サーバに記憶される情報を示す図である。
【図24】同実施形態における端末の構成を示す図である。
【図25】同実施形態におけるサウンドデータ配信システムの動作を示すフローチャートである。
【図26】同動作を説明するための図である。
【図27】同動作における音像定位を説明するための図である。
【図28】同動作における音像定位を説明するための図である。
【符号の説明】
100,700,900…端末、110,710…制御部、120…指示入力部、130…無線通信部、140…測位部、145…衛星電波受信部、150…方位検出部、160…オーディオ信号生成部、170…加工部、172…パラメータ生成部、173…ディレイパラメータ生成部、174…アンプパラメータ生成部、176…遅延部、178…アンプ、180…混合部、190…オーディオ信号出力部、200…ヘッドフォン、210…方位センサ、220,230…放音部、300,610A,610B,610C,800…サウンドデータ配信サーバ、310…制御部、320…通信部、330…記憶部、400…衛星群、500…移動通信網、510…基地局、600…コントロールサーバ、720…発音情報記憶部。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a sound image localization device for localizing a sound image, a sound image localization method and a program, and a sound data distribution system and a sound data distribution method for distributing sound data representing sound.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known an audio distribution system in which audio data such as music distributed in a stream via a wireless communication network is received by a mobile terminal and output as sound from headphones or the like connected to the mobile terminal (for example, Patent Document 1). According to such an audio distribution system, the user can easily enjoy music even when going out.
[0003]
[Patent Document 1]
JP-A-9-181510 (FIG. 3)
[0004]
[Problems to be solved by the invention]
However, in the conventional audio distribution system, even though the distributed audio data can be faithfully reproduced on the mobile terminal, it is necessary to provide the user with entertainment such as participating in the generation of the audio data. Could not.
[0005]
The present invention has been made in view of the circumstances described above, and has as its object to provide a sound image localization device, a sound image localization method, a sound data distribution system, and a sound that can provide a highly entertaining acoustic amusement. A data distribution method and a program are provided.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, a sound image localization device according to the present invention includes a user position, a user information acquisition unit that acquires user information indicating a direction in which a face is facing, and a position of a virtual sounding point. Sounding position information obtaining means for obtaining sounding position information indicated by the user, and a position indicated by the obtained user information, which is previously associated with the sounding point as viewed from the user who turned his / her face in the direction indicated by the obtained user information. And a localization means for localizing the sound image so that different types of sounds are output from the position indicated by the sounding position information.
According to the above configuration, when the user is located at a certain point and turns his / her face in a certain direction, a sound of a type previously associated with the virtual sounding point is output from the sounding point. Since the localization is performed, it is possible to give the user a feeling as if the user is in the space where the sounding point is arranged.
[0007]
Here, the sounding position information obtaining means obtains, as the sounding position information, moving body position information indicating a position of the moving object associated with the sounding point, and the localization means obtains the moving body obtained. It is preferable that the sound image is localized so that the sound is output from the position of the moving body indicated by the position information.
According to this configuration, the user can perceive the approximate positional relationship with the moving object by the sound image.
[0008]
In another preferred aspect, the apparatus further includes a receiving unit that receives sound data indicating a type of sound previously associated with the sounding point, and the localization unit includes a sound source indicated by the sound data received by the receiving unit. Localize the sound image. As described above, by acquiring sound data via the receiving means, it is not necessary to provide a special storage device for storing sound data in a nonvolatile manner in the sound image localization apparatus. Furthermore, since the sound data can be collectively managed by the distribution device that distributes the sound data to the sound image localization device, the update of the sound data and the like can be easily performed.
The present invention can be realized as a sound image localization method and a program in addition to the above sound image localization device, and can achieve the same effects as the above sound image localization device.
[0009]
Also, the present invention provides a sound data distribution device that distributes sound data representing a type of sound previously associated with a virtual sound generation point, and receives sound data distributed from the sound data distribution device, and receives the received sound. Using the data, the sound image is localized such that the sound of the type previously associated with the sounding point is output from the position of the sounding point, as viewed from the user who is located at a certain point and faces in a certain direction. A sound data distribution system, comprising:
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0011]
<Schematic configuration of sound data distribution system>
First, a schematic configuration of a sound data distribution system according to the present embodiment will be described with reference to FIG. In this figure, a
[0012]
On the other hand, the
[0013]
The
[0014]
The
Although FIG. 2 illustrates two sets of the
[0015]
<Structure of sound data distribution server>
FIG. 2 is a block diagram showing a configuration of the sound
[0016]
The
[0017]
FIG. 3 is a diagram showing a part of information stored in the
[0018]
The sound data is data representing a sound assumed to be emitted from a sounding point, and is data sampled at a predetermined frequency (for example, 44.1 kHz). The sound data may be any data as long as the data represents a sound such as a musical piece, a musical sound, or a voice. In the present embodiment, the sound data include “shopping march (song)” and “taiko sound (musical sound)”. )), "Dog cry (voice)", "chime (electronic sound)" and the like. The sound
[0019]
Further, the
[0020]
<Configuration of terminal>
FIG. 5 is a block diagram showing a configuration of
Here, the terminal 100 is used by being carried by the user. Therefore, the position of
[0021]
The
[0022]
The
[0023]
The
[0024]
The audio
[0025]
Next, a detailed configuration of the audio
[0026]
Here, prior to the detailed description of the
[0027]
Therefore, each
[0028]
As shown in FIG. 7, the center position P (X P , Y P , Z P ) And the face direction A of the user indicated by the azimuth information, and given that the distance between the left ear and the right ear is e, the position L (X L , Y L , Z L ) Is the center position P (X P , Y P , Z P ), And is specified by a position on the left side by a distance of e / 2 in the horizontal direction and perpendicular to the direction A, and the right ear position R (X R , Y R , Z R ) Is the center position P (X P , Y P , Z P ) Is specified by a position on the right side by a distance of e / 2 in the horizontal direction and perpendicular to the direction A. Here, the pronunciation point S (X S , Y S , Z S ) And the user (center position P) are sufficiently separated, and the sound arrives at the user's ear as a plane wave. It is also assumed that the sounding point S is located to the front right as viewed from the user, and at this time, the angle between the direction A in which the user's face is facing and the direction of the sounding point S as viewed from the user is θ. At this time, when the sound is output from the sound generation point S, the time difference (delay time) Δt at which the sound generated between the right ear and the left ear reaches is calculated by using the distance difference d of the reaching path and the sound speed c.
[0029]
(Equation 1)
[0030]
Is expressed as Here, since d = e · sin θ holds, the delay time Δt becomes
[0031]
(Equation 2)
[0032]
It becomes.
Further, the distance from the pronunciation point S to each of the left and right ears of the user is represented by D L , D R Where t is the time and f is the wave equation of the spherical wave, the sound pressure P generated at the left ear L And the sound pressure P generated in the right ear R Can be represented as follows:
That is,
[0033]
[Equation 3]
[0034]
(Equation 4)
[0035]
Can be expressed as
The
[0036]
The description is returned to FIG. Each
[0037]
On the other hand, the amplifier
The distance e between the left and right ears of the user input to the
[0038]
The delay unit 176 generates an L channel signal SL1 for the left ear and an R channel signal SR1 for the right ear from the sound data input via the
[0039]
The
[0040]
The
Note that, although confirmative, the processing by the audio
[0041]
<Operation of sound data distribution system>
Next, the operation of the sound data distribution system will be described with reference to FIG. This operation is a process of distributing sound data from the sound
[0042]
First, in step SA1, the
Upon receiving the terminal location information SP from the terminal 100, the
[0043]
Upon receiving the terminal position information SP transferred from the
[0044]
First, in step SA51, the
[0045]
Next, in Step SA53, the
[0046]
On the other hand, if the determination result in step SA54 is affirmative, the
[0047]
In FIG. 8 again, when the sound generation point selection process (step SA5) is completed, the
[0048]
First, in step SA61, the
[0049]
Next, in step SA63, the
In general, when the sampling frequency of an audio signal decreases, the sound quality when the audio signal is emitted deteriorates. However, in the present embodiment, the sound data delivered to the terminal 100 is processed by the processing unit of the terminal 100. By 170, the sound data at the sounding point located farther from the terminal 100 is processed so as to have a lower volume. For this reason, even if the sampling frequency of the sound data at the sounding point located far from the terminal 100 is reduced, the sound quality when the audio signal generated in the terminal 100 is emitted has almost no effect. In other words, according to the data amount conversion processing, the data amount of the sound data can be reduced without unduly deteriorating the sound quality, and the network traffic due to the distribution of the sound data and the load on the sound
[0050]
In FIG. 8 again, when the data amount conversion process (step SA6) is completed, the
When receiving the sound data SD1, SD2, SD3, and SD4 transmitted from the sound
[0051]
On the other hand, when the
[0052]
For example, as shown in FIG. 12, the positions of the sounding points S1, S2, S3, and S4 are set, and the position of the terminal 100 (user) is turned by the terminal position information SP, and the user's face is turned by the azimuth information. Assume that direction A is given. At this time, the distance from the user to each sounding point S1, S2, S3, S4 is assumed to be longer in this order for both the left and right ears. At this time, the sound pressure (volume) of the sound data at each sounding point output from the
[0053]
Next, as shown in FIG. 13, it is assumed that the user has turned to the direction of the sound generation point S4. At this time, since the direction A in which the user's face turns is updated by the
[0054]
Next, as shown in FIG. 14, the user approaches the sounding point S4, and the distance from the user to each sounding point S1, S2, S3, S4 is the sounding point S4, the sounding point S2, the sounding point S3, the sounding point. It is assumed that the user moves to a position farther in the order of S1. When the user moves in this way, the sound pressure (volume) of the sound data at the sounding point S1 decreases because the user moves away from the sounding point S1, and the sound pressure of the sound data at the sounding point S4 increases because the sound data approaches the sounding point S4. Become. Thereby, the user perceives that he has left the sounding point S1 and has approached the sounding point S4.
[0055]
As described above, according to the present embodiment, it is as if from the position indicated by the sounding position information, the user is sounding according to the position of the user, the direction in which the user faces, and the position of the sounding point. Is generated. Thereby, the user can obtain a feeling as if each of the sounding points actually exist at the specified position. For example, when each part of an orchestra is arranged as a sounding point in a certain area, if the user moves in the area, the user gets a feeling as if moving in the space where each part is arranged. It is possible for the user to participate in the generation of audio data, and to provide a varied and enjoyable sound amusement.
[0056]
Further, in the present embodiment, since the sound image of the sounding point is localized, when applied to a voice information system in which the position of the target of the user is indicated by voice, if the target is located on the right side, “rightward, Turn right before the gas station. "Sounds as if it were output from the right side. This makes it possible to more intuitively provide information on the direction to the user as compared with a conventional voice information system that does not consider a sound image, and improves the efficiency of voice instructions.
Furthermore, the sound data distribution system can be used as a guide for the visually impaired. For example, it is also possible to arrange a sounding point for outputting a sound representing each of them at a ticket vending machine, a station staff room, a ticket gate, or the like at a station. According to such a configuration, the position can be guided by voice in a manner similar to the case of seeing with the eyes, so that the user can voluntarily approach the target.
[0057]
In addition, the sounding point may be arranged at a store or the like, and a sound indicating an advertisement of the store may be output. This makes it sound as if the sound was output from the store, so that the user can easily find a store located in an invisible place such as the second floor of a building. On the other hand, in a store, an advertising effect can be expected, and business will be activated. In addition, an advertisement that affects hearing is converted from an actual sound such as a call to an advertisement at a virtual sounding point, thereby reducing noise in the city.
[0058]
<Modification of First Embodiment>
In the first embodiment described above, an example has been described in which the data amount of the sound data is reduced in the data amount conversion process in order to reduce the network traffic due to the distribution of the sound data and the load on the sound data distribution server. However, when these do not cause a problem, the data amount conversion processing can be omitted.
[0059]
<Second embodiment>
<Sound data distribution system configuration>
In the first embodiment described above, the sound data distribution system that distributes sound data from one sound
In the configuration of the sound data distribution system according to the second embodiment, the same reference numerals are given to components common to the system according to the first embodiment.
[0060]
FIG. 15 is a diagram illustrating a schematic configuration of a sound data distribution system according to the second embodiment. As shown in this figure, roughly two types of server devices are connected to the
For convenience of explanation, in the second embodiment, the sound
[0061]
First, the configuration of the sound
[0062]
FIG. 16 is a diagram showing the main information stored in the storage unit of sound
[0063]
Next, the configuration of the
[0064]
FIG. 18 is a diagram illustrating main information stored in the storage unit of the
[0065]
<Operation of sound data distribution system>
The operation of the sound data distribution system according to the second embodiment will be described with reference to FIG. This operation is a process in which sound data corresponding to a sound generation point selected by the
[0066]
First, in step SB1, the
[0067]
Next, in Step SB3, the
[0068]
Upon receiving the terminal position information SP, the control unit of the
[0069]
Next, the control unit of the
When receiving each server ID_SID from the
[0070]
Upon receiving the server ID_SID transferred by the
[0071]
Upon receiving distribution requests DRA and DRB from
[0072]
Upon receiving the distribution request DRA from the
[0073]
On the other hand, when receiving the distribution request DRB from the
[0074]
Note that, similarly to the first embodiment, before transmitting the sound data SDA and SDB, the sound
[0075]
The
[0076]
As described above, in the second embodiment, under the control of the
[0077]
In the second embodiment, sound data is distributed from a plurality of sound
[0078]
<Modifications of First and Second Embodiments>
In the above-described first and second embodiments, an example has been described in which the terminal position information SP is generated in the terminal 100 by the GNSS, but the present invention is not limited to this. For example, the sound
[0079]
Further, in the first and second embodiments described above, the terminal 100 including the
[0080]
In the above-described first and second embodiments, an example has been described in which sound data is distributed in a stream format. However, a storage unit for storing sound data is provided in the terminal 100, and audio data is stored in the storage unit using audio data cached in the storage unit. A configuration for generating a signal may be adopted.
[0081]
In addition, in the above-described first and second embodiments, the sound
[0082]
<Third embodiment>
In the first and second embodiments described above, the terminal 100 that receives sound data from the sound
[0083]
FIG. 20 is a diagram illustrating a configuration of a terminal according to the third embodiment. In this figure, the same components as those of the terminal 100 in the first embodiment are denoted by the same reference numerals.
The characteristic of the configuration of the terminal 700 in the third embodiment is a pronunciation
[0084]
More specifically, first, the
[0085]
As described above, in the third embodiment, an audio signal is generated based on the sound data read from the pronunciation
[0086]
Note that the pronunciation
[0087]
Further, in the first, second and third embodiments described above, the example in which the position of the sounding point is fixed has been described, but the position of the sounding point may be changed in a time-series manner. With such a configuration, for example, a sound that is assumed to be output from a moving body such as a jet machine can be virtually generated. Thus, the sound image output from the
[0088]
In addition, in each of the above-described embodiments, an example has been described in which each of the sounding position information and the terminal position information SP is defined by a three-dimensional position.
[0089]
<Fourth embodiment>
In each of the embodiments described above, the sound data distribution system for localizing the sound image at the sounding point whose position is fixed has been described. On the other hand, in the fourth embodiment, the position of the sound generation point is associated with the position of the terminal carried by the user, and the sound is output to the user as if the sound was output from the position of another moving user. A sound data distribution system for localizing a sound image will be described. In the configuration of the sound data distribution system according to this embodiment, the same reference numerals are given to components common to the system according to the first embodiment.
[0090]
<Structure of sound data distribution server>
The above-described sound
[0091]
FIG. 21 is a diagram showing a configuration of the sound
[0092]
(Equation 5)
[0093]
Is calculated. The movement vector amount MV is used in the terminal 900 to predict the movement route of another terminal 900, as described later.
FIG. 23 is a diagram illustrating information stored in the
[0094]
The terminal location information SP is information indicating the location of the terminal 900 corresponding to the terminal ID. For one terminal ID, the location information at two time points, the information in the “T-1 period” and the information in the “T period”, included. Here, the “T-1 period” corresponds to a point in the past from the “T period” by the unit time “ut” described above.
[0095]
The terminal location information SP is updated every time the unit time “ut” elapses while the terminal 900 is in the service area of the
[0096]
The movement vector amount MV is information generated by the movement vector
[0097]
The sound data is data uploaded from the terminal 900 corresponding to the terminal ID, and is distributed from the sound
The set of the terminal ID, the terminal position information SP, the movement vector amount MV, and the sound data described above is stored in the
[0098]
<Configuration of terminal>
The terminal 900 uploads sound data indicating sound virtually output from the position of the own device and terminal position information SP indicating the position of the own device to the sound
[0099]
FIG. 24 is a block diagram showing a configuration of
The
[0100]
The
[0101]
(Equation 6)
[0102]
Here, et indicates the elapsed time from “T period”.
The description returns to FIG. The audio
[0103]
<Operation of sound data distribution system>
Next, the operation of the sound data distribution system will be described with reference to FIG. This operation is an operation in which the terminal 900 localizes the sound image as if the music was output from the position of another terminal 900. In the sound data distribution system, each of the plurality of
[0104]
First, when terminal 900U enters a service area under the control of any of
[0105]
On the other hand, after transmitting sound data SD and terminal ID to base station 510 (step SC1),
[0106]
When receiving the terminal location information SP1 and the terminal ID_MI from the terminal 900U via the
[0107]
Next, in step SC9, the
[0108]
Here, the description shifts to the operation of terminal 900D that downloads sound data SD from sound
When
[0109]
Upon receiving terminal position information SP2 and terminal ID_MI transferred from
[0110]
When the
Upon receiving the terminal ID_MI, the terminal position information SP1 in the “T period”, the movement vector amount MV, and the sound data SD, the
[0111]
On the other hand,
In the sound data distribution system, the sound data SD distributed from the sound
[0112]
Hereinafter, the process in which terminal 900D localizes the sound image in step SC18 will be described in detail. First, the
[0113]
For example, as shown by a solid line in FIG. 27, it is assumed that the
[0114]
Next, as shown by a dashed line in the figure, when each
[0115]
Next, as shown by a broken line in FIG. 28, it is assumed that the
[0116]
Here, the reason for using the predicted value by the
For example, when the data transmission speed between the sound
[0117]
Note that the method of predicting the position of the terminal 900U is not limited to a linear prediction method using the movement vector amount MV. For example, the path of the non-linear terminal 900U may be predicted by a non-linear function using a set of three or more time points in the past and the position of the terminal 900U at each of those time points as parameters. Further, the route may be predicted using geographic information such as road information and incorporating the influence of the geographical situation around the
However, if the terminal 900D can acquire the terminal position information SP1 of a sufficient number of samples, the sound image may be localized using only the actual measurement value (terminal position information SP1) without using the predicted value. It is. In addition, while the sound image is localized using the actually measured values in principle, the sound image may be selectively localized using the predicted value only when the number of samples of the terminal position information SP1 is small.
[0118]
In the present embodiment, the positions of the virtual sound output points are all associated with the position of the terminal 900. However, the sound output points associated with the positions of the terminal 900 will be described in the first embodiment. It is good also as composition which mixes the sounding point where the position where it did is fixed. In the case of such a configuration, the sound
[0119]
In the present embodiment, the sound data SD delivered to the terminal 900D is data uploaded from the terminal 900U, but is not limited to this. For example, a plurality of sound data SD may be stored in the
[0120]
In the present embodiment, the sound image is localized according to the positional relationship between the
[0121]
Further, an effect may be applied to the sound output from the
[0122]
Further, it is also possible to incorporate the influence of the direction A facing the
[0123]
Although the above-mentioned terminal 900D has shown the positional relationship with
[0124]
<Modifications of First, Second, Third and Fourth Embodiments>
Note that the audio
[0125]
Further, in each of the embodiments described above, an example in which the audio signal is output as sound by the
[0126]
Furthermore, in each of the above-described embodiments, an example has been described in which a two-channel audio signal is generated in order to localize a sound image at a sound generation point, but the present invention is not limited to this. For example, a configuration may be employed in which audio signals of two or more channels such as 5.1 channels are generated and emitted from a sound emitting device such as a speaker.
[0127]
In each of the above-described embodiments, as the sounding point selection process, a method of sequentially selecting sounding points that are closer to the
Note that, when the sound image distribution system is applied to a relatively small area such as a theme park or the like, and the sound images at all the sounding points are localized, the sounding point selection processing can be omitted.
[0128]
In the first, second, and fourth embodiments described above, the sound image of the virtual sounding point is localized in each of the
[0129]
The present invention can also be executed as a program for causing a computer to function as the terminal 100, 700, or 900 for localizing a sound image described above. In other words, this program provides a computer with a function of acquiring user information indicating the position of the user and the direction in which the face is facing, a function of acquiring sounding position information indicating the position of a virtual sounding point, From the position indicated by the user information, the type of sound previously associated with the sounding point is output from the position indicated by the sounding position information, as viewed from the user who turned his / her face in the direction indicated by the acquired user information. As described above, it is specified as a program for realizing the function of localizing a sound image.
Further, the present invention can be realized as a computer-readable recording medium on which the program is recorded.
[0130]
【The invention's effect】
As described above, according to the present invention, a sound image localization apparatus, a sound image localization method, a sound data distribution system, a sound data distribution method, and a program that can provide amusement with high amusement are provided.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a sound data distribution system according to a first embodiment of the present invention.
FIG. 2 is a diagram showing a configuration of a sound data distribution server included in the sound data distribution system.
FIG. 3 is a diagram showing information stored in a storage unit of the sound data distribution server.
FIG. 4 is a diagram showing a data amount conversion table stored in a storage unit of the sound data distribution server.
FIG. 5 is a diagram showing a configuration of a terminal included in the sound data distribution system.
FIG. 6 is a diagram illustrating a configuration of an audio signal generation unit and the like included in the terminal.
FIG. 7 is a diagram for explaining processing by the audio signal generation unit.
FIG. 8 is a flowchart showing the operation of the sound data distribution system.
FIG. 9 is a flowchart showing a sounding point selection process executed by the sound data distribution server.
FIG. 10 is a flowchart showing a data amount conversion process executed by the sound data distribution server.
FIG. 11 is a diagram showing a state of a sounding point selected by the sound data distribution server.
FIG. 12 is a diagram for describing sound image localization by an audio signal generated by the terminal.
FIG. 13 is a diagram for explaining the same sound image localization.
FIG. 14 is a diagram for explaining the same sound image localization.
FIG. 15 is a diagram illustrating a configuration of a sound data distribution system according to a second embodiment of the present invention.
FIG. 16 is a diagram showing information stored in a sound data distribution server included in the sound data distribution system.
FIG. 17 is a diagram showing information stored in the sound data distribution server.
FIG. 18 is a diagram showing information stored in a control server included in the sound data distribution system.
FIG. 19 is a flowchart showing the operation of the sound data distribution system.
FIG. 20 is a diagram illustrating a configuration of a terminal according to the third embodiment of the present invention.
FIG. 21 is a diagram illustrating a configuration of a sound data distribution server according to a fourth embodiment of the present invention.
FIG. 22 is a diagram for explaining a method of estimating a movement route of a terminal.
FIG. 23 is a diagram showing information stored in the sound data distribution server in the embodiment.
FIG. 24 is a diagram showing a configuration of a terminal in the embodiment.
FIG. 25 is a flowchart showing the operation of the sound data distribution system in the embodiment.
FIG. 26 is a diagram for explaining the operation.
FIG. 27 is a diagram for describing sound image localization in the same operation.
FIG. 28 is a diagram for describing sound image localization in the same operation.
[Explanation of symbols]
100, 700, 900 terminal, 110, 710 control unit, 120 instruction input unit, 130 wireless communication unit, 140 positioning unit, 145 satellite radio wave reception unit, 150 azimuth detection unit, 160 audio signal generation Unit, 170 processing unit, 172 parameter generation unit, 173 delay parameter generation unit, 174 amplifier parameter generation unit, 176 delay unit, 178 amplifier, 180 mixing unit, 190 audio signal output unit, 200 Headphones, 210: Direction sensor, 220, 230: Sound emitting unit, 300, 610A, 610B, 610C, 800: Sound data distribution server, 310: Control unit, 320: Communication unit, 330: Storage unit, 400: Satellite group, 500: mobile communication network, 510: base station, 600: control server, 720: pronunciation information storage unit.
Claims (7)
仮想的な発音地点の位置を示す発音位置情報を取得する発音位置情報取得手段と、
取得したユーザ情報で示される位置であって、取得したユーザ情報で示される方向に顔を向けたユーザからみて、前記発音地点に予め関連付けられた種類の音が、前記発音位置情報で示される位置から出力しているように音像を定位させる定位手段と、
を具備することを特徴とする音像定位装置。User information acquisition means for acquiring user information indicating the position of the user, and the direction in which the face is facing,
Sounding position information obtaining means for obtaining sounding position information indicating a position of a virtual sounding point,
A position indicated by the acquired user information, wherein the sound of the type previously associated with the sounding point is viewed from the user who turned his / her face in the direction indicated by the obtained user information, and the position indicated by the sounding position information Localization means for localizing the sound image as if it were output from
A sound image localization device comprising:
前記定位手段は、取得された前記移動体位置情報により示される前記移動体の位置から前記音が出力しているように音像を定位させる
ことを特徴とする請求項1に記載の音像定位装置。The sounding position information obtaining means obtains, as the sounding position information, moving object position information indicating a position of a moving object associated with the sounding point,
2. The sound image localization apparatus according to claim 1, wherein the localization unit localizes the sound image such that the sound is output from a position of the moving body indicated by the obtained moving body position information. 3.
前記定位手段は、前記受信手段によって受信されたサウンドデータにより示される音の音像を定位させる
ことを特徴とする請求項1あるいは2に記載の音像定位装置。A receiving unit that receives sound data indicating a type of sound previously associated with the sounding point,
The sound image localization apparatus according to claim 1, wherein the localization unit localizes a sound image of a sound indicated by the sound data received by the reception unit.
仮想的な発音地点の位置を示す発音位置情報を取得し、
取得したユーザ情報で示される位置であって、取得したユーザ情報で示される方向に顔を向けたユーザからみて、前記発音地点に予め関連付けられた種類の音が、前記発音位置情報で示される位置から出力しているように音像を定位させることを特徴とする音像定位方法。Acquire user information indicating the position of the user and the direction in which the face is facing,
Acquires pronunciation position information indicating the position of a virtual pronunciation point,
A position indicated by the acquired user information, wherein a sound of the type previously associated with the sounding point is viewed from the user who turned his / her face in the direction indicated by the acquired user information, and the position indicated by the sounding position information A sound image localization method characterized by localizing a sound image as if it were being output from a computer.
前記サウンドデータ配信装置から配信されたサウンドデータを受信し、受信したサウンドデータを用いて、ある地点に位置し、ある方向に顔を向けたユーザからみて、前記発音地点に予め関連付けられた種類の音が、当該発音地点の位置から出力しているように音像を定位させる端末と
を具備することを特徴とするサウンドデータ配信システム。A sound data distribution device that distributes sound data representing a type of sound previously associated with a virtual pronunciation point;
Receiving the sound data distributed from the sound data distribution device, using the received sound data, located at a certain point, as seen from a user who turned his face in a certain direction, a type of type that is previously associated with the sounding point A sound data distribution system comprising: a terminal for localizing a sound image so that sound is output from the position of the sounding point.
ある地点に位置し、ある方向に顔を向けるユーザからみて、発音地点の位置から当該発音地点に予め関連付けられた種類の音が出力しているように音像を定位させる端末に対して、複数の発音地点の各々に対応する複数のサウンドデータのうち、ユーザの位置と、各々の発音地点の位置とに応じて選択されたサウンドデータを配信する
ことを特徴とするサウンドデータ配信方法。A sound data distribution device that distributes sound data representing a type of sound previously associated with a virtual pronunciation point,
For a terminal that is located at a certain point and sees from a user who turns his / her face in a certain direction, a terminal that localizes a sound image so that a sound of a type previously associated with the sounding point is output from the position of the sounding point. A sound data distribution method characterized by distributing sound data selected according to a position of a user and a position of each sounding point among a plurality of sound data corresponding to each sounding point.
ユーザの位置、および、顔の向いている方向を示すユーザ情報を取得するユーザ情報取得手段と、
仮想的な発音地点の位置を示す発音位置情報を取得する発音位置情報取得手段と、
取得したユーザ情報で示される位置であって、取得したユーザ情報で示される方向に顔を向けたユーザからみて、前記発音地点に予め関連付けられた種類の音が、前記発音位置情報で示される位置から出力しているように音像を定位させる定位手段と、
として機能させることを特徴とするプログラム。Computer
User information acquisition means for acquiring user information indicating the position of the user, and the direction in which the face is facing,
Sounding position information obtaining means for obtaining sounding position information indicating a position of a virtual sounding point,
A position indicated by the acquired user information, wherein the sound of the type previously associated with the sounding point is viewed from the user who turned his / her face in the direction indicated by the obtained user information, and the position indicated by the sounding position information Localization means for localizing the sound image as if it were output from
A program characterized by functioning as a program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003051877A JP3982431B2 (en) | 2002-08-27 | 2003-02-27 | Sound data distribution system and sound data distribution apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002246432 | 2002-08-27 | ||
JP2003051877A JP3982431B2 (en) | 2002-08-27 | 2003-02-27 | Sound data distribution system and sound data distribution apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007101979A Division JP4438816B2 (en) | 2002-08-27 | 2007-04-09 | Sound data distribution system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004147283A true JP2004147283A (en) | 2004-05-20 |
JP3982431B2 JP3982431B2 (en) | 2007-09-26 |
Family
ID=32472685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003051877A Expired - Fee Related JP3982431B2 (en) | 2002-08-27 | 2003-02-27 | Sound data distribution system and sound data distribution apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3982431B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2007040068A1 (en) * | 2005-09-30 | 2009-04-16 | パイオニア株式会社 | Music playback apparatus and music playback method |
JP2010122369A (en) * | 2008-11-18 | 2010-06-03 | Advanced Telecommunication Research Institute International | Voice reproduction device |
CN101298988B (en) * | 2007-05-01 | 2012-01-11 | 索尼株式会社 | Information processing system, portable information terminal, information providing apparatus and control method |
JP2014039140A (en) * | 2012-08-15 | 2014-02-27 | Fujitsu Ltd | Estimation program, estimation device and estimation method |
CN104205880A (en) * | 2012-03-29 | 2014-12-10 | 英特尔公司 | Audio control based on orientation |
CN104869524A (en) * | 2014-02-26 | 2015-08-26 | 腾讯科技(深圳)有限公司 | Processing method and device for sound in three-dimensional virtual scene |
WO2022070319A1 (en) * | 2020-09-30 | 2022-04-07 | 日本電気株式会社 | Information processing device, control method, non-transitory computer-readable medium, and information processing system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08107600A (en) * | 1994-10-04 | 1996-04-23 | Yamaha Corp | Sound image localization device |
JPH1023600A (en) * | 1996-07-01 | 1998-01-23 | Yamaha Corp | Sound image localization device |
JPH10319950A (en) * | 1997-05-22 | 1998-12-04 | Yamaha Corp | Data transmitting and receiving method and system |
JP2001042866A (en) * | 1999-05-21 | 2001-02-16 | Yamaha Corp | Contents provision method via network and system therefor |
JP2001157300A (en) * | 1999-11-24 | 2001-06-08 | Keio Gijuku | Mobile body virtual acoustic space generating device |
JP2001251698A (en) * | 2000-03-07 | 2001-09-14 | Canon Inc | Sound processing system, its control method and storage medium |
JP2002148070A (en) * | 2000-11-14 | 2002-05-22 | Yamaha Motor Co Ltd | Location guiding system, advertising system, speech data registering terminal, location guiding terminal, and storing medium |
-
2003
- 2003-02-27 JP JP2003051877A patent/JP3982431B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08107600A (en) * | 1994-10-04 | 1996-04-23 | Yamaha Corp | Sound image localization device |
JPH1023600A (en) * | 1996-07-01 | 1998-01-23 | Yamaha Corp | Sound image localization device |
JPH10319950A (en) * | 1997-05-22 | 1998-12-04 | Yamaha Corp | Data transmitting and receiving method and system |
JP2001042866A (en) * | 1999-05-21 | 2001-02-16 | Yamaha Corp | Contents provision method via network and system therefor |
JP2001157300A (en) * | 1999-11-24 | 2001-06-08 | Keio Gijuku | Mobile body virtual acoustic space generating device |
JP2001251698A (en) * | 2000-03-07 | 2001-09-14 | Canon Inc | Sound processing system, its control method and storage medium |
JP2002148070A (en) * | 2000-11-14 | 2002-05-22 | Yamaha Motor Co Ltd | Location guiding system, advertising system, speech data registering terminal, location guiding terminal, and storing medium |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2007040068A1 (en) * | 2005-09-30 | 2009-04-16 | パイオニア株式会社 | Music playback apparatus and music playback method |
JP4658133B2 (en) * | 2005-09-30 | 2011-03-23 | パイオニア株式会社 | Music playback apparatus and music playback method |
CN101298988B (en) * | 2007-05-01 | 2012-01-11 | 索尼株式会社 | Information processing system, portable information terminal, information providing apparatus and control method |
US8204785B2 (en) | 2007-05-01 | 2012-06-19 | Sony Corporation | Information processing system, portable information terminal and its control method, information providing device and its control method, and program |
JP2010122369A (en) * | 2008-11-18 | 2010-06-03 | Advanced Telecommunication Research Institute International | Voice reproduction device |
CN104205880A (en) * | 2012-03-29 | 2014-12-10 | 英特尔公司 | Audio control based on orientation |
JP2014039140A (en) * | 2012-08-15 | 2014-02-27 | Fujitsu Ltd | Estimation program, estimation device and estimation method |
CN104869524A (en) * | 2014-02-26 | 2015-08-26 | 腾讯科技(深圳)有限公司 | Processing method and device for sound in three-dimensional virtual scene |
US9826331B2 (en) | 2014-02-26 | 2017-11-21 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for sound processing in three-dimensional virtual scene |
CN104869524B (en) * | 2014-02-26 | 2018-02-16 | 腾讯科技(深圳)有限公司 | Sound processing method and device in three-dimensional virtual scene |
WO2022070319A1 (en) * | 2020-09-30 | 2022-04-07 | 日本電気株式会社 | Information processing device, control method, non-transitory computer-readable medium, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP3982431B2 (en) | 2007-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4438816B2 (en) | Sound data distribution system | |
US20150326963A1 (en) | Real-time Control Of An Acoustic Environment | |
US20140107916A1 (en) | Navigation system with a hearing device | |
EP2725818A1 (en) | A hearing device with a distance measurement unit | |
EP2669634A1 (en) | A personal navigation system with a hearing device | |
KR101011543B1 (en) | Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system | |
US10795639B2 (en) | Signal processing device and signal processing method | |
EP2736276A1 (en) | Personal communications unit for observing from a point of view and team communications system comprising multiple personal communications units for observing from a point of view | |
WO2006075606A1 (en) | Audio guide device, audio guide method, and audio guide program | |
US10451719B2 (en) | System and method to indicate relative location of nodes in a group | |
WO2008128563A1 (en) | Hearing system and method for operating the same | |
US11322129B2 (en) | Sound reproducing apparatus, sound reproducing method, and sound reproducing system | |
JP3982431B2 (en) | Sound data distribution system and sound data distribution apparatus | |
JP3548678B2 (en) | Audio playback device and audio playback system | |
JP4529528B2 (en) | Sound localization terminal | |
Villegas et al. | GABRIEL: Geo-Aware Broadcasting For In-Vehicle Entertainment And Localizability | |
JP6668634B2 (en) | Terminal device, method of operating terminal device, and program | |
CN114765726A (en) | Output control device, output control system, and control method | |
JP2002526976A (en) | Information system | |
JP6701756B2 (en) | INFORMATION PROVIDING SYSTEM, INFORMATION PROVIDING DEVICE, AND INFORMATION PROVIDING METHOD | |
WO2022113394A1 (en) | Live data delivering method, live data delivering system, live data delivering device, live data reproducing device, and live data reproducing method | |
JP2022125539A (en) | Audio output device and audio output method | |
US11641459B2 (en) | Viewing system, distribution apparatus, viewing apparatus, and recording medium | |
CN112889298B (en) | Information providing method, information providing system, and recording medium | |
JP6866947B2 (en) | Information provision system and information provision method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061114 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070625 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110713 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110713 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120713 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130713 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |