JP2005311974A - 音像定位端末 - Google Patents

音像定位端末 Download PDF

Info

Publication number
JP2005311974A
JP2005311974A JP2004129970A JP2004129970A JP2005311974A JP 2005311974 A JP2005311974 A JP 2005311974A JP 2004129970 A JP2004129970 A JP 2004129970A JP 2004129970 A JP2004129970 A JP 2004129970A JP 2005311974 A JP2005311974 A JP 2005311974A
Authority
JP
Japan
Prior art keywords
terminal
sound
sound data
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004129970A
Other languages
English (en)
Other versions
JP4529528B2 (ja
Inventor
Akane Noguchi
あかね 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004129970A priority Critical patent/JP4529528B2/ja
Publication of JP2005311974A publication Critical patent/JP2005311974A/ja
Application granted granted Critical
Publication of JP4529528B2 publication Critical patent/JP4529528B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

【課題】 娯楽性の高い音響アミューズメントの提供を可能とする。
【解決手段】 サウンドデータ管理部720は、制御部110から他端末の端末IDを受け取ると、受け取った端末IDに対応するサウンドデータをサウンド管理テーブルTAから取得し、これをオーディオ信号生成部160に供給する。オーディオ信号生成部160は、受信部730から他端末の端末位置情報及び方位情報を受け取る一方、測位部140及び方位検出部150から自端末の端末位置情報及び方位情報を受け取る。オーディオ信号生成部160は、自端末の位置及び方位を基準として、他端末の端末位置情報及び方位情報に示される位置及び方位に、該サウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。
【選択図】 図21

Description

本発明は、音像を定位させる音像定位技術に関する。
従来から、無線通信網を介してストリーム配信された楽曲などのオーディオデータを移動端末において受信し、該移動端末に接続されたヘッドフォンなどから音として出力するオーディオ配信システムが知られている(例えば、特許文献1参照)。このようなオーディオ配信システムによれば、ユーザは、外出時などにおいても、音楽を手軽に楽しむことができる。
特開平9−181510号公報(第3図)
しかしながら、従来のオーディオ配信システムにあっては、配信されたオーディオデータを移動端末において忠実に再生することはできても、ユーザがオーディオデータの生成に参加するなどといった娯楽性をユーザに提供することはできなかった。
本発明は上述した事情に鑑みてなされたものであり、その目的は娯楽性の高い音響アミューズメントを提供することにある。
上述した問題を解決するため、本発明に係る音像定位端末は、サウンドシステムを構成する他端末から、当該他端末の属性をあらわす属性情報、当該他端末の位置をあらわす端末位置情報、当該他端末の方位をあらわす方位情報を受信する受信手段と、前記サウンドシステムを構成する自端末の位置及び方位を検出する位置・方位検出手段と、複数のサウンドデータと各サウンドデータの選択条件とを対応づけて記憶する記憶手段と、受信された各情報と前記選択条件との比較結果に基づいて、前記記憶手段からいずれかのサウンドデータを選択する選択手段と、前記自端末の位置及び方位を基準として、受信された前記端末位置情報及び方位情報に示される前記他端末の位置及び方位に、選択された前記サウンドデータに対応する音の音像を定位させる定位手段とを具備することを特徴とする。
かかる構成によれば、他端末との間で通信を行う際、自端末に予め格納された複数のサウンドデータの中から選択条件(例えば、端末ID)に合致等するサウンドデータが選択され、選択されたサウンドデータに対応する音の音像が前記他端末の位置及び方位に定位される。自端末を所持等するユーザは、出力される楽音の種類、音像定位位置等を把握することで、どのようなユーザが接近等しているのかを認識することができる。
以上説明したように、本発明によれば、娯楽性の高い音響アミューズメントを提供することが可能となる。
以下、本発明に係る実施の形態について図面を参照しながら説明する。
<サウンドデータ配信システムの概略構成>
はじめに、本実施形態にかかるサウンドデータ配信システムの概略構成について図1を参照して説明する。この図において、衛星群400は、GPS(Global Positioning System)などのGNSS(Global Navigation Satellite System)に対応した人口衛星であり、図示しない地上制御局によって管制制御され、地上に向けて衛星信号を送出する。この衛星信号には、衛星から送出された時刻や、当該信号を送出した衛星の軌道位置などを示す情報が含まれている。
一方、移動通信網500は、基地局制御装置など、データ通信サービスを提供するための各種装置を含んでおり、多数の基地局510が接続されている。サウンドデータ配信サーバ300は、移動通信網500および基地局510を介して、サウンドデータを端末100にストリーム配信する。ここで、サウンドデータとは、3次元座標によって規定された仮想的な発音地点から出力される音を表す情報である。
端末100は、携帯型の無線通信端末であり、いずれかの基地局510を介して、端末100の位置を示す端末位置情報などをサウンドデータ配信サーバ300に送信したり、サウンドデータ配信サーバ300からサウンドデータなどを受信したりする。端末100は、後述するように、サウンドデータを受信すると、当該サウンドデータに対応する発音地点の位置から発せられると想定される音の音像を定位させたオーディオ信号をサウンドデータから生成する。
また、端末100は、ステレオ形式のヘッドフォン200が接続可能になされており、サウンドデータから生成されたオーディオ信号を、ヘッドフォン200を介して放音する。このヘッドフォン200は、ユーザの頭に装着された使用状態において、ユーザの顔の向く方向を検出する方位センサ210を有しており、オーディオ信号が入力される間にわたり、検出した方位を示す信号を端末100に送信する。また、端末100は、衛星群400から送出される衛星信号を受信するための受信機を備えている。
なお、この図においては、端末100およびヘッドフォン200の組として、2人のユーザ、すなわち、ユーザU1に用いられる組と、ユーザU2に用いられる組との2組が例示されているが、端末100とヘッドフォン200との組は、1組であっても良いし、3組以上であっても良い。
<サウンドデータ配信サーバの構成>
図2は、サウンドデータ配信サーバ300の構成を示すブロック図である。この図において、制御部310は、バスB3を介して各部を制御する。また、制御部310は、後述するように発音地点を選択するための処理や、サウンドデータのデータ量を変換するための処理などを実行する。
通信部320は、移動通信網500を介して、端末100から送信された端末位置情報などの情報を受信する。また、通信部320は、後述するように制御部310によって選択された4つの発音地点に対応するサウンドデータの各々を並列して、端末100に送信する。記憶部330は、磁気ディスクなどから構成され、各種情報を記憶する。
図3は、記憶部330に記憶される情報の一部を示す図である。この図に示されるように、記憶部330には、複数の発音地点IDと、各々の発音地点IDに対応付けられた発音位置情報およびサウンドデータが記憶されている。このうち、発音地点IDは、発音地点を識別するためのものである。本実施形態においては、各発音地点は、街中における構造物(例えば、店舗や、ビルなど)に対応する位置に規定されており、それらの構造物を示す「ミニストアA」や、「ビルA」などの構造物名が、発音地点IDとして登録されている。なお、発音地点の配置場所は、構造物に対応する位置に限られず、任意に設定することが可能である。また、発音位置情報は、例えば、緯度、経度、高度などからなり、3次元座標によって発音地点の位置を規定するものである。
サウンドデータは、発音地点から発せられると想定される音を表すデータであり、所定の周波数(例えば、44.1kHz)でサンプリングされたデータである。サウンドデータは、楽曲、楽音、音声などの音を表すデータであればどのようなデータであっても良く、本実施形態においては、サウンドデータとして「買い物マーチ(楽曲)」、「太鼓音(楽音)」、「犬の鳴き声(音声)」、「チャイム(電子音)」などが記録されている。サウンドデータ配信サーバ300は、記憶部330に記憶されるサウンドデータのうち、4つのサウンドデータを端末100に配信する。そして、端末100おいては、配信された4つのサウンドデータを加工・混合した後、ヘッドフォン200を介して放音する。
また、記憶部330には、サウンドデータのデータ量変換に使用されるデータ量変換テーブルが記憶されている。図4は、データ量変換テーブルの構成を示す図である。この図に示されるように、データ量変換テーブルTBLは、端末100および発音地点の距離Dと、当該発音地点に対応するサウンドデータが変換されるべきサンプリング周波数とが対応付けられたテーブルである。例えば、図4においては、「0」以上「L1(>0)」未満の距離Dには、サンプリング周波数「f1(=44.1kHz)」が対応付けられており、「L1」以上「L2(>L1)」未満の距離Dには、サンプリング周波数「f2(=22kHz)」が対応付けられている。制御部310は、データ量変換テーブルTBLに従って、後述するデータ量変換処理において、サウンドデータのデータ量を変換する。なお、図4における「L1」、「L2」、「L3」および「L4」の各々は、「0」<「L1」<「L2」<「L3」<「L4」の関係を満たしている。
<端末の構成>
図5は、端末100の構成を示すブロック図である。この図において制御部110は、バスB1を介して各部を制御する。また、衛星電波受信部145は、衛星群400に含まれる複数の衛星の各々から、並列して衛星信号を受信し、受信された各々の信号を測位部140に入力する。測位部140は、衛星電波受信部145から入力された各々の衛星信号に含まれる送出時刻や軌道位置などの情報を用いて、端末100の位置を示す端末位置情報を生成する。この際、測位部140は、端末100から各々の衛星信号が送出された衛星までの距離(擬似距離)を測定し、測定された各々の距離を測位方程式に代入して、3次元座標による端末位置情報を生成する。
ここで、端末100は、ユーザに携帯されて使用される。このため、測位部140によって測定された端末100の位置は、ユーザの位置(中心位置)と等しいものとみなすことができる。
指示入力部120は、操作ボタンなどから構成され、オーディオ信号の生成開始を指示する生成開始信号などを制御部110に入力する。ここで、オーディオ信号の生成とは、発音地点から出力される音の音像を定位させたオーディオ信号を、サウンドデータから生成する処理である。制御部110は、指示入力部120を介して与えられるユーザからの指示に従って、端末100全体を制御する。
方位検出部150は、ヘッドフォン200に備えられた方位センサ210によって、ヘッドフォンを装着したユーザの顔がいずれの方向を向いているのかを検出し、方位情報としてバスB1に供給する。なお、ヘッドフォン200に備えられる方位センサ210としては、地磁気を検出する手法や、ジャイロスコープを用いる手法の他、次の手法を用いることも可能である。すなわち、複数の測位部をヘッドフォン200に設け、各測位部により検出された位置の相対的な変化量を用いて、ユーザの顔の向く方向を検出することも可能である。
無線通信部130は、制御部110の制御の下、端末100が在圏するエリアの基地局510との間に無線リンクを確立し、これを経由して、端末位置情報をサウンドデータ配信サーバ300に送信したり、4つのサウンドデータを並行してサウンドデータ配信サーバ300から受信したりする。
オーディオ信号生成部160は、無線通信部130から並列して入力された4つのサウンドデータの各々から、2チャネルのオーディオ信号を生成し、生成したオーディオ信号をバスB1に供給する。この際、オーディオ信号生成部160は、左耳用のオーディオ信号であるLチャネル信号と、右耳用のオーディオ信号であるRチャネル信号とを別個独立に生成し、その各々をバスB1に供給する。バスB1に供給されたLチャネル信号およびRチャネル信号の各々は、オーディオ信号出力部190を介して、ヘッドフォン200から音として出力される。
次に、オーディオ信号生成部160の詳細構成について、図6を参照して説明する。この図に示されるように、オーディオ信号生成部160には、端末100がサウンドデータ配信サーバ300から並行して受信するサウンドデータ数と等しい4つの加工部170-1、170-2、170-3、170-4が含まれている。これらの加工部170-1、170-2、170-3、170-4の各々は、4つのサウンドデータのうちいずれかひとつのサウンドデータを加工して、発音地点から発せられると想定される音の音像を定位させたオーディオ信号を生成する。いずれの加工部170-1、170-2、170-3、170-4が、いずれのサウンドデータを加工するかについては、各発音地点と端末100との距離に応じて、加工部170-1、170-2、170-3、170-4の順に、端末100との距離が長くなる発音地点に対応するサウンドデータを割り当てるなどの構成が考えられる。なお、以下の説明においては、加工部170-1、170-2、170-3、170-4の各々を区別する必要のない場合には、単に、その符号を170と記すことにする。
ここで、加工部170の詳細説明に先立って、ある地点(音源)から実際に出力された音を聴いた聴取者が、当該音源の方向や音源までの距離を知覚する仕組み、すなわち、音像定位について説明する。例えば、聴取者の右方に音源が位置する場合、聴取者の右耳から音源までの距離は、左耳から音源までの距離より近くなる。このため、ある時点に音源から出力された音が、右耳に到達するのにかかる時間は、左耳に到達するのにかかる時間より短くなる。このような左耳と右耳との間に生じる遅延時間により、聴取者は、音源の方向を知覚する。また、聴取者の近くに位置する音源と、遠くに位置する音源との2つの音源がある場合を想定する。この場合、ある音量(音圧)の音が各々の音源から出力されたとき、聴取者の位置においては、聴取者の遠くに位置する音源による音の音量より、近くに位置する音源による音の音量のほうが大きいものとなる。このような音量の差により、聴取者は、音源までの距離を知覚する。
そこで、本実施形態における各々の加工部170は、あたかも発音地点が実在するかのようにユーザが体感することができるように、各々の発音地点について、当該発音地点の位置と、ユーザ(聴取者)の左右の耳の位置とに応じて、左右の耳で生じる遅延時間および音量が規定されたオーディオ信号を生成する。以下、ひとつの加工部170に着目して、ひとつの発音地点に関するオーディオ信号の生成について説明する。
図7に示されるように、端末位置情報によって示されるユーザUの中心位置P(XP,YP,ZP)と、方位情報によって示されるユーザの顔方向Aとが与えられた場合、左耳と右耳との距離をeとしたとき、ユーザUの左耳の位置L(XL,YL,ZL)は、中心位置P(XP,YP,ZP)から水平、かつ、方向Aと垂直にe/2の距離だけ左側の位置によって特定され、右耳の位置R(XR,YR,ZR)は、中心位置P(XP,YP,ZP)から水平、かつ、方向Aと垂直にe/2の距離だけ右側の位置によって特定される。ここで、発音地点S(XS,YS,ZS)とユーザ(中心位置P)との距離が十分離れていることを想定し、音は平面波としてユーザの耳に到達するものとする。また、ユーザからみて発音地点Sが右前方に位置し、このとき、ユーザの顔の向いている方向Aとユーザからみた発音地点Sの方向との成す角がθであると仮定する。このとき、発音地点Sから音が出力されると、右耳と左耳との間に生じる音の到達する時間差(遅延時間)Δtは、到達経路の距離の差dおよび音速cを用いて、
Figure 2005311974
と表現される。ここで、d=e・sinθが成り立つので、遅延時間Δtは、
Figure 2005311974
となる。
また、発音地点Sからユーザの左右各々の耳までの距離を、それぞれDL、DRとし、時刻をt、球面波の波動方程式をfとした場合、左耳で生じる音圧PL、および、右耳で生じる音圧PRの各々は、以下のように表すことができる。
すなわち、
Figure 2005311974
Figure 2005311974
と表現することができる。
加工部170は、これらの遅延時間Δt式(2)、音圧PL式(3)および音圧PR式(4)を表現するオーディオ信号を、サウンドデータから生成する。これにより、ユーザにおいては、発音位置情報で示される位置から発音しているかのように、仮想的な発音地点による音像が定位する。
再び説明を図6に戻す。各々の加工部170には、パラメータ生成部172、遅延部176およびアンプ178が含まれている。このうち、パラメータ生成部172には、さらに、ディレイパラメータ生成部173およびアンプパラメータ生成部174が含まれている。ディレイパラメータ生成部173は、Lチャネル信号およびRチャネル信号の各々の遅延時間Δtを規定するパラメータを生成する。より詳細には、ディレイパラメータ生成部173は、サウンドデータ配信サーバ300から受信した発音位置情報と、方位検出部150によって検出された方位情報と、測位部140によって検出された端末位置情報と、左右両耳間の距離eとを入力して、左右の耳間における遅延時間Δtを規定するパラメータDPを式(2)により生成し、パラメータDPを遅延部176に送信する。
一方、アンプパラメータ生成部174は、Lチャネル信号およびRチャネル信号の各々が放音されたときの音圧を表すパラメータを生成する。より詳細には、アンプパラメータ生成部174は、サウンドデータ配信サーバ300から受信した発音位置情報と、方位検出部150によって検出された方位情報と、測位部140によって検出された端末位置情報と、左右両耳間の距離eとを入力して、左耳において生じる音圧PLを規定するパラメータALと、右耳において生じる音圧PRを規定するパラメータARを式(3)および式(4)により生成し、パラメータAL、ARをアンプ178に送信する。
なお、パラメータ生成部172に入力されるユーザの左右の耳間の距離eは、制御部110に含まれるROM(Read Only Memory)などに記憶され、ROMなどから読み出される構成としても良いし、指示入力部120を介してユーザが入力する構成としても良い。また、上述した、左右の耳の位置の特定方法、遅延時間Δt、音圧PLおよびPRを表す式(2、3および4)は、あくまでも一例であり、さらに、頭部伝達関数や、周波数スペクトルの変化による音の質的変化、直接音と残響音との比による影響を取り入れるなどの各種の変更や改良を加えることが可能である。
遅延部176は、無線通信部130を介して入力したサウンドデータから、左耳用のLチャネル信号SL1および右耳用のRチャネル信号SR1を生成し、その各々をアンプ178に送信する。より具体的には、遅延部176は、ディレイパラメータ生成部173から受け取ったディレイパラメータDPに応じて、Lチャネル信号SL1とRチャネル信号SR1とにおいて遅延が生じるように各々の信号を生成する。これにより、ひとつのサウンドデータについてのLチャネル信号SL1およびRチャネル信号SR1が、ユーザの左右の耳の位置に応じて、あたかも発音地点から到達時間の差が生じているかのように、すなわち、ユーザからみて、ある方向に位置する発音地点から出力された音であるかのように生成される。
アンプ178は、遅延部176から受け取ったLチャネル信号SL1を、アンプパラメータ生成部174から受け取ったパラメータALによって増幅する一方、遅延部176から受け取ったRチャネル信号SR1を、アンプパラメータ生成部174から受け取ったパラメータARによって増幅し、それぞれLチャネル信号SL2およびRチャネル信号SR2として混合部180に送信する。これにより、Lチャネル信号SL2およびRチャネル信号SR2の各々が、ユーザの左右の耳の位置と各々の発音地点との距離に応じて、音圧レベルが異なるかのように生成される。なお、このようなアンプ178による音圧レベルの調整は、加工部170-1、170-2、170-3、170-4ごとに行われる。このため、各々の加工部170-1、170-2、170-3、170-4において生成されるオーディオ信号によって、ユーザに対して、あたかも各々の発音地点までの距離が異なるかのような感覚を与えることが可能となる。
混合部180は、4つの加工部170から送信された4つのLチャネル信号SL2を混合し、Lチャネル信号SL3としてオーディオ信号出力部190に送信する一方で、4つのRチャネル信号SR2を混合し、Rチャネル信号SR3としてオーディオ信号出力部190に送信する。この際、混合部180は、ユーザの耳に障害を与えないように、混合されたLチャネル信号SL3およびRチャネル信号SR3の信号レベルに制限をかけることが好ましい。混合部180から送信されたLチャネル信号SL3およびRチャネル信号SR3の各々は、オーディオ信号出力部190によって、D/A(Digital / Analog)変換された後、ヘッドフォン200に出力され、左耳用の放音部220および右耳用の放音部230を介して放音される。
なお、確認的ではあるが、オーディオ信号生成部160による処理は、無線通信部130によるサウンドデータの受信や、測位部140による端末位置情報の生成、方位検出部150による方位情報の生成などの各種処理と並列して実行され、オーディオ信号は、サウンドデータからストリーム形式で生成される。このため、ユーザが移動すると、それに応じて端末位置情報や方位情報などが更新され、ユーザがいずれの位置に移動しようとも、また、いずれの方向に顔を向けようとも、ユーザからみて、各々の発音地点から出力される音の音像が定位するようにオーディオ信号が生成される。
<サウンドデータ配信システムの動作>
次にサウンドデータ配信システムの動作について、図8を参照して説明する。この動作は、サウンドデータ配信サーバ300から端末100にサウンドデータを配信し、端末100において、端末位置情報や方位情報を更新しつつ、配信されたサウンドデータからオーディオ信号を生成する処理である。なお、この動作は、端末100の指示入力部120から入力される生成開始信号をトリガとして処理を開始し、その後、端末100によって、タイマ割り込みされる処理である。また、サウンドデータ配信サーバ300と端末100との接続認証や端末認証などの、一般的な移動通信システムにおいて実行される各種処理は、本件発明と直接関係しないため、それらの説明については省略することとする。
まず、端末100の制御部110は、ステップSA1において、衛星群400から送信される衛星信号を衛星電波受信部145により受信し、衛星信号を取得する。次に、端末100の制御部110は、ステップSA2において、取得した衛星信号に応じて端末100の位置を示す端末位置情報SPを測位部140により生成する。次いで、端末100の制御部110は、ステップSA3において、生成した端末位置情報SPを基地局510に送信する。
基地局510は、端末100から端末位置情報SPを受信すると、ステップSA4において、端末位置情報SPをサウンドデータ配信サーバ300に転送する。
サウンドデータ配信サーバ300の制御部310は、基地局510から転送された端末位置情報SPを受信すると、ステップSA5において、発音地点選択処理を実行する。この発音地点選択処理は、受信した端末位置情報SPによる端末100の位置と、発音位置情報による発音地点の位置とに応じて、発音地点を所定数に達するまで選択する処理である。ここで、サウンドデータ配信サーバ300の制御部310が実行する発音地点選択処理を、図9を参照して説明する。
まず、制御部310は、ステップSA51において、選択された発音地点の数を示す選択数nを「0」にし、選択数nを初期化する。次に、制御部310は、ステップSA52において、この時点で未選択の発音地点のうち、最も近い発音地点を選択する。この際、制御部310は、受信した端末100の端末位置情報SPと、記憶部330に記憶される各発音地点の発音位置情報とを用いて発音地点を選択する。例えば、いま、図11に示されるように、端末100の周りに、8つの発音地点S1、S2、…、S8が配置されている場合を想定する。これらの発音地点S1、S2、…、S8の各々は、この順で端末100から遠ざかる様に配置されているものとする。このとき、制御部310は、いずれの発音地点S1、S2、…、S8も未選択(選択数n=0)であれば、ステップSA52において、発音地点S1を選択する。
次に、制御部310は、ステップSA53において、選択数nを「1」だけインクリメントする。次いで、制御部310は、ステップSA54において、選択数nが所定数(本実施形態では4つ)に達したか否かを判別する。この判別結果が否定的であれば、制御部310は、処理手順をステップSA52に戻し、選択数nが所定数に達するまで、ステップSA52からステップSA54までの処理を繰り返す。
一方、ステップSA54の判別結果が肯定的となれば、制御部310は、所定数の発音地点が選択されたため、発音地点選択処理を終了する。例えば、図11においては、制御部310は、8つの発音地点S1、S2、…、S8のうち、端末100に近い、黒丸で示される4つの発音地点S1、S2、S3およびS4を選択する。なお、本実施形態においては、制御部310によって4つの発音地点が選択されるが、選択される発音地点の数は任意に設定することが可能である。
さて、再び図8において、サウンドデータ配信サーバ300の制御部310は、発音地点選択処理(ステップSA5)が終了すると、次に、ステップSA6において、データ量変換処理を実行する。このデータ量変換処理は、選択された発音地点に対応するサウンドデータのデータ量、すなわち、端末100に配信されるサウンドデータのデータ量を変換する処理である。ここで、サウンドデータ配信サーバ300の制御部310が実行するデータ量変換処理を、図10を参照して説明する。この説明においては、サウンドデータ配信サーバ300の記憶部330に予め記録されるサウンドデータのサンプリング周波数は、44.1kHz以上であるものとする。
まず、制御部310は、ステップSA61において、発音地点選択処理によって選択された各々の発音地点と端末100との距離Dを、発音位置情報および端末位置情報SPを用いて求める。次に、制御部310は、ステップSA62において、図4に示されるデータ量変換テーブルTBLを参照し、各々の発音地点から端末100までの距離Dに応じて、各発音地点のサウンドデータが変換されるべきサンプリング周波数を特定する。例えば、いま、図11において、端末100と発音地点S1との距離Dが「0」以上「L1」未満であり、端末100と発音地点S2との距離Dが「L1」以上「L2」未満であり、端末100と発音地点S3との距離Dが「L2」以上「L3」未満であり、端末100と発音地点S4との距離Dが「L3」以上「L4」未満であるものとする。このとき、制御部310は、データ量変換テーブルTBLを参照して、発音地点S1のサウンドデータについてのサンプリング周波数をf1(44.1kHz)に特定し、発音地点S2のサウンドデータについてのサンプリング周波数をf2(22kHz)に特定し、発音地点S3のサウンドデータについてのサンプリング周波数をf3(10Hz)に特定し、発音地点S4のサウンドデータについてのサンプリング周波数をf4(5kHz)に特定する。
次に、制御部310は、ステップSA63において、記憶部330に予め記録される各々の発音地点のサウンドデータから、ステップSA62において特定されたサンプリング周波数のサウンドデータを生成する。これにより、生成されたサウンドデータは、端末100からの距離が遠い発音地点のサウンドデータほど、サンプリング周波数が低下するため、端末100からの距離が遠い発音地点のサンプリングデータほど、そのデータ量が縮減される。これにより、サウンドデータ配信サーバ300から配信されるサウンドデータの総データ量が縮減され、結果として、サウンドデータの配信にかかる移動通信網500におけるネットワークトラフィック、および、サウンドデータの送信にかかるサウンドデータ配信サーバ300の負荷が低減されることとなる。
なお、一般に、オーディオ信号のサンプリング周波数が低下すると、当該オーディオ信号が放音されたときの音質は劣化するが、本実施形態においては、端末100に配信されたサウンドデータは、端末100の加工部170によって、端末100から遠くに位置する発音地点のサウンドデータほど小さな音量となるように加工される。このため、端末100から遠くに位置する発音地点のサウンドデータのサンプリング周波数を低下させても、端末100において生成されるオーディオ信号が放音されたときの音質に、ほとんど影響することがない。言い換えれば、データ量変換処理によれば、音質を不当に損なうことなく、サウンドデータのデータ量を縮減させ、サウンドデータの配信によるネットワークトラフィックおよびサウンドデータ配信サーバ300の負荷を低減することができる。
さて、再び図8において、サウンドデータ配信サーバ300の制御部310は、データ量変換処理(ステップSA6)が終了すると、次に、ステップSA7において、データ量が変換された4つのサウンドデータSD1、SD2、SD3、SD4の各々を、並列に基地局510に送信する。この際、制御部310は、各サウンドデータSD1、SD2、SD3、SD4に、記憶部330に記録される発音位置情報を付加した後、サウンドデータSD1、SD2、SD3、SD4をストリーム形式で送信する。例えば、図3において、基地局510に送信すべきサウンドデータが、発音地点ID「ミニストアA」に対応する「買い物マーチ」であれば、制御部310は、「買い物マーチ」に発音位置情報(x1,y1,z1)を付加した後、「買い物マーチ」を送信する。
基地局510は、サウンドデータ配信サーバ300から送信されたサウンドデータSD1、SD2、SD3、SD4を受信すると、ステップSA8において、それらのサウンドデータSD1、SD2、SD3、SD4を端末100に転送する。
一方、端末100の制御部110は、ステップSA3において端末位置情報SPを基地局510に送信すると、次に、ステップSA9において、ユーザの顔方向を示す方位情報を方位検出部150によって生成する。次いで、端末100の制御部110は、ステップSA10において、基地局510から受信したサウンドデータSD1、SD2、SD3、SD4からオーディオ信号を生成する。この際、端末100の制御部110は、端末位置情報SP、方位情報および発音位置情報に応じて、オーディオ信号生成部160によりオーディオ信号をストリーム形式で生成する。次に、端末100の制御部110は、ステップSA11において、オーディオ信号出力部190からオーディオ信号を出力する。端末100から出力されたオーディオ信号は、ヘッドフォン200を介して音として出力される。
例えば、いま、図12に示されるように、発音地点S1、S2、S3、S4の位置が設定されており、端末位置情報SPによって端末100(ユーザ)の位置、方位情報によってユーザの顔の向く方向Aが与えられたものとする。また、このとき、ユーザから各発音地点S1、S2、S3、S4までの距離は、左右両耳とも、この順で遠くなるものとする。この際、ヘッドフォン200から出力される各発音地点のサウンドデータの音圧(音量)は、発音地点S1に対応するサウンドデータの音圧が最も大きくなり、発音地点S4に対応するサウンドデータの音圧が最も小さくなる。これにより、ユーザは、発音地点S1が最も近くに位置し、発音地点S4が最も遠くに位置するように知覚する。また、発音地点S1からユーザの右耳までの距離は、左耳までの距離より短いため、発音地点S1のサウンドデータについてのLチャネル信号は、Rチャネル信号より遅延したものとなる。これにより、ユーザは、発音地点S1が右側に位置することを知覚する。同様に、Lチャネル信号とRチャネル信号との間の遅延量(遅延時間Δt)により、ユーザは発音地点S4が左側に位置することを知覚する。
次に、図13に示されるように、ユーザが、発音地点S4の方向を向いたとする。このとき、方位検出部150によって、ユーザの顔の向く方向Aが更新されるため、Lチャネル信号とRチャネル信号との間における各サウンドデータの遅延量(遅延時間Δt)が更新される。これにより、ユーザは、発音地点S2が右側に位置し、発音地点S3が左側に位置することを知覚する。
次いで、図14に示されるように、ユーザが、発音地点S4に近づき、ユーザから各発音地点S1、S2、S3、S4までの距離が、発音地点S4、発音地点S2、発音地点S3、発音地点S1の順で遠くなる位置に移動したものとする。このようにユーザが移動すると、発音地点S1から遠ざかるため、発音地点S1のサウンドデータの音圧(音量)は小さくなる一方、発音地点S4に近づくため、発音地点S4のサウンドデータの音圧は大きくなる。これにより、ユーザは、発音地点S1から離れ、発音地点S4に近づいたことを知覚する。
以上説明したように、本実施形態によれば、ユーザの位置およびユーザの向く方向と、発音地点の位置とに応じて、ユーザからみて、発音位置情報で示される位置から発音しているかのように定位させたオーディオ信号が生成される。これにより、ユーザは、あたかも発音地点の各々が、規定された位置に実在するかのような感覚を得ることができる。例えば、ある領域に発音地点としてオーケストラの各パートを配置した場合、ユーザが当該領域内を移動すれば、ユーザは、あたかも各パートが配置された空間内を移動するかのような感覚を得ることが可能となり、ユーザがオーディオデータの生成に参加でき、変化に富んだ楽しい音響アミューズメントを提供することができる。
また、本実施形態においては、発音地点の音像が定位されるため、音声でユーザの目標物の位置を指示する音声情報システムに適用した場合、目標物が右側に位置すれば、「右方向、ガソリンスタンドの手前を右折です。」などの音声が、あたかも右側から出力されたかのように聞こえる。これにより、従来における音像を考慮しない音声情報システムと比較して、より直感的に方向に関する情報をユーザに与えることが可能となり、音声指示の効率が向上する。
さらに、サウンドデータ配信システムを視覚障害者向けガイドとしても使用できる。例えば、駅における切符自販機、駅員室、改札口などに、それら各々を表す音声を出力するような発音地点を配置する構成としても良い。このような構成にすれば、音声によって、目で見るのと同様に位置を案内することができるため、ユーザは自主的に目標物に近づくことができる。
くわえて、発音地点を商店などの位置に配置し、当該商店の広告を示す音声を出力する構成としても良い。これにより、あたかも商店から音声が出力されたかのように聞こえるため、ユーザは、例えばビルの2階などの目に付きにくい場所に立地する商店を探しやすくなる。一方、商店においては、広告効果が期待でき、商売が活性化することとなる。また、聴覚に働きかける広告が、呼び込みなどの実際の音から、仮想的な発音地点の広告に転換されることにより、街中における騒音が低減される。
<第1実施形態の変形例>
なお、上述した第1実施形態においては、サウンドデータの配信によるネットワークトラッフィックおよびサウンドデータ配信サーバの負荷を緩和するために、データ量変換処理においてサウンドデータのデータ量を縮減する例を示した。しかし、これらが問題とならない場合には、データ量変換処理を省略することができる。
<第2実施形態>
<サウンドデータ配信システムの構成>
上述した第1実施形態においては、ひとつのサウンドデータ配信サーバ300から端末100にサウンドデータを配信するサウンドデータ配信システムについて説明した。これに対し、第2実施形態では、複数のサウンドデータ配信サーバの各々から端末100にサウンドデータを配信するサウンドデータ配信システムについて説明する。
なお、第2実施形態におけるサウンドデータ配信システムの構成のうち、第1実施形態に係るシステムと共通するものについては同一の符号が付されている。
図15は、第2実施形態におけるサウンドデータ配信システムの概略構成を示す図である。この図に示されるように、移動通信網500には、大別して2種類のサーバ装置が接続されている。すなわち、コントロールサーバ600と、サウンドデータ配信サーバ610A、610B、610Cとである。このうち、サウンドデータ配信サーバ610A、610B、610Cの各々は、端末100に配信されるサウンドデータであり、互いに異なる発音地点に対応したサウンドデータを記憶している。また、コントロールサーバ600は、サウンドデータ配信サーバ610A、610B、610Cから端末100へのサウンドデータの配信を管理するものである。詳述すると、コントロールサーバ600は、端末100の位置と、各々の発音地点の位置とに応じて、所定数(例えば2つ)の発音地点を選択する。サウンドデータ配信サーバ610A、610B、610Cは、コントロールサーバ600によって選択された発音地点に対応するサウンドデータを、端末100に配信する。なお、これらのコントロールサーバ600、サウンドデータ配信サーバ610A、610B、610Cの各々には、移動通信網500において各々を特定するためのサーバIDが割り当てられている。
なお、説明の便宜上、第2実施形態においては、サウンドデータ配信サーバ610A、610B、610Cは、移動通信網500に直接接続されているが、サウンドデータ配信サーバ610A、610B、610Cは、インターネットなどを介して移動通信網500に接続される構成としても良い。また、第2実施形態においては、サウンドデータ配信サーバ610A、610B、610Cの数が3つである例を説明するが、サウンドデータ配信サーバ610A、610B、610Cの数は、3つに限られるものではなく、それ以外の数であってもよい。
まず、サウンドデータ配信サーバ610A、610B、610Cの構成について説明する。第2実施形態におけるサウンドデータ配信サーバ610A、610B、610Cは、第1実施形態におけるサウンドデータ配信サーバ300(図2参照)と同様の構成をしており、各部を制御する制御部と、移動通信網とデータを授受する通信部と、各種情報を記憶する記憶部とを備えている。
図16は、サウンドデータ配信サーバ610Aの記憶部に記憶される情報のうち主要なものを示す図であり、図17は、サウンドデータ配信サーバ610Bの記憶部に記憶される情報のうち主要なものを示す図である。なお、図示しないが、サウンドデータ配信サーバ610Cにおける記憶部もサウンドデータ配信サーバ610A、610Bと同様な情報が記憶されている。これらの図に示されるように、各サウンドデータ配信サーバ610A、610Bの記憶部には、発音地点IDと、各々の発音地点IDに対応付けられたサウンドデータとが記憶される。この記憶部が、第1実施形態におけるサウンドデータ配信サーバ300の記憶部330と比較して特徴的なのは、発音位置情報を記憶していない点にある。
次いで、コントロールサーバ600の構成について説明する。コントロールサーバ600は、サウンドデータ配信サーバ610の構成と同様の構成をしており、各部を制御する制御部と、移動通信網500とデータを授受する通信部と、各種情報を記憶する記憶部とを備えている。
図18は、コントロールサーバ600の記憶部に記憶される情報のうち、主要なものを示す図である。この図に示されるように、記憶部には、発音地点IDと、各々の発音地点IDに対応付けられた発音位置情報およびサーバIDが記憶されている。コントロールサーバ600の記憶部が、第1実施形態におけるサウンドデータ配信サーバ300の記憶部330と比較して特徴的な点は、サウンドデータを記憶していない点と、サーバIDを記憶している点にある。発音地点IDは、サウンドデータ配信サーバ610A、610B、610Cに記憶される発音地点を特定するためのものである。また、サーバIDは、発音地点IDによって特定される発音地点のサウンドデータが、いずれのサウンドデータ配信サーバ610A、610B、610Cに記憶されているかを示す情報である。この図におけるサーバID「A」は、サウンドデータ配信サーバ610Aを示し、サーバID「B」は、サウンドデータ配信サーバ610Bを示し、サーバID「C」は、サウンドデータ配信サーバ610Cを示している。例えば、この図においては、発音地点ID「ミニストアA」の発音地点は、座標(x1,y1,z1)に位置し、そのサウンドデータはサウンドデータ配信サーバ610Aに記憶されることを示し、発音地点ID「ミニストアB」の発音地点は、座標(x2,y2,z2)に位置し、そのサウンドデータはサウンドデータ配信サーバ610Bに記憶されることを示している。
<サウンドデータ配信システムの動作>
第2実施形態におけるサウンドデータ配信システムの動作について図19を参照して説明する。この動作は、コントロールサーバ600によって選択された発音地点に対応するサウンドデータを、サウンドデータ配信サーバ610から端末100に配信し、端末100において、配信されたサウンドデータからオーディオ信号を生成する処理である。なお、この動作は、ユーザが端末100の指示入力部120を介して、オーディオ信号の生成の開始を指示する生成開始信号を入力すると処理を開始し、その後、端末100によって、タイマ割り込みされる処理である。また、コントロールサーバ600と端末100との間における接続認証や端末認証などの、一般的な移動通信システムにおいて実行される各種処理は、本件発明と直接関係しないため、それらの説明については省略することとする。
まず、端末100の制御部110は、ステップSB1において、衛星群400から送信される衛星信号を、衛星電波受信部145により受信し、衛星信号を取得する。次に、端末100の制御部110は、ステップSB2において、取得した衛星信号に応じて端末100の3次元位置を示す端末位置情報SPを測位部140により生成する。
次に、端末100の制御部110は、ステップSB3において、端末位置情報SPを、その情報の送信先であるコントロールサーバ600を示すサーバIDと共に基地局510に送信する。基地局510は、端末位置情報SPを端末100から受信すると、ステップSB4において、その情報をコントロールサーバ600に転送する。
コントロールサーバ600の制御部は、端末位置情報SPを受信すると、ステップSB5において、受け取った端末位置情報SPと、記憶部に記憶される発音位置情報とに応じて、発音地点選択処理を実行する。この発音地点選択処理は、上述した第1実施形態における発音地点選択処理(図9参照)と同様の処理であり、端末100に近い発音地点から順に、所定数(2つ)に達するまで発音地点を選択する処理である。この動作説明においては、例として、コントロールサーバ600の制御部は、図18に示される発音地点IDのうち「ミニストアA」と「ビルB」との2つの発音地点を選択したものとして、すなわち、サウンドデータ配信サーバ610Aに記憶される「買い物マーチA(図16参照)」と、サウンドデータ配信サーバ610Bに記憶される「太鼓音B(図17参照)」とが端末100に配信されるものとして説明する。なお、コントロールサーバ600の制御部によって選択される発音地点の数は、2つに限られず、任意に設定することが可能である。
次に、コントロールサーバ600の制御部は、ステップSB6において、選択された発音地点のサウンドデータを有するサウンドデータ配信サーバ610のサーバID_SIDを基地局510に送信する。この際、コントロールサーバ600の制御部は、サーバID_SIDに対して、その記憶部に記憶される発音地点IDおよび発音位置情報を付加した後、サーバID_SIDを送信する。すなわち、コントロールサーバ600の制御部は、図18におけるサーバID「A」に発音地点ID「ミニストアA」と発音位置情報(x1,y1,z1)とを付加すると共に、サーバID「B」に発音地点ID「ビルB」と発音位置情報(x2,y2,z2)とを付加した後、サーバID「A」およびサーバID「B」を基地局510に送信する。
基地局510は、各サーバID_SIDをコントロールサーバ600から受信すると、ステップSB7において、それらを端末100に転送する。
端末100の制御部110は、基地局510によって転送されたサーバID_SIDを受信すると、ステップSB8において、当該サーバID_SIDによって特定されるサウンドデータ配信サーバ610A、610Bの各々にサウンドデータの配信を要求すべく、配信要求DRA、DRBを基地局510に送信する。すなわち、端末100の制御部110は、サウンドデータ配信サーバ610Aに対する「買い物マーチA」の配信要求DRAと、サウンドデータ配信サーバ610Bに対する「太鼓音B」の配信要求DRBとを基地局510に送信する。
基地局510は、配信要求DRA、DRBを端末100から受け取ると、ステップSB9およびステップSB10において、受け取った配信要求DRA、DRBの各々を、対応するサウンドデータ配信サーバ610A、610Bに転送する。すなわち、基地局510は、ステップSB9において、配信要求DRAをサウンドデータ配信サーバ610Aに転送する一方、ステップSB10において、配信要求DRBをサウンドデータ配信サーバ610Bに転送する。
サウンドデータ配信サーバ610Aの制御部は、基地局510から配信要求DRAを受け取ると、ステップSB11において、当該配信要求DRAによって示されるサウンドデータSDA(ここでは「買い物マーチA」)を基地局510にストリーム形式で送信する。基地局510は、サウンドデータ配信サーバ610AからサウンドデータSDAを受け取ると、ステップSB12において、サウンドデータSDAを端末100に転送する。
一方、サウンドデータ配信サーバ610Bの制御部は、基地局510から配信要求DRBを受け取ると、ステップSB13において、当該配信要求DRBによって示されるサウンドデータSDB(ここでは「太鼓音B」)を基地局510にストリーム形式で送信する。基地局510は、サウンドデータ配信サーバ610BからサウンドデータSDBを受け取ると、ステップSB14において、サウンドデータSDBを端末100に転送する。これらのステップSB13およびステップSB14の処理は、上述したステップSB11およびステップSB12の処理と並列して実行される。
なお、第1実施形態と同様に、サウンドデータSDA、SDBを送信する前に、サウンドデータ配信サーバ610A、610Bにおいて、データ量変換処理を実行しても良い。すなわち、サウンドデータ配信サーバ610A、610Bの各々において、端末100と発音地点との距離に応じて、各々のサウンドデータSDA、SDBのデータ量を縮減した後、サウンドデータを基地局510に送信する構成としても良い。
端末100の制御部110は、サウンドデータ配信サーバ610Aから送信されたサウンドデータSDA(ここでは「買い物マーチA」)と、サウンドデータ配信サーバ610Bから送信されたサウンドデータSDB(ここでは「太鼓音B」)とを、基地局510を介して並列に受信すると、ステップSB15において、それらのサウンドデータをオーディオ信号生成部160に入力して、左右2チャネルのオーディオ信号を生成する。この際、「買い物マーチA」と「太鼓音B」との各々のサウンドデータは、オーディオ信号生成部160に含まれる2つの加工部170のいずれか一方によって処理される。そして、端末100の制御部110は、ステップSB16において、オーディオ信号出力部190からオーディオ信号を出力する。端末100から出力されたオーディオ信号は、ヘッドフォン200を介して音として出力される。
このように第2実施形態においては、コントロールサーバ600の管理の下、各サウンドデータ配信サーバ610A、610B、610Cから端末100にサウンドデータが配信され、端末100において、ユーザの位置および顔の向く方向Aに応じて、仮想的な発音地点による音像を定位させたオーディオ信号が生成される。これにより、上述した第1実施形態と同様に、ユーザは、あたかも発音地点が実在するかのような空間を移動することができ、従来にない音響アミューズメントを提供することができる。
また、第2実施形態においては、複数のサウンドデータ配信サーバ610A、610B、610Cからサウンドデータが配信される。このため、複数の端末100が、ひとつのサウンドデータ配信サーバから集中的にサウンドデータの配信を受ける事態が回避され、サウンドデータ配信サーバにかかる負荷が分散されることとなる。さらに、コントロールサーバ600によってサウンドデータの配信が一括管理されるため、サウンドデータの管理が容易となり、サウンドデータを容易に増加することができる。これにより、端末100に配信されるサウンドデータの種類や内容が充実したものとなる。
<第1および第2実施形態の変形例>
なお、上述した第1および第2実施形態においては、端末位置情報SPを、GNSSによって端末100において生成する例を示したが、これに限られない。例えば、サウンドデータ配信サーバ300やコントロールサーバ600において、端末100が無線リンクを確立する基地局510の位置などに応じて、端末位置情報SPを生成する構成としても良い。
また、上述した第1および第2実施形態においては、基地局510と無線通信する無線通信部130を備えた端末100を説明したが、これに限られない。例えば、PDA(Personal Digital Assistants)などの無線通信機能を有さない携帯端末と、当該携帯端末に着脱可能な通信モジュールを取り付けて、サウンドデータ配信サーバ300などとデータを授受する構成としても良い。
上述した第1および第2実施形態においては、サウンドデータをストリーム形式で配信する例を示したが、端末100にサウンドデータを記憶する記憶部を設けて、記憶部にキャッシュされたサウンドデータによりオーディオ信号を生成する構成としても良い。
くわえて、上述した第1および第2実施形態においては、端末100と発音地点との距離に応じて、サウンドデータ配信サーバ300、610Aなどにおいて、端末100に配信するサウンドデータのデータ量を変換する例を示したがこれに限られない。例えば、サウンドデータ配信サーバ300の記憶部330に、同一の音を表すサウンドデータであって、データ量が互いに異なる複数のサウンドデータ(例えば、サンプリング周波数が互いに異なる複数のサウンドデータ)を予め記憶させておき、このうちのいずれかを、端末100と発音地点との距離に応じて選択し、選択されたサウンドデータを端末100に送信する構成としても良い。これにより、上述した各実施形態と同様に、ネットワークトラフィックが低減されることとなる。
<第3実施形態>
上述した第1、第2実施形態においては、無線通信網500を介してサウンドデータ配信サーバ300、610からサウンドデータを受信し、受信したサウンドデータからオーディオ信号を生成する態様について説明した。これに対し、以下に示す第3実施形態においては、端末内の記憶部に記憶されているサウンドデータからオーディオ信号を生成する態様について説明する。
図20は、第3実施形態に係るサウンドシステムの概略構成を示す図である。サウンドシステムは、端末を識別するための端末ID、端末位置情報及び方位情報を授受することができる複数の端末700によって構成されている。
各端末700は、他端末700から受け取る端末ID、端末位置情報及び方位情報に基づいて、自端末700の記憶部に記憶されている複数のサウンドデータの中から適合するサウンドデータを選択し、選択したサウンドデータからオーディオ信号を生成する機能を備えている。なお、以下の説明では、便宜上、自端末700A及び他端末700Bと記述する。
図21は、端末(音像定位端末)700の構成を示す図である。端末700は、前掲図5に示す端末100に対してサウンドデータ管理部720、受信部730、送信部740を設けたものである。その他の構成は、図5と同様であるため、対応する部分には同一符号を付し説明を省略する。
送信部740は、自端末700Aの端末ID、端末位置情報及び方位情報を他端末700Bに送信する手段である。ここで、送信部740に供給される端末位置情報は、自端末700Aの位置をあらわす情報であり、測位部(位置・方位検出手段)140において生成される情報である。一方、送信部740に供給される方位情報は、自端末700Aのヘッドフォン200を装着するユーザの顔の向きをあらわす情報(いいかえれば、端末の方位をあらわす情報)であり、方位検出部(位置・方位検出手段)150において生成される情報である。
詳述すると、制御部110は、他端末700Bと通信を行う際、自端末700Aの端末IDを図示せぬメモリから読み出し、これを送信部740に転送する。また、制御部110は、測位部140から供給される自端末700Aの端末位置情報、及び方位検出部150から供給される自端末700Aの方位情報を送信部740に転送する。送信部740は、制御部110から受け取った端末ID、端末位置情報及び方位情報を、Bluetooth(登録商標)やIrDA(Infrared Data Association)等を利用して他端末700B宛てに送信する。
受信部730は、他端末700Bから送信される他端末700Bを識別するための端末ID(属性情報)、該他端末700Bの位置をあらわす端末位置情報及び該他端末700Bの方位をあらわす方位情報を受信する手段である。制御部110は、受信部730からこれらの情報を受け取ると、受け取った他端末700Bの端末IDをサウンドデータ管理部720に供給する一方、受け取った他端末700Bの端末位置情報及び方位情報をオーディオ信号生成部160に供給する。
サウンドデータ管理部720は、様々な種類のサウンドデータ(例えば、楽曲1、楽曲2、・・・)を管理する手段である。図22は、サウンドデータ管理部720に登録されているサウンドデータ管理テーブルTAの内容を例示した図である。
サウンドデータ管理テーブル(記憶手段)TAには、複数のサウンドデータと各サウンドデータの選択条件をあらわす条件情報(図22では、各端末を識別するための端末ID)とが対応づけて登録されている。なお、本実施形態では、サウンドデータの選択条件として端末ID(すなわち、サウンドデータに対応する端末識別情報)を設定しているが、他のパラメータを設定しても良いのはもちろんである(後述)。
サウンドデータ管理部(選択手段)720は、制御部110から他端末700Bの端末ID(例えば、端末ID−3)を受け取ると、受け取った端末IDとサウンドデータ管理テーブルTAに登録されている各端末IDとを比較する。そして、サウンドデータ管理部720は、比較結果に基づいて、該端末IDに対応づけて登録されているサウンドデータ(例えば、楽曲3)をサウンドデータ管理テーブル(記憶手段)TAから取得(選択)し、これをオーディオ信号生成部160に供給する。
オーディオ信号生成部160は、受信部730から他端末700Bの端末位置情報及び方位情報を受け取る一方、測位部140及び方位検出部150から自端末700Aの端末位置情報及び方位情報を受け取る。オーディオ信号生成部160は、受け取ったこれらの情報とサウンドデータ管理部720から供給されるサウンドデータとに基づいて、オーディオ信号を生成する。すなわち、オーディオ信号生成部(定位手段)160は、自端末700Aの位置及び方位を基準として、他端末700Bの端末位置情報及び方位情報に示される位置及び方位に、該サウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。なお、オーディオ信号生成部160の動作は、第1実施形態等において詳細を明らかにしたため、これ以上の説明は割愛する。
以上説明したように、第3実施形態に係るサウンドシステムによれば、各端末700は、自端末700Aに予め格納されているサウンドデータを用いて様々なオーディオ信号を生成する。これにより、上記第1実施形態及び第2実施形態と同様に、従来にない音響アミューズメントを提供することができる。さらに、サウンドデータを配信する構成が必要ないため、システムの構成を簡略化することができる。
なお、本実施形態では、サウンドデータの選択条件として端末IDを設定した場合について説明したが、該端末IDの代わりに、各端末が属するグループ(例えば、グループA、グループB、・・・)を識別するためのグループIDを設定しても良い。かかる場合、自端末700Aの受信部730は、上述した他端末700Bの端末IDの代わりに(あるいは加えて)、他端末700Bが属するグループのグループID(属性情報)を受信する。かかる構成によれば、グループ毎に同じ種類の楽音が出力されるため、端末700を所持する各ユーザは、ヘッドフォン200を介して聴取する楽音の種類から、いずれのグループに属するユーザが接近してきたか等を把握することができる。
<第4実施形態>
図23は、第4実施形態に係る端末(音像定位端末)800の構成を示す図である。端末800は、前掲図21に示すサウンドデータ管理部720の代わりに、記憶部810を設けたものである。その他の構成は、図21と同様であるため、対応する部分には同一符号を付し説明を省略する。なお、以下の説明では、便宜上、自端末800A及び他端末800Bと記述する。
記憶部810は、自サウンドデータ記憶部811と他サウンドデータ記憶部812とを具備している。自サウンドデータ記憶部811には、自端末800Aに固有のサウンドデータ(例えば、楽曲1)が記憶される。一方、他サウンドデータ記憶部812には、他端末800Bを識別するための識別ID(例えば、端末ID−2、端末ID−3等)と各他端末800Bに固有のサウンドデータ(例えば、楽曲2、楽曲3等)とが対応づけて記憶される。各端末800は、他端末800Bと通信を行う際、次のような動作を行う。
自端末800Aの制御部110は、自サウンドデータ記憶部811から固有のサウンドデータを読み出し、送信部740に送る。さらに、制御部110は、測位部(位置・方位検出手段)140において生成される自端末800Aの端末位置情報、方位検出部(位置・方位検出手段)150において生成される自端末800Aの方位情報をそれぞれ送信部740に送る。送信部740は、制御部110からこれらの情報を受け取ると、これらの情報に自端末800Aを識別するための端末IDを付加し、他端末800B宛てに送信する。一方、受信部(受信手段)730は、他端末800Bから送信される他端末800Bの端末ID、端末位置情報、方位情報及びサウンドデータを受信する。制御部110は、受信部730からこれらの情報を受け取ると、他端末800Bの端末位置情報、方位情報及びサウンドデータをオーディオ信号生成部160に転送する一方、他端末Bの端末ID及びサウンドデータを他サウンドデータ記憶部812に対応づけて格納する。
オーディオ信号生成部160は、受信部730から他端末800Bの端末位置情報、方位情報、及びサウンドデータを受け取る一方、測位部140及び方位検出部150から自端末800Aの端末位置情報及び方位情報を受け取る。オーディオ信号生成部160は、これら各情報に基づいてオーディオ信号を生成する。すなわち、オーディオ信号生成部(定位手段)160は、自端末800Aの位置及び方位を基準として、他端末800Bの端末位置情報及び方位情報に示される位置及び方位に、他端末800Bから受信したサウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。オーディオ信号生成部160は、このように生成したオーディオ信号をヘッドフォン200を介して外部に出力する。各ユーザは、ヘッドフォン200から出力される楽音の種類、音像定位位置等を把握し、これにより、どのようなユーザが接近等するのかを認識することができる。以上説明したように、各端末800の間で固有のサウンドデータを交換し、交換したサウンドデータからオーディオ信号を生成しても良い。
<第1〜第4実施形態に共通する変形例>
(変形例1)
上述した各実施形態においては、GPSを利用して自端末の位置を求める態様を例示したが、GPS衛星から発信される電波を受信する場所(例えば、屋内等)によっては、大きな誤差が生じたり、位置測定が不可能な場合もある。このような場合には、限られた範囲での位置測定に有効な超音波センサや赤外線センサ等を用いて自端末の位置を求めるようにしても良い。
(変形例2)
また、自端末の位置、方位を測定するのではなく、他端末との相対的な距離、方位のみを測定しても良い。図24は、変形例2に係る端末(音像定位端末)900の構成を示す図である。端末900は、前掲図21に示す端末700の測位部140、衛生電波受信部145、方位検出部150の代わりに、超音波発生器910、相対距離・方向算出部920を設けたものである。その他の構成は、図21に示す端末700とほぼ同様であるため、対応する部分には同一符号を付し説明を省略する。また、以下の説明では、便宜上、自端末900A及び他端末900Bと記述する。
超音波発生器910は、図25に示すように、自端末900Aを中心として異なる波長の超音波f1〜fp(1≦p)を各方向(図25では、8方向)に出力する手段である。なお、超音波を出力する方向やその数などについては、必要とされる位置検出の精度等に応じて適宜変更可能である。
受信部730は、他端末900Bから他端末900Bの端末ID、端末位置情報及び方位情報を受信する代わりに、他端末900Bの端末ID及び超音波情報(後述)を受信する。
例えば、図25に示すように自端末900Aからみて右斜め前方に他端末900Bが存在する場合、他端末900Bは超音波f2を主に受信することになる。他端末900Bは、各超音波の受信強度を比較などして超音波f2の受信強度が最も高いと判断すると、受信強度が最も高い超音波の種類、受信強度をあらわす超音波情報を生成し、これを自端末900A宛てに送信する。自端末900Aの受信部730は、他端末900Bから端末ID及び超音波情報を受信すると、受信した端末IDをサウンドデータ管理部720に供給する一方、受信した超音波情報を相対距離・方位算出部920に送る。
サウンドデータ管理部(選択手段)720は、受信部730を介して端末ID(属性情報)を受け取ると、この端末IDに対応するサウンドデータ(例えば、楽曲3)をサウンドデータ管理テーブルTA(記憶手段)から取得(選択)し、オーディオ信号生成部160に供給する。
一方、相対距離・方向算出部(相対距離・方向算出手段)920は、受信部730から供給される超音波情報に基づいて、自端末900Aと他端末900Bとの相対的な距離及び方向を求める。詳述すると、相対位置・方向算出部920は、超音波情報に示される超音波の種類(例えば、超音波f2)から他端末の相対的な方向(例えば、右斜め前方)を求める一方、超音波情報に示される受信強度から相対的な距離(例えば、○×m)を求める。そして、相対距離・方向算出部920は、求めた相対的な方向及び相対的な距離をオーディオ信号生成部160に供給する。オーディオ信号生成部160は、相対距離・方位算出部920から供給される相対的な方向、相対的な距離、及びサウンドデータ管理部720から供給されるサウンドデータに基づいて、オーディオ信号を生成する。すなわち、オーディオ信号生成部(定位手段)160は、自端末900Aの位置及び方位を基準として、上記の如く求めた方向に求めた距離だけ離れた位置に、上記サウンドデータに対応する音の音像が定位するようにオーディオ信号を生成・加工する。なお、その後の動作については、各実施形態と同様に説明することができるため割愛する。
このように、他端末との相対的な距離、方向を測定することにより、各実施形態と同様な音響アミューズメントを提供するようにしても良い。なお、上記例では、自端末900Aにおいて相対的な距離、方向を求める場合について説明したが、他端末900Bにおいて自端末900Aとの相対的な距離、方向を直接求め、求めた相対的な距離、方向を自端末900Aに通知するようにしても良い。また、上記例では、超音波のみを利用して他端末900Bとの相対的な距離、方向を求める態様を例示したが、例えば赤外線等を利用して他端末との相対的な距離、方向を求めても良く、さらには、超音波と赤外線とを併用し、超音波と赤外線の信号の到着時差を利用して他端末900Bとの相対的な距離、方向を求めても良い。
(変形例3)
以上説明した本実施形態及び変形例に係る各端末の諸機能は、CPU(若しくはDSP)がメモリに格納されたプログラムを実行することによって実現されるため、かかるプログラムについてCD−ROM等の記録媒体に記録して頒布したり、インターネット等の通信ネットワークを介して頒布しても良い。
本発明の第1実施形態におけるサウンドデータ配信システムの構成を示す図である。 同サウンドデータ配信システムに含まれるサウンドデータ配信サーバの構成を示す図である。 同サウンドデータ配信サーバの記憶部に記憶される情報を示す図である。 同サウンドデータ配信サーバの記憶部に記憶されるデータ量変換テーブルを示す図である。 同サウンドデータ配信システムに含まれる端末の構成を示す図である。 同端末に含まれるオーディオ信号生成部などの構成を示す図である。 同オーディオ信号生成部による処理を説明するための図である。 同サウンドデータ配信システムの動作を示すフローチャートである。 同サウンドデータ配信サーバが実行する発音地点選択処理を示すフローチャートである。 同サウンドデータ配信サーバが実行するデータ量変換処理を示すフローチャートである。 同サウンドデータ配信サーバによって選択された発音地点の様子を示す図である。 同端末が生成するオーディオ信号による音像定位を説明するための図である。 同音像定位を説明するための図である。 同音像定位を説明するための図である。 本発明の第2実施形態におけるサウンドデータ配信システムの構成を示す図である。 同サウンドデータ配信システムに含まれるサウンドデータ配信サーバに記憶される情報を示す図である。 同サウンドデータ配信サーバに記憶される情報を示す図である。 同サウンドデータ配信システムに含まれるコントロールサーバに記憶される情報を示す図である。 同サウンドデータ配信システムの動作を示すフローチャートである。 本発明の第3実施形態におけるサウンドデータシステムの構成を示す図である。 同端末の構成を示す図である。 同サウンドデータ管理テーブルの内容を例示した図である。 本発明の第4実施形態における端末の構成を示す図である。 本発明の変形例2における端末の構成を示す図である。 同超音波発生器から発生される超音波を説明するための図である。
符号の説明
100,700,800,900…端末、110…制御部、120…指示入力部、130…無線通信部、140…測位部、145…衛星電波受信部、150…方位検出部、160…オーディオ信号生成部、170…加工部、172…パラメータ生成部、173…ディレイパラメータ生成部、174…アンプパラメータ生成部、176…遅延部、178…アンプ、180…混合部、190…オーディオ信号出力部、200…ヘッドフォン、210…方位センサ、220,230…放音部、300,610A,610B,610C…サウンドデータ配信サーバ、310…制御部、320…通信部、330…記憶部、400…衛星群、500…移動通信網、510…基地局、600…コントロールサーバ、710,810…記憶部、720…サウンドデータ管理部、730…受信部、740…送信部記憶部、811…自サウンドデータ記憶部、812…他サウンドデータ記憶部、910…超音波発生器、920…相対距離・方位算出部。

Claims (4)

  1. サウンドシステムを構成する他端末から、当該他端末の属性をあらわす属性情報、当該他端末の位置をあらわす端末位置情報、当該他端末の方位をあらわす方位情報を受信する受信手段と、
    前記サウンドシステムを構成する自端末の位置及び方位を検出する位置・方位検出手段と、
    複数のサウンドデータと各サウンドデータの選択条件とを対応づけて記憶する記憶手段と、
    受信された各情報と前記選択条件との比較結果に基づいて、前記記憶手段からいずれかのサウンドデータを選択する選択手段と、
    前記自端末の位置及び方位を基準として、受信された前記端末位置情報及び方位情報に示される前記他端末の位置及び方位に、選択された前記サウンドデータに対応する音の音像を定位させる定位手段と
    を具備することを特徴とする音像定位端末。
  2. 前記属性情報は、当該他端末を識別するための端末識別情報であり、
    前記各サウンドデータの選択条件は、各サウンドデータに対応する端末識別情報であり、
    前記選択手段は、受信された前記他端末の端末識別情報に対応づけて記憶されているサウンドデータを前記記憶手段から選択することを特徴とする請求項1に記載の音像定位端末。
  3. サウンドシステムを構成する他端末から、当該他端末の位置をあらわす端末位置情報、当該他端末の方位をあらわす方位情報、及びサウンドデータを受信する受信手段と、
    前記サウンドシステムを構成する自端末の位置及び方位を検出する位置・方位検出手段と、
    前記自端末の位置及び方位を基準として、受信された前記端末位置情報及び方位情報に示される前記他端末の位置及び方位に、受信された前記サウンドデータに対応する音の音像を定位させる定位手段と
    を具備することを特徴とする音像定位端末。
  4. サウンドシステムを構成する他端末から、当該他端末の属性をあらわす属性情報を受信する受信手段と、
    複数のサウンドデータと各サウンドデータの選択条件とを対応づけて記憶する記憶手段と、
    受信された各情報と前記選択条件との比較結果に基づいて、前記記憶手段からいずれかのサウンドデータを選択する選択手段と、
    サウンドシステムを構成する自端末と他端末との相対的な距離及び方向を求める相対距離・方向算出手段と、
    前記自端末の位置及び方位を基準として、前記求めた方向に前記求めた距離だけ離れた位置に、選択された前記サウンドデータに対応する音の音像を定位させる定位手段と
    を具備することを特徴とする音像定位端末。
JP2004129970A 2004-04-26 2004-04-26 音像定位端末 Expired - Fee Related JP4529528B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004129970A JP4529528B2 (ja) 2004-04-26 2004-04-26 音像定位端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004129970A JP4529528B2 (ja) 2004-04-26 2004-04-26 音像定位端末

Publications (2)

Publication Number Publication Date
JP2005311974A true JP2005311974A (ja) 2005-11-04
JP4529528B2 JP4529528B2 (ja) 2010-08-25

Family

ID=35440182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004129970A Expired - Fee Related JP4529528B2 (ja) 2004-04-26 2004-04-26 音像定位端末

Country Status (1)

Country Link
JP (1) JP4529528B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117317A (ja) * 2008-11-14 2010-05-27 Yahoo Japan Corp 移動する複数のユーザの位置情報を管理するサーバ、方法、及びシステム
JP2010152570A (ja) * 2008-12-25 2010-07-08 Yamaha Corp ポインティングシステム
WO2022070319A1 (ja) * 2020-09-30 2022-04-07 日本電気株式会社 情報処理装置、制御方法、非一時的なコンピュータ可読媒体、及び情報処理システム
WO2022091177A1 (ja) * 2020-10-26 2022-05-05 株式会社ジェイテクト 音声広告配信システム、方法、プログラム及びユーザ端末

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07244619A (ja) * 1994-01-14 1995-09-19 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示システム
JPH07255044A (ja) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp アニメーション式電子会議室及びビデオ会議システム及びビデオ会議方法
JPH0846704A (ja) * 1994-08-03 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> 仮想空間共有装置
JPH0923275A (ja) * 1995-07-05 1997-01-21 Nippon Telegr & Teleph Corp <Ntt> 仮想空間共有方法およびこの方法を実施する装置
JPH0934868A (ja) * 1995-07-14 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> 分散協同学習支援方法及びシステム
JPH0990963A (ja) * 1995-09-20 1997-04-04 Hitachi Ltd 音情報提供装置、及び音情報選択方法
JPH10333542A (ja) * 1997-05-27 1998-12-18 Sony Corp クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
JP2003006132A (ja) * 2001-06-25 2003-01-10 Matsushita Electric Ind Co Ltd 音声を用いたチャット装置、チャットプログラムおよびチャット方法
WO2003058473A1 (en) * 2002-01-09 2003-07-17 Lake Technology Limited Interactive spatalized audiovisual system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07255044A (ja) * 1993-12-17 1995-10-03 Mitsubishi Electric Corp アニメーション式電子会議室及びビデオ会議システム及びビデオ会議方法
JPH07244619A (ja) * 1994-01-14 1995-09-19 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示システム
JPH0846704A (ja) * 1994-08-03 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> 仮想空間共有装置
JPH0923275A (ja) * 1995-07-05 1997-01-21 Nippon Telegr & Teleph Corp <Ntt> 仮想空間共有方法およびこの方法を実施する装置
JPH0934868A (ja) * 1995-07-14 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> 分散協同学習支援方法及びシステム
JPH0990963A (ja) * 1995-09-20 1997-04-04 Hitachi Ltd 音情報提供装置、及び音情報選択方法
JPH10333542A (ja) * 1997-05-27 1998-12-18 Sony Corp クライアント装置、表示制御方法、共有仮想空間提供装置および方法、並びに提供媒体
JP2003006132A (ja) * 2001-06-25 2003-01-10 Matsushita Electric Ind Co Ltd 音声を用いたチャット装置、チャットプログラムおよびチャット方法
WO2003058473A1 (en) * 2002-01-09 2003-07-17 Lake Technology Limited Interactive spatalized audiovisual system
JP2005514702A (ja) * 2002-01-09 2005-05-19 レイク テクノロジー リミティド 対話型立体的オーディオビジュアル・システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117317A (ja) * 2008-11-14 2010-05-27 Yahoo Japan Corp 移動する複数のユーザの位置情報を管理するサーバ、方法、及びシステム
JP2010152570A (ja) * 2008-12-25 2010-07-08 Yamaha Corp ポインティングシステム
WO2022070319A1 (ja) * 2020-09-30 2022-04-07 日本電気株式会社 情報処理装置、制御方法、非一時的なコンピュータ可読媒体、及び情報処理システム
WO2022091177A1 (ja) * 2020-10-26 2022-05-05 株式会社ジェイテクト 音声広告配信システム、方法、プログラム及びユーザ端末
JP7434595B2 (ja) 2020-10-26 2024-02-20 株式会社ジェイテクト 音声広告配信システム、方法及びプログラム

Also Published As

Publication number Publication date
JP4529528B2 (ja) 2010-08-25

Similar Documents

Publication Publication Date Title
US20150326963A1 (en) Real-time Control Of An Acoustic Environment
JP4438816B2 (ja) サウンドデータ配信システム
CN105637903B (zh) 用于产生声音的系统和方法
EP2922313B1 (en) Audio signal processing device and audio signal processing system
EP2669634A1 (en) A personal navigation system with a hearing device
US20140025287A1 (en) Hearing device providing spoken information on selected points of interest
US20140107916A1 (en) Navigation system with a hearing device
CN101256082B (zh) 使用3d声音方向向导的方法和使用该方法的导航系统
EP2725818A1 (en) A hearing device with a distance measurement unit
US20140219485A1 (en) Personal communications unit for observing from a point of view and team communications system comprising multiple personal communications units for observing from a point of view
US8886451B2 (en) Hearing device providing spoken information on the surroundings
JPWO2006075606A1 (ja) 音案内装置、音案内方法および音案内プログラム
US20170251324A1 (en) Reproducing audio signals in a motor vehicle
JP2007035043A (ja) 受信装置、送信装置、位置認知システム及び位置認知方法
JP4529528B2 (ja) 音像定位端末
JP3982431B2 (ja) サウンドデータ配信システムおよびサウンドデータ配信装置
JP2021131423A (ja) 音声再生装置、音声再生方法および音声再生プログラム
JP4449536B2 (ja) 音量制御装置
JP2010128952A (ja) 受信装置および音声ガイドシステム
JP2018160714A (ja) 音響システム、ヘッドホン装置、スピーカ装置、及び音響出力方法
JP2002044778A (ja) マイクロフォン、マイクロフォンアダプタ、表示装置、ミキサ、拡声システムおよび拡声方法
Villegas et al. GABRIEL: Geo-Aware Broadcasting For In-Vehicle Entertainment And Localizability
JP6668634B2 (ja) 端末装置、端末装置の動作方法およびプログラム
JP6701756B2 (ja) 情報提供システム、情報提供装置、および、情報提供方法
JP5332565B2 (ja) 音声ガイド装置および音声ガイドシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100518

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140618

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees