JP5825176B2 - 携帯端末、音源位置制御方法および音源位置制御プログラム - Google Patents

携帯端末、音源位置制御方法および音源位置制御プログラム Download PDF

Info

Publication number
JP5825176B2
JP5825176B2 JP2012077851A JP2012077851A JP5825176B2 JP 5825176 B2 JP5825176 B2 JP 5825176B2 JP 2012077851 A JP2012077851 A JP 2012077851A JP 2012077851 A JP2012077851 A JP 2012077851A JP 5825176 B2 JP5825176 B2 JP 5825176B2
Authority
JP
Japan
Prior art keywords
sound source
sound
subject
localized
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012077851A
Other languages
English (en)
Other versions
JP2013207759A (ja
Inventor
桂樹 岡林
桂樹 岡林
村瀬 有一
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012077851A priority Critical patent/JP5825176B2/ja
Publication of JP2013207759A publication Critical patent/JP2013207759A/ja
Application granted granted Critical
Publication of JP5825176B2 publication Critical patent/JP5825176B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)

Description

本発明は、携帯端末などに関する。
複数の音源を3次元空間に定位させ、臨場感ある音を再生するシステムとして、サラウンドシステムがある。
例えば、仮想音空間における音源位置と利用者位置とに基づいて音像を定位し、音情報が音源位置から利用者位置に向かって聞こえるかのように加工し、音像定位加工後の音情報をそれぞれ出力するサラウンドシステムの従来技術が開示されている。
特開平9−90963号公報
しかしながら、従来のサラウンドシステムでは、定位された音源の位置を利用者が操作することができないという問題がある。すなわち、従来のサラウンドシステムでは、音源位置と利用者位置に基づいて音像を定位すると、定位した音像の位置を利用者が操作することができない。
開示の技術は、定位された音源の位置を利用者が操作することができることを目的とする。
1つの側面では、携帯端末は、自端末の主体の動作および動作の方向を判定する判定部と、前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部とを有する。
本願の開示する携帯端末の1つの態様によれば、定位された音源の位置を利用者が操作することができる。
図1は、実施例に係る音源位置制御システムの構成を示す機能ブロック図である。 図2は、実施例に係る音源位置制御方式の概念を示す図である。 図3は、実施例に係る音源管理テーブルのデータ構造の一例を示す図である。 図4Aは、音源管理テーブルの遷移を説明する図(1)である。 図4Bは、音源管理テーブルの遷移を説明する図(2)である。 図4Cは、音源管理テーブルの遷移を説明する図(3)である。 図5は、実施例に係る音源位置制御処理の手順を示すフローチャートである。 図6は、ハンドアクションおよび頭部姿勢の検出を説明する図である。 図7は、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を説明する図である。 図8は、音源位置制御プログラムを実行するコンピュータの一例を示す図である。
以下に、本願の開示する携帯端末、音源位置制御方法および音源位置制御プログラムの実施例を図面に基づいて詳細に説明する。なお、実施例では、携帯端末とヘッドフォンとを有する音源位置制御システムに適用した場合について説明するが、この実施例によりこの発明が限定されるものではない。
[音源位置制御システムの構成]
図1は、実施例に係る音源位置制御システムの構成を示す機能ブロック図である。図1に示すように、音源位置制御システム9では、携帯端末1とヘッドフォン2とが接続する。携帯端末1とヘッドフォン2との接続は、無線であっても有線であっても良い。
音源位置制御システム9では、携帯端末1が、自端末の主体の動作および動作の方向を判定し、判定した動作および動作の方向に基づいて、主体を中心とした周囲の空間に仮想的に定位された音源の位置を制御する。そして、携帯端末1は、制御した音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォン2に対して出力する。
このような音源位置制御システム9が実行する音源位置制御方式の概念を、図2を参照して説明する。図2は、実施例に係る音源位置制御方式の概念を示す図である。図2に示すように、主体Pを中心とした周囲の空間に複数の音源S〜Sが定位されている。かかる空間は、主体からの距離の長短に応じて複数の領域に分割されている。ここでは、空間は、主体Pを中心とした同心円上に分割され、主体Pから距離が短い方からフォーカスエリア、ショーケースエリア、デフォーカスエリアに分割されている。「フォーカスエリア」とは、このエリア内の音源のみが再生されるというエリアを意味する。「ショーケースエリア」とは、フォーカスエリア内に音源が存在しない場合、ショーケースエリア内の音源が例えば平均的な音量で再生されるというエリアを意味する。「デフォーカスエリア」とは、フォーカスエリア内に音源が存在しない場合に、デフォーカスエリア内の音源が例えば平均的な音量より小さい音量で再生されるというエリアを意味する。
携帯端末1が、主体Pが注目する音源を1個の動作、例えば手先の動作(以降、ハンドアクションという)で選択したり、選択した音源を領域間で移動させたりする。ハンドアクションには、例えば、掴む動作、押す動作、引く動作、押し飛ばす動作がある。一例として、主体Pが注目する音源がSであるとすると、主体Pがその音源が聞こえる方向に対して掴む動作をする。すると、携帯端末1は、主体Pの掴む動作および掴む動作の方向を判定し、判定した方向の音源Sをフォーカスエリアに移動する。そして、携帯端末1は、フォーカスエリアの音源Sの音のみを再生し、再生した音をヘッドフォン2に出力する。別の例として、主体Pが音源Sの聞こえる方向に対して押す動作をする。すると、携帯端末1は、主体Pの押す動作および押す動作の方向を判定し、判定した方向の音源Sを現在のフォーカスエリアから1つ外側のショーケースエリアに移動する。そして、携帯端末1は、フォーカスエリアに音源が存在しない場合、ショーケースエリア内の音源の音を全て再生する。さらに、主体Pが音源Sの聞こえる方向に対して押す動作をすると、携帯端末1は、主体Pの押す動作および押す動作の方向を判定し、判定した方向の音源Sをショーケースエリアから1つ外側のデフォーカスエリアに移動し、音源Sの音を平均的な音量より小さい音量で再生する。なお、音源S〜Sは空間に仮想的に定位されており、主体Pが首を回転させると、音源S〜Sの位置は、定位処理によって移動する。
[携帯端末の構成]
図1に戻って、携帯端末1は、例えば携帯電話機に対応するが、これに限定されず、PDA(Personal Digital Assistants)、携帯可能なパーソナルコンピュータであっても良い。また、携帯端末1は、記憶部10とジャイロセンサ11と加速度センサ12と地磁気センサ13と入力部14と出力部15とを有する。さらに、携帯端末1は、ハンドアクション計測部16と音源管理部17と定位処理部18と音源選択部19と増幅回路20とミキサ21とSW22と再生部23とを有する。
記憶部10は、例えばフラッシュメモリ(Frash Memory)やFRAM(登録商標)(Ferroelectric Random Access Memory)などの不揮発性の半導体メモリ素子などの記憶装置に対応する。さらに、記憶部10は、音源データ101と音源管理テーブル102とを有する。音源データ101は、定位されていない音源、すなわちモノラル音源のデータである。後述する定位処理部18によって定位される方向として分割される数分の音源のデータが記憶されることが可能である。音源管理テーブル102は、各音源を、定位される方向と領域とに対応付けて管理するテーブルである。なお、音源データ101および音源管理テーブル102のそれぞれの情報は、例えば、音源位置制御処理が実行される際に、これらの情報を管理するサーバからダウンロードされるようにすれば良い。
ここで、音源管理テーブル102のデータ構造について、図3を参照して説明する。図3は、実施例に係る音源管理テーブルのデータ構造の一例を示す図である。図3左図に示すように、音源管理テーブル102は、各音源S〜Sを、各行で表される方向と各列で表される領域とに対応付けて記憶する。方向には、主体を中心として分割された方向が設定される。例えば、主体を中心にして主体正面の右45度の方向をA、右45度から90度の方向をB、右90度から135度の方向をC、右135度から180度の方向をDと設定される。主体を中心にして主体正面の左45度の方向をH、左45度から90度の方向をG、左90度から135度の方向をF、左135度から180度の方向をEと設定される。領域には、フォーカスエリア、ショーケースエリア、デフォーカスエリアおよびデリートエリアが設定される。「デリートエリア」とは、再生されない音源を管理するエリアを意味する。
一例として、図3左図の音源管理テーブル102には、図3右図に示す音源が管理されている。音源Sは、方向Hとフォーカスエリアとに対応付けられる。音源Sは、方向Aとデフォーカスエリアとに対応付けられる。音源Sは、方向Bとデフォーカスエリアとに対応付けられる。音源Sは、方向Cとショーケースエリアとに対応付けられる。音源Sは、方向Dとデリートエリアとに対応付けられる。音源Sは、方向Eとショーケースエリアとに対応付けられる。音源Sは、方向Fとショーケースエリアとに対応付けられる。音源Sは、方向Gとデフォーカスエリアとに対応付けられる。
図1に戻って、ジャイロセンサ11は、角速度を検出する。加速度センサ12は、直交する3軸方向の加速度を検出する。地磁気センサ13は、方位を検出する。入力部14は、例えば後述する出力部15に出力されたボタンを押下し、タッチパネル(もしくはキーボード、マウス、マイク)に対応する。出力部15は、例えば各種ボタンを出力し、ディスプレイ(もしくはモニタ)に対応する。
ハンドアクション計測部16は、ジャイロセンサ11、加速度センサ12、地磁気センサ13、入力部14および出力部15を用いて、主体のハンドアクションおよびハンドアクションの方向を計測する。計測するハンドアクションは、例えば、掴む動作、押す動作、引く動作、押し飛ばす動作である。掴む動作は、例えば出力部15に出力される「掴む」ボタンが押下されることで実現される。「掴む」ボタンは、例えば携帯端末1のアプリケーションによって作成されることが可能である。なお、ハンドアクション計測部16は、判定部の一例として挙げられる。
音源管理部17は、ハンドアクション計測部16によって計測されたハンドアクションの方向に基づいて、空間に仮想的に定位された音源を選択し、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源の位置を移動させる。なお、音源管理部17は、位置制御部の一例として挙げられる。
例えば、音源管理部17は、音源管理テーブル102に記憶された音源の中から、ハンドアクション計測部16によって計測されたハンドアクションの方向に対応する音源を選択する。そして、音源管理部17は、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源を、音源管理テーブル102に管理された領域から異なる領域へ移動させる。一例として、音源管理部17は、ハンドアクションが「掴む」の場合、選択した音源をショーケースエリアからフォーカスエリアに移動させる。また、音源管理部17は、ハンドアクションが「押す」の場合、選択した音源を1つ外側の領域に移動させる。また、音源管理部17は、ハンドアクションが「引く」の場合、選択した音源を1つ内側の領域に移動させる。また、音源管理部17は、ハンドアクションが「押し飛ばす」の場合、選択した音源を削除すべく、デリートエリアに移動させる。そして、音源管理部17は、選択した音源を、移動させた領域と当該音源の方向とに対応付けるように、音源管理テーブル102を更新する。
また、音源管理部17は、音源管理テーブル102に記憶された、各音源の方向を後述する定位処理部18に通知する。また、音源管理部17は、音源管理テーブル102に記憶された、各音源の領域を後述する音源選択部19に通知する。また、音源管理部17は、音源管理テーブル102を用いて、フォーカスエリアにいずれかの音源があるか否かを判定する。そして、音源管理部17は、フォーカスエリアにいずれかの音源があると判定した場合、フォーカスエリアの音源を再生する方にスイッチを切り替えるように、後述するSW22に指示する。一方、音源管理部17は、フォーカスエリアにいずれの音源がないと判定した場合、ショーケースエリアおよびデフォーカスエリアの音源を再生する方にスイッチを切り替えるように、後述するSW22に指示する。
定位処理部18は、モノラルの各音源を各音源の方向にしたがって定位させ、各音源についてステレオ出力を取得する。例えば、定位処理部18は、後述する頭部姿勢検出装置31から主体の頭部の姿勢データを受信する。姿勢データには、例えば頭部の正面方向を示す絶対角度を含む。そして、定位処理部18は、受信した姿勢データに含まれる頭部の正面方向と、音源管理部17から通知された各音源の方向ごとの伝達特性(頭部伝達関数)とに基づいて、各音源を定位させる。そして、定位処理部18は、定位させた各音源についてステレオ出力を取得し、取得した各音源のステレオ出力を音源選択部19に出力する。なお、定位処理部18は、伝達特性(頭部伝達関数)を用いて各音源を定位させるものとして説明したが、これに限定されるものではなく、各音源を定位させることが可能ないかなる技術を用いても良い。
音源選択部19は、各音源のステレオ出力を、音源管理部17から通知された各音源の領域にしたがってミキシングする。例えば、音源選択部19は、フォーカスエリアの音源のステレオ出力を後述する増幅回路20に出力する。また、音源選択部19は、ショーケースエリアの音源のステレオ出力を増幅回路20に、デフォーカスエリアの音源のステレオ出力を増幅回路20に出力する。
増幅回路20には、フォーカスエリアの音源を増幅する増幅回路20とショーケースエリアの音源を増幅する増幅回路20とデフォーカスエリアの音源を増幅する増幅回路20とがある。増幅回路20と増幅回路20のゲインaは、増幅回路20のゲインbよりも大きい。したがって、増幅回路20および増幅回路20で増幅された音源のステレオ出力は、増幅回路20で増幅された音源のステレオ出力よりも大きい音量となる。そして、増幅回路20は、増幅された音源のステレオ出力をSW22に出力する。増幅回路20および増幅回路20は、それぞれ増幅された音源のステレオ出力をミキサ21に出力する。
ミキサ21は、増幅回路20および増幅回路20から出力された各音源のステレオ出力をまとめて(ミキシングして)SW22に出力する。すなわち、ミキサ21は、ショーケースエリアの音源およびデフォーカスエリアの音源をミキシングする。この結果、主体は、ヘッドフォン2を介してショーケースエリアおよびデフォーカスエリアの各音源の方向から同時に各音源の音を聞くことになる。
SW22は、音源管理部17からの切り替え指示に基づいて、スイッチを切り替える。例えば、SW22は、音源管理部17によって、フォーカスエリア側の音源を再生する方にスイッチを切り替えるように指示されると、スイッチを増幅回路20につながる方に切り替える。また、SW22は、音源管理部17によって、ショーケースエリア側およびデフォーカスエリア側の音源を再生する方にスイッチを切り替えるように指示されると、スイッチをミキサ21につながる方に切り替える。
再生部23は、音源管理部17によって制御された各音源の位置、すなわち各音源の領域に基づいて、各音源をヘッドフォン出力に再生する。例えば、再生部23は、SW22によってフォーカスエリア側から出力されると、出力される音源のステレオ出力をヘッドフォン出力に再生する。また、再生部23は、SW22によってショーケースエリア側およびデフォーカスエリア側、すなわちミキサ21から出力されると、出力される各音源のステレオ出力をヘッドフォン出力に再生する。すなわち、再生部23は、ショーケースエリアおよびデフォーカスエリアの各音源がミキシングされた出力をヘッドフォン出力に再生する。
[ヘッドフォンの構成]
ヘッドフォン2は、耳に装着して音を聴くための装置である。さらに、ヘッドフォン2は、頭部姿勢検出装置31と出力装置32とを有する。頭部姿勢検出装置31は、ヘッドフォン2を装着している主体の頭部の姿勢データを検出し、検出した姿勢データを携帯端末1に送信する。例えば、頭部姿勢検出装置31は、ジャイロセンサを用いて、主体の頭部の姿勢データを検出するようにすれば良い。なお、頭部姿勢検出装置31は、ヘッドフォン2の内部に有すると説明したが、これに限定されず、ヘッドフォン2の外部に有するとしても良い。
出力装置32は、再生部23によって再生されたヘッドフォン出力をヘッドフォン2の外部に出力する。
[音源管理テーブルの遷移]
次に、主体がハンドアクションで選択した音源がエリアを移動することによって音源管理テーブル102が変化する様子を示す。図4A〜図4Cは、音源管理テーブルの遷移を説明する図である。図4Aでは、主体(ここでは人)が音源Sを掴んで引く動作をした場合の遷移について説明し、図4Bでは、主体が音源Sを押し飛ばす動作をした場合の遷移について説明し、図4Cでは、初期状態から主体が音源Sを引く動作をした場合の遷移について説明する。
図4Aの上図に示すように、音源管理テーブル102には、音源SがH方向とフォーカスエリアとに対応付けて管理されている。このような場合、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえる。そして、主体PがハンドアクションでF方向の音源Sを掴んで引く動作をしたとする。すると、図4Aの下図に示すように、音源管理テーブル102では、ショーケースエリアにあった音源Sがフォーカスエリアに移動すると同時に、フォーカスエリアにあった音源Sがショーケースエリアに移動する。すなわち、音源管理部17は、掴んで引く動作の方向Fに対応する音源Sを選択する。そして、音源管理部17は、掴んで引く動作に基づいて、選択した音源Sを、ショーケースエリアの内側のフォーカスエリアに移動させる。これと同時に、音源管理部17は、フォーカスエリアにあった音源Sをショーケースエリアに移動させる。これによって、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえるようになる。
また、図4Bの上図に示すように、音源管理テーブル102には、音源SがF方向とフォーカスエリアとに対応付けて管理されている。このような場合、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえる。そして、主体PがハンドアクションでF方向の音源Sを押し飛ばす動作をしたとする。すると、図4Bの下図に示すように、音源管理テーブル102では、フォーカスエリアにあった音源Sがデリートエリアに移動する。すなわち、音源管理部17は、押し飛ばす動作の方向Fに対応する音源Sを選択する。そして、音源管理部17は、押し飛ばす動作に基づいて、選択した音源Sを、デリートエリアに移動させる。これによって、携帯端末1は、フォーカスエリアにある音源が存在しなくなるので、ショーケースエリアにある音源S、S、Sをミキシングして再生し、主体Pは音源S、S、Sの各音について聞こえるようになる。
また、図4Cの上図に示すように、音源管理テーブル102には、初期状態として、各音源S〜Sがショーケースエリアに対応付けて管理されている。このような場合、携帯端末1はショーケースエリア内の全ての音源S〜Sをミキシングして再生し、主体Pは音源S〜Sの各音について聞こえる。そして、主体PがハンドアクションでG方向の音源Sを引く動作をしたとする。すると、図4Cの下図に示すように、音源管理テーブル102では、ショーケースエリアにあった音源Sがフォーカスエリアに移動する。すなわち、音源管理部17は、引く動作の方向Gに対応する音源Sを選択する。そして、音源管理部17は、引く動作に基づいて、選択した音源Sを、フォーカスエリアに移動させる。これによって、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえるようになる。
[音源位置制御処理の手順]
次に、音源位置制御処理の手順について、図5を参照して説明する。図5は、音源位置制御処理の手順を示すフローチャートである。なお、各音源の定位は、定位処理部18によって行われたものとする。
まず、音源位置制御処理が開始されると、音源管理部17は、音源管理テーブル102を確認する(ステップS11)。そして、音源管理部17は、確認の結果、フォーカスエリアに音源はあるか否かを判定する(ステップS12)。フォーカスエリアに音源はあると判定した場合(ステップS12;Yes)、音源管理部17は、スイッチをフォーカスエリア側に切り替えるようにSW22に指示する(ステップS13)。すなわち、音源管理部17は、フォーカスエリアの音源を再生する方にスイッチを切り替えるように、SW22に指示する。そして、処理は、ステップS15に移行する。
一方、フォーカスエリアに音源はないと判定した場合(ステップS12;No)、音源管理部17は、スイッチをミキサ21側に切り替えるようにSW22に指示する(ステップS14)。すなわち、音源管理部17は、ショーケースエリアおよびデフォーカスエリアの音源を再生する方にスイッチを切り替えるように、SW22に指示する。そして、処理は、ステップS15に移行する。
ステップS15では、再生部23が、再生処理を行う(ステップS15)。すなわち、再生部23は、スイッチがフォーカスエリア側である場合、フォーカスエリアの音源のステレオ出力をヘッドフォン出力に再生する。一方、再生部23は、スイッチがミキサ21側である場合、ショーケースエリアおよびデフォーカスエリアの各音源のステレオ出力がミキシングされた出力をヘッドフォン出力に再生する。その後、再生部23は、再生したヘッドフォン出力をヘッドフォン2に出力する。
続いて、音源管理部17は、ハンドアクションのイベントを待つ(ステップS16)。音源管理部17は、ハンドアクションのイベントがあったか否かを判定する(ステップS17)。ハンドアクションのイベントがないと判定した場合(ステップS17;No)、音源管理部17は、ハンドアクションのイベントを待つべく、ステップS16に移行する。
一方、ハンドアクションのイベントがあると判定した場合(ステップS17;Yes)、音源管理部17は、イベントが示すハンドアクションに基づいて、音源管理テーブル102を更新する(ステップS18)。例えば、音源管理部17は、ハンドアクションがされた方向に対応する音源を選択する。そして、音源管理部17は、選択した音源を、音源管理テーブル102に管理された領域からハンドアクションに基づいた領域に移動させる。そして、音源管理部17は、選択した音源を、移動させた領域と当該音源の方向とに対応付けるように、音源管理テーブル102を更新する。
そして、音源管理部17は、音源管理テーブル102に基づいた音源位置制御をすべく、ステップS11に移行する。
[ハンドアクションおよび頭部姿勢の検出]
次に、ハンドアクションおよび頭部姿勢の検出について、図6を参照して説明する。図6は、ハンドアクションおよび頭部姿勢の検出を説明する図である。図6に示すように、主体Pが持っている携帯端末1の画面に、選択ボタンb1、掴むボタンb2、ナビ開始ボタンb3が表示されている。また、主体Pは、頭部姿勢検出装置31を備えるヘッドフォン2を頭部に装着している。
かかる状況下で、携帯端末1のハンドアクション計測部16は、ハンドアクションを、携帯端末1の画面と、携帯端末1に内蔵する加速度センサ12(図示なし)とを用いて計測する。例えば、ハンドアクション計測部16は、「掴む」動作を、携帯端末1の画面上の掴むボタンb2を主体Pが押下したことを検出することで認識する。また、ハンドアクション計測部16は、「引く」、「押す」、「押し飛ばす」のそれぞれの動作を、加速度センサ12の方向と加速度の大きさとから計測する。そして、ハンドアクション計測部16は、計測した結果によりそれぞれの動作を認識する。
ハンドアクション計測部16は、音源の方向を、携帯端末1の図示しない地磁気センサ13やジャイロセンサ11を用いて計測する。また、頭部姿勢検出装置31は、自装置に内蔵するジャイロセンサ(図示せず)を用いて、頭部の姿勢を計測し、計測した頭部の姿勢データを携帯端末1に送信する。そして、携帯端末1の定位処理部18は、頭部の姿勢に連動して、音源データ101の各音源を定位させる。
[音源位置制御方式の用途]
次に、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を、図7を参照して説明する。図7は、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を説明する図である。なお、展示会場となる部屋に合わせた音源管理テーブル102および音源データ101が予め展示ナビゲーションシステムのサーバ(図示せず)に登録されているとする。そして、音源管理テーブル102には、初期状態として、各展示1〜8に関わる音源がショーケースエリアに対応付けて管理されている。
まず、サーバは、人Pが所有する携帯端末1が展示会場の音源ダウンロード区間Qに入ったのを検知して、展示会場となる部屋に対応する音源管理テーブル102および音源データ101を人Pの携帯端末1にダウンロードする。そして、携帯端末1は、音源位置制御方式における音源の再生を開始する。すなわち、携帯端末1は、音源管理テーブル102および音源データ101に基づいて、ショーケースエリアの各音源を再生する。
そして、人Pは部屋の中央に立ち、ハンドアクションを使って音源を選択する。例えば、人Pは、興味を持った音源について、図6の携帯端末1の画面上の掴むボタンb2を押下し、さらに選択ボタンb1を押下することで、この音源の選択を確定する。選択した音源は、ショーケースエリアからフォーカスエリアに移動する音源となる。人Pは、この操作を繰り返し、興味を持った複数の音源を選択する。そして、人Pが、図6の携帯端末1の画面上のナビ開始ボタンb3を押下することで、ナビゲーションが開始される。すなわち、携帯端末1は、選択した音源を、順次、ショーケースエリアからフォーカスエリアに移動し、フォーカスエリアの音源を再生する。
なお、携帯端末1は、予め定められた案内ルートをサーバから取り込み、取り込んだ案内ルートに基づいて、選択した音源を順番に再生するようにしても良い。また、ナビゲーションの開始の際には、携帯端末1は、人Pのプロフィールデータを展示説明員側に転送するようにし、人Pは、個人にカスタマイズされた説明を受けることも可能である。
[実施例の効果]
上記実施例によれば、携帯端末1は、自端末の主体の動作および動作の方向を判定し、判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する。そして、携帯端末1は、音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォン2に出力する。かかる構成によれば、携帯端末1は、空間に仮想的に定位された音源の位置を主体の動作によって制御するので、定位された音源の位置を主体が操作することができる。この結果、携帯端末1は、操作後の音源の位置に基づいた音源の音の再生をすることが可能となる。
また、上記実施例によれば、携帯端末1は、判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、判定された動作に基づいて、選択した音源の位置を移動させる。かかる構成によれば、携帯端末1は、主体の直感的な動作により注目する音源を選択したり、さらに移動させたりすることができ、移動後の音源の位置に基づいた再生をすることが可能となる。
また、上記実施例によれば、携帯端末1では、音源管理テーブル102が、主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位された音源を管理する。そして、携帯端末1は、音源管理テーブル102に管理された音源の中から、判定された動作の方向に対応する音源を選択し、判定された動作に基づいて、選択した音源を、音源管理テーブル102によって管理された領域から異なる領域へ移動させる。かかる構成によれば、携帯端末1は、主体の動作によって領域から領域へ移動させた音源を、移動後の領域に基づいて再生することが可能となる。
[プログラムなど]
なお、実施例では、ハンドアクション計測部16が、計測するハンドアクションとして、掴む動作、押す動作、引く動作、押し飛ばす動作を計測するとして説明した。しかしながら、ハンドアクション計測部16は、これらに限定されず、音源を移動させられる動作であってジャイロセンサ11、加速度センサ12、地磁気センサ13などを用いて計測可能な動作であればいかなる動作であっても良い。これにより、携帯端末1では、定位された音源の位置を、主体がきめ細かく操作することができる。
また、実施例では、ハンドアクション計測部16は、ハンドアクション、すなわち手先の動作を計測するとして説明した。しかしながら、ハンドアクション計測部16は、これに限定されず、手先の代わりに、足先、足全体、胴体、頭部の動作を計測するようにしても良い。かかる場合、利用者は、ハンドアクション計測部16を有する携帯端末1を、動作を計測することとなる部位に装着するようにすれば良い。これにより、音源位置制御方式は、用途を汎用化できる。
また、実施例では、音源位置制御システム9は、携帯端末1とヘッドフォン2とを備えるものと説明した。しかしながら、音源位置制御システム9は、これに限定されず、サーバを含む構成としても良い。例えば、サーバが、主体(携帯端末)毎の音源管理テーブル102を管理するようにする。この場合、音源管理部17が、ハンドアクション計測部16によって計測されたハンドアクションの方向に基づいて、空間に仮想的に定位された音源を選択する。そして、音源管理部17が、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源の位置を移動させるべく、サーバの音源管理テーブル102を更新する。そして、音源管理部17は、自端末に関する音源管理テーブル102の情報をサーバに問い合わせ、エリア毎の音源の情報を取得する。この結果、音源管理部17は、取得したエリア毎の音源の情報に基づいて、SW22および音源選択部19を制御することができる。また、サーバが、ハンドアクション計測部16を有するものとしても良く、音源管理部17を有するものとしても良く、携帯端末1と連携して音源位置制御処理を実現できれば良い。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、入力部14と出力部15とを1個の部として統合しても良い。一方、音源管理部17を、音源を選択する音源選択部と選択した音源を移動させる音源移動部とに分散しても良い。また、音源データ101および音源管理テーブル102などの記憶部を携帯端末1の外部装置としてネットワーク経由で接続するようにしても良い。
また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した携帯端末1と同様の機能を実現する音源位置制御プログラムを実行するコンピュータの一例を説明する。図8は、音源位置制御プログラムを実行するコンピュータの一例を示す図である。
図8に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、音源位置制御プログラム207a、音源位置制御関連情報207bを記憶する。CPU201は、音源位置制御プログラム207aを読み出して、RAM206に展開する。音源位置制御プログラム207aは、音源位置制御プロセス206aとして機能する。
例えば、音源位置制御プロセス206aは、ハンドアクション計測部16、音源管理部17、定位処理部18および音源選択部19に対応する。
なお、音源位置制御プログラム207aについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから音源位置制御プログラム207aを読み出して実行するようにしても良い。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部と
を有することを特徴とする携帯端末。
(付記2)前記位置制御部は、前記判定部によって判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源の位置を移動させることを特徴とする付記1に記載の携帯端末。
(付記3)前記位置制御部は、
主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位される音源を管理する管理テーブルと、
前記管理テーブルに管理された音源の中から、前記判定部によって判定された動作の方向に対応する音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源を、管理テーブルによって管理された領域から異なる領域へ移動させる移動部と
を有することを特徴とする付記2に記載の携帯端末。
(付記4)コンピュータが、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行することを特徴とする音源位置制御方法。
(付記5)コンピュータに、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行させることを特徴とする音源位置制御プログラム。
(付記6)携帯端末と、該携帯端末と接続するヘッドフォンとを有し、
前記携帯端末は、
自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生する再生部とを有し、
前記ヘッドフォンは、
前再生部によって再生された音を出力する出力部
を有することを特徴とする音源位置制御システム。
1 携帯端末
2 ヘッドフォン
10 記憶部
101 音源データ
102 音源管理テーブル
11 ジャイロセンサ
12 加速度センサ
13 地磁気センサ
14 入力部
15 出力部
16 ハンドアクション計測部
17 音源管理部
18 定位処理部
19 音源選択部
20 増幅回路
21 ミキサ
22 SW
23 再生部
31 頭部姿勢検出装置
32 出力装置

Claims (5)

  1. 主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方位にそれぞれ定位される音源を管理する管理部と、
    自端末の主体の動作および動作の方位を判定する判定部と、
    前記判定部によって判定された動作および動作の方位に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
    前記位置制御部によって制御された音源が主体から最短距離の領域に定位される場合には、当該音源の音のみを再生し、該制御された音源が主体から最短距離の領域と最長距離の領域との間の中間領域に定位される場合には、最短距離の領域にいずれの音源も定位されていなければ、中間領域に定位された全ての音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部と
    を有することを特徴とする携帯端末。
  2. 前記位置制御部は、前記判定部によって判定された動作の方位に基づいて、空間に仮想的に定位された音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源の位置を移動させることを特徴とする請求項1に記載の携帯端末。
  3. 前記位置制御部は、
    主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方位にそれぞれ定位される音源を管理する管理テーブルと、
    前記管理テーブルに管理された音源の中から、前記判定部によって判定された動作の方位に対応する音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源を、前記管理テーブルによって管理された領域から異なる領域へ移動させる移動部と
    を有することを特徴とする請求項2に記載の携帯端末。
  4. コンピュータが、
    主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方位にそれぞれ定位される音源を管理し、
    自端末の主体の動作および動作の方位を判定し、
    前記判定する処理によって判定された動作および動作の方位に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
    前記位置を制御する処理によって制御された音源主体から最短距離の領域に定位される場合には、当該音源の音のみを再生し、該制御された音源が主体から最短距離の領域と最長距離の領域との間の中間領域に定位される場合には、最短距離の領域にいずれの音源も定位されていなければ、中間領域に定位された全ての音源の音を再生し、再生した音をヘッドフォンに対して出力する
    処理を実行することを特徴とする音源位置制御方法。
  5. コンピュータに、
    主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方位にそれぞれ定位される音源を管理し、
    自端末の主体の動作および動作の方位を判定し、
    前記判定する処理によって判定された動作および動作の方位に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
    前記位置を制御する処理によって制御された音源が主体から最短距離の領域に定位される場合には、当該音源の音のみを再生し、該制御された音源が主体から最短距離の領域と最長距離の領域との間の中間領域に定位される場合には、最短距離の領域にいずれの音源も定位されていなければ、中間領域に定位された全ての音源の音を再生し、再生した音をヘッドフォンに対して出力する
    処理を実行させることを特徴とする音源位置制御プログラム。
JP2012077851A 2012-03-29 2012-03-29 携帯端末、音源位置制御方法および音源位置制御プログラム Active JP5825176B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012077851A JP5825176B2 (ja) 2012-03-29 2012-03-29 携帯端末、音源位置制御方法および音源位置制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012077851A JP5825176B2 (ja) 2012-03-29 2012-03-29 携帯端末、音源位置制御方法および音源位置制御プログラム

Publications (2)

Publication Number Publication Date
JP2013207759A JP2013207759A (ja) 2013-10-07
JP5825176B2 true JP5825176B2 (ja) 2015-12-02

Family

ID=49526402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012077851A Active JP5825176B2 (ja) 2012-03-29 2012-03-29 携帯端末、音源位置制御方法および音源位置制御プログラム

Country Status (1)

Country Link
JP (1) JP5825176B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6194740B2 (ja) * 2013-10-17 2017-09-13 富士通株式会社 音声処理装置、音声処理方法、及びプログラム
US10585486B2 (en) 2014-01-03 2020-03-10 Harman International Industries, Incorporated Gesture interactive wearable spatial audio system
JP2017532920A (ja) * 2014-08-26 2017-11-02 ブラックマジック デザイン ピーティーワイ リミテッドBlackmagic Design Pty Ltd 3次元空間において音像を定位し、制御するための方法及びシステム
JP6651231B2 (ja) * 2015-10-19 2020-02-19 このみ 一色 携帯情報端末、情報処理装置、及びプログラム
US10440496B2 (en) * 2016-04-12 2019-10-08 Koninklijke Philips N.V. Spatial audio processing emphasizing sound sources close to a focal distance
EP3489821A1 (en) * 2017-11-27 2019-05-29 Nokia Technologies Oy A user interface for user selection of sound objects for rendering, and/or a method for rendering a user interface for user selection of sound objects for rendering
GB2584838A (en) * 2019-06-11 2020-12-23 Nokia Technologies Oy Sound field related rendering

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3834848B2 (ja) * 1995-09-20 2006-10-18 株式会社日立製作所 音情報提供装置、及び音情報選択方法
JP4729917B2 (ja) * 2004-12-16 2011-07-20 ヤマハ株式会社 携帯情報処理装置
WO2006137400A1 (ja) * 2005-06-21 2006-12-28 Japan Science And Technology Agency ミキシング装置及び方法並びにプログラム
JP4837512B2 (ja) * 2006-09-29 2011-12-14 独立行政法人科学技術振興機構 音源選択装置

Also Published As

Publication number Publication date
JP2013207759A (ja) 2013-10-07

Similar Documents

Publication Publication Date Title
JP5825176B2 (ja) 携帯端末、音源位置制御方法および音源位置制御プログラム
JP6668661B2 (ja) パラメータ制御装置およびパラメータ制御プログラム
US20090282335A1 (en) Electronic device with 3d positional audio function and method
JP6322830B2 (ja) 情報処理装置、情報処理プログラム、情報処理システム、および情報処理方法
JP2019068446A (ja) 再生デバイスのキャリブレーション
JP2014002748A (ja) 遠隔制御装置及びその制御方法
JP2009514316A (ja) 位置及び接触を利用した装置を制御するためのシステム及び方法
JP2010205394A (ja) 音源再生装置及び音源選択再生方法
CN107210950A (zh) 用于共享用户交互的设备
JP2005286903A (ja) 音響再生装置、音響再生システム、音響再生方法及び制御プログラム並びにこのプログラムを記録した情報記録媒体
TW201029345A (en) Remote controller and function-setting and operating method of the same
JP2018532628A (ja) セルフバランスカーの制御方法、装置、プログラム及び記録媒体
CN111886881B (zh) 信号处理装置、声道设置方法、记录介质以及扬声器系统
JP6608254B2 (ja) 録音機器、アドバイス出力方法およびプログラム
JP4569573B2 (ja) 映像表示装置、再生装置用リモートコントローラおよび再生装置
JP5912940B2 (ja) 評価装置、評価方法、プログラム、ならびに、システム
JP5370051B2 (ja) 情報処理装置
KR100574045B1 (ko) 멀티미디어 콘텐츠 재생장치 및 재생방법
KR101686876B1 (ko) 입체음을 이용한 모바일 리듬 게임 장치 및 방법
JP2012164225A (ja) ユーザーインターフェイス装置
JP6993774B2 (ja) 音声出力制御装置
JP6138031B2 (ja) カラオケ用マイクロホン
JP2007139918A (ja) 表示画像制御装置、表示画像制御方法、表示画像制御システムおよび表示画像制御プログラム
JP5812531B2 (ja) 機能実行装置、機能実行方法、およびプログラム
CN104662506A (zh) 数据处理装置及其程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R150 Certificate of patent or registration of utility model

Ref document number: 5825176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150