JP2013207759A - Portable terminal, sound source position control method, and sound source position control program - Google Patents
Portable terminal, sound source position control method, and sound source position control program Download PDFInfo
- Publication number
- JP2013207759A JP2013207759A JP2012077851A JP2012077851A JP2013207759A JP 2013207759 A JP2013207759 A JP 2013207759A JP 2012077851 A JP2012077851 A JP 2012077851A JP 2012077851 A JP2012077851 A JP 2012077851A JP 2013207759 A JP2013207759 A JP 2013207759A
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- sound
- unit
- subject
- position control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stereophonic System (AREA)
Abstract
Description
本発明は、携帯端末などに関する。 The present invention relates to a portable terminal and the like.
複数の音源を3次元空間に定位させ、臨場感ある音を再生するシステムとして、サラウンドシステムがある。 There is a surround system as a system that reproduces sound with a sense of presence by localizing a plurality of sound sources in a three-dimensional space.
例えば、仮想音空間における音源位置と利用者位置とに基づいて音像を定位し、音情報が音源位置から利用者位置に向かって聞こえるかのように加工し、音像定位加工後の音情報をそれぞれ出力するサラウンドシステムの従来技術が開示されている。 For example, the sound image is localized based on the sound source position and the user position in the virtual sound space, the sound information is processed as if it is heard from the sound source position toward the user position, and the sound information after the sound image localization process is respectively processed. The prior art of the output surround system is disclosed.
しかしながら、従来のサラウンドシステムでは、定位された音源の位置を利用者が操作することができないという問題がある。すなわち、従来のサラウンドシステムでは、音源位置と利用者位置に基づいて音像を定位すると、定位した音像の位置を利用者が操作することができない。 However, the conventional surround system has a problem that the user cannot operate the position of the localized sound source. That is, in the conventional surround system, if the sound image is localized based on the sound source position and the user position, the user cannot operate the position of the localized sound image.
開示の技術は、定位された音源の位置を利用者が操作することができることを目的とする。 An object of the disclosed technique is to allow a user to operate the position of a localized sound source.
1つの側面では、携帯端末は、自端末の主体の動作および動作の方向を判定する判定部と、前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部とを有する。 In one aspect, the mobile terminal virtually determines in the space around the subject based on the determination unit that determines the operation and the direction of the operation of the subject terminal, and the operation and the direction of the operation determined by the determination unit. A position control unit that controls the position of the sound source localized in the position, a reproduction unit that reproduces the sound of the sound source based on the position of the sound source controlled by the position control unit, and outputs the reproduced sound to the headphones; Have
本願の開示する携帯端末の1つの態様によれば、定位された音源の位置を利用者が操作することができる。 According to one aspect of the mobile terminal disclosed in the present application, the user can operate the position of the localized sound source.
以下に、本願の開示する携帯端末、音源位置制御方法および音源位置制御プログラムの実施例を図面に基づいて詳細に説明する。なお、実施例では、携帯端末とヘッドフォンとを有する音源位置制御システムに適用した場合について説明するが、この実施例によりこの発明が限定されるものではない。 Hereinafter, embodiments of a mobile terminal, a sound source position control method, and a sound source position control program disclosed in the present application will be described in detail with reference to the drawings. In addition, although an Example demonstrates the case where it applies to the sound source position control system which has a portable terminal and headphones, this invention is not limited by this Example.
[音源位置制御システムの構成]
図1は、実施例に係る音源位置制御システムの構成を示す機能ブロック図である。図1に示すように、音源位置制御システム9では、携帯端末1とヘッドフォン2とが接続する。携帯端末1とヘッドフォン2との接続は、無線であっても有線であっても良い。
[Configuration of sound source position control system]
FIG. 1 is a functional block diagram illustrating the configuration of the sound source position control system according to the embodiment. As shown in FIG. 1, in the sound source position control system 9, the mobile terminal 1 and the
音源位置制御システム9では、携帯端末1が、自端末の主体の動作および動作の方向を判定し、判定した動作および動作の方向に基づいて、主体を中心とした周囲の空間に仮想的に定位された音源の位置を制御する。そして、携帯端末1は、制御した音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォン2に対して出力する。
In the sound source position control system 9, the mobile terminal 1 determines the operation of the subject of the terminal itself and the direction of the operation, and is virtually localized in the surrounding space around the subject based on the determined operation and the direction of the operation. Control the position of the generated sound source. Then, the mobile terminal 1 reproduces the sound of the sound source based on the controlled position of the sound source, and outputs the reproduced sound to the
このような音源位置制御システム9が実行する音源位置制御方式の概念を、図2を参照して説明する。図2は、実施例に係る音源位置制御方式の概念を示す図である。図2に示すように、主体Pを中心とした周囲の空間に複数の音源S1〜S8が定位されている。かかる空間は、主体からの距離の長短に応じて複数の領域に分割されている。ここでは、空間は、主体Pを中心とした同心円上に分割され、主体Pから距離が短い方からフォーカスエリア、ショーケースエリア、デフォーカスエリアに分割されている。「フォーカスエリア」とは、このエリア内の音源のみが再生されるというエリアを意味する。「ショーケースエリア」とは、フォーカスエリア内に音源が存在しない場合、ショーケースエリア内の音源が例えば平均的な音量で再生されるというエリアを意味する。「デフォーカスエリア」とは、フォーカスエリア内に音源が存在しない場合に、デフォーカスエリア内の音源が例えば平均的な音量より小さい音量で再生されるというエリアを意味する。 The concept of the sound source position control method executed by the sound source position control system 9 will be described with reference to FIG. FIG. 2 is a diagram illustrating the concept of the sound source position control method according to the embodiment. As shown in FIG. 2, a plurality of sound sources S 1 to S 8 are localized in a surrounding space around the main body P. Such a space is divided into a plurality of regions according to the length of the distance from the subject. Here, the space is divided into concentric circles with the subject P as the center, and is divided into a focus area, a showcase area, and a defocus area from a shorter distance from the subject P. “Focus area” means an area where only the sound sources in this area are played. The “showcase area” means an area where a sound source in the showcase area is reproduced at an average volume, for example, when no sound source exists in the focus area. The “defocus area” means an area where the sound source in the defocus area is reproduced at a volume lower than the average volume when no sound source exists in the focus area.
携帯端末1が、主体Pが注目する音源を1個の動作、例えば手先の動作(以降、ハンドアクションという)で選択したり、選択した音源を領域間で移動させたりする。ハンドアクションには、例えば、掴む動作、押す動作、引く動作、押し飛ばす動作がある。一例として、主体Pが注目する音源がS1であるとすると、主体Pがその音源が聞こえる方向に対して掴む動作をする。すると、携帯端末1は、主体Pの掴む動作および掴む動作の方向を判定し、判定した方向の音源S1をフォーカスエリアに移動する。そして、携帯端末1は、フォーカスエリアの音源S1の音のみを再生し、再生した音をヘッドフォン2に出力する。別の例として、主体Pが音源S1の聞こえる方向に対して押す動作をする。すると、携帯端末1は、主体Pの押す動作および押す動作の方向を判定し、判定した方向の音源S1を現在のフォーカスエリアから1つ外側のショーケースエリアに移動する。そして、携帯端末1は、フォーカスエリアに音源が存在しない場合、ショーケースエリア内の音源の音を全て再生する。さらに、主体Pが音源S1の聞こえる方向に対して押す動作をすると、携帯端末1は、主体Pの押す動作および押す動作の方向を判定し、判定した方向の音源S1をショーケースエリアから1つ外側のデフォーカスエリアに移動し、音源S1の音を平均的な音量より小さい音量で再生する。なお、音源S1〜S8は空間に仮想的に定位されており、主体Pが首を回転させると、音源S1〜S8の位置は、定位処理によって移動する。
The mobile terminal 1 selects a sound source that the subject P is interested in by one action, for example, a hand action (hereinafter referred to as a hand action), or moves the selected sound source between areas. Hand actions include, for example, a grabbing action, a pushing action, a pulling action, and a pushing action. As an example, the sound source entity P is noted When a S 1, the operation of grasping the direction in which principal P is the sound can be heard. Then, the mobile terminal 1 determines the direction of operation and gripping operation grabbing the entity P, and move the sound source S 1 of the determined direction to the focus area. Then, the portable terminal 1 reproduces only the sound of the sound source S 1 in the focus area, and outputs the reproduced sound to the
[携帯端末の構成]
図1に戻って、携帯端末1は、例えば携帯電話機に対応するが、これに限定されず、PDA(Personal Digital Assistants)、携帯可能なパーソナルコンピュータであっても良い。また、携帯端末1は、記憶部10とジャイロセンサ11と加速度センサ12と地磁気センサ13と入力部14と出力部15とを有する。さらに、携帯端末1は、ハンドアクション計測部16と音源管理部17と定位処理部18と音源選択部19と増幅回路20とミキサ21とSW22と再生部23とを有する。
[Configuration of mobile terminal]
Returning to FIG. 1, the mobile terminal 1 corresponds to, for example, a mobile phone, but is not limited thereto, and may be a PDA (Personal Digital Assistants) or a portable personal computer. The portable terminal 1 includes a
記憶部10は、例えばフラッシュメモリ(Frash Memory)やFRAM(登録商標)(Ferroelectric Random Access Memory)などの不揮発性の半導体メモリ素子などの記憶装置に対応する。さらに、記憶部10は、音源データ101と音源管理テーブル102とを有する。音源データ101は、定位されていない音源、すなわちモノラル音源のデータである。後述する定位処理部18によって定位される方向として分割される数分の音源のデータが記憶されることが可能である。音源管理テーブル102は、各音源を、定位される方向と領域とに対応付けて管理するテーブルである。なお、音源データ101および音源管理テーブル102のそれぞれの情報は、例えば、音源位置制御処理が実行される際に、これらの情報を管理するサーバからダウンロードされるようにすれば良い。
The
ここで、音源管理テーブル102のデータ構造について、図3を参照して説明する。図3は、実施例に係る音源管理テーブルのデータ構造の一例を示す図である。図3左図に示すように、音源管理テーブル102は、各音源S1〜S8を、各行で表される方向と各列で表される領域とに対応付けて記憶する。方向には、主体を中心として分割された方向が設定される。例えば、主体を中心にして主体正面の右45度の方向をA、右45度から90度の方向をB、右90度から135度の方向をC、右135度から180度の方向をDと設定される。主体を中心にして主体正面の左45度の方向をH、左45度から90度の方向をG、左90度から135度の方向をF、左135度から180度の方向をEと設定される。領域には、フォーカスエリア、ショーケースエリア、デフォーカスエリアおよびデリートエリアが設定される。「デリートエリア」とは、再生されない音源を管理するエリアを意味する。 Here, the data structure of the sound source management table 102 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a data structure of a sound source management table according to the embodiment. As shown in the left diagram of FIG. 3, the sound source management table 102 stores the sound sources S 1 to S 8 in association with the direction represented by each row and the region represented by each column. As the direction, a direction divided about the subject is set. For example, with the subject as the center, the direction 45 degrees to the right in front of the subject is A, the direction 45 degrees to 90 degrees right is B, the direction 90 degrees to 135 degrees right is C, and the direction 135 degrees to 180 degrees is D Is set. Centered around the subject, the left 45 ° direction on the subject's front is set to H, the left 45 ° to 90 ° direction is set to G, the left 90 ° to 135 ° direction is set to F, and the left 135 ° to 180 ° direction is set to E. Is done. A focus area, a showcase area, a defocus area, and a delete area are set in the area. The “delete area” means an area for managing sound sources that are not reproduced.
一例として、図3左図の音源管理テーブル102には、図3右図に示す音源が管理されている。音源S1は、方向Hとフォーカスエリアとに対応付けられる。音源S2は、方向Aとデフォーカスエリアとに対応付けられる。音源S3は、方向Bとデフォーカスエリアとに対応付けられる。音源S4は、方向Cとショーケースエリアとに対応付けられる。音源S5は、方向Dとデリートエリアとに対応付けられる。音源S6は、方向Eとショーケースエリアとに対応付けられる。音源S7は、方向Fとショーケースエリアとに対応付けられる。音源S8は、方向Gとデフォーカスエリアとに対応付けられる。 As an example, the sound source management table 102 in the left diagram of FIG. 3 manages the sound sources shown in the right diagram of FIG. Source S 1 is associated with the direction H and the focus area. Source S 2 is associated with the direction A and the de-focus area. Source S 3 is associated with the direction B and the defocus area. Tone S 4 is associated with the direction C and the showcase area. Tone S 5 is associated with the direction D and delete area. Sound source S 6 is associated with the direction E and showcase area. Sound source S 7 is associated with the direction F and showcase area. Tone S 8 is associated with the direction G and the defocus area.
図1に戻って、ジャイロセンサ11は、角速度を検出する。加速度センサ12は、直交する3軸方向の加速度を検出する。地磁気センサ13は、方位を検出する。入力部14は、例えば後述する出力部15に出力されたボタンを押下し、タッチパネル(もしくはキーボード、マウス、マイク)に対応する。出力部15は、例えば各種ボタンを出力し、ディスプレイ(もしくはモニタ)に対応する。
Returning to FIG. 1, the
ハンドアクション計測部16は、ジャイロセンサ11、加速度センサ12、地磁気センサ13、入力部14および出力部15を用いて、主体のハンドアクションおよびハンドアクションの方向を計測する。計測するハンドアクションは、例えば、掴む動作、押す動作、引く動作、押し飛ばす動作である。掴む動作は、例えば出力部15に出力される「掴む」ボタンが押下されることで実現される。「掴む」ボタンは、例えば携帯端末1のアプリケーションによって作成されることが可能である。なお、ハンドアクション計測部16は、判定部の一例として挙げられる。
The hand
音源管理部17は、ハンドアクション計測部16によって計測されたハンドアクションの方向に基づいて、空間に仮想的に定位された音源を選択し、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源の位置を移動させる。なお、音源管理部17は、位置制御部の一例として挙げられる。
The sound
例えば、音源管理部17は、音源管理テーブル102に記憶された音源の中から、ハンドアクション計測部16によって計測されたハンドアクションの方向に対応する音源を選択する。そして、音源管理部17は、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源を、音源管理テーブル102に管理された領域から異なる領域へ移動させる。一例として、音源管理部17は、ハンドアクションが「掴む」の場合、選択した音源をショーケースエリアからフォーカスエリアに移動させる。また、音源管理部17は、ハンドアクションが「押す」の場合、選択した音源を1つ外側の領域に移動させる。また、音源管理部17は、ハンドアクションが「引く」の場合、選択した音源を1つ内側の領域に移動させる。また、音源管理部17は、ハンドアクションが「押し飛ばす」の場合、選択した音源を削除すべく、デリートエリアに移動させる。そして、音源管理部17は、選択した音源を、移動させた領域と当該音源の方向とに対応付けるように、音源管理テーブル102を更新する。
For example, the sound
また、音源管理部17は、音源管理テーブル102に記憶された、各音源の方向を後述する定位処理部18に通知する。また、音源管理部17は、音源管理テーブル102に記憶された、各音源の領域を後述する音源選択部19に通知する。また、音源管理部17は、音源管理テーブル102を用いて、フォーカスエリアにいずれかの音源があるか否かを判定する。そして、音源管理部17は、フォーカスエリアにいずれかの音源があると判定した場合、フォーカスエリアの音源を再生する方にスイッチを切り替えるように、後述するSW22に指示する。一方、音源管理部17は、フォーカスエリアにいずれの音源がないと判定した場合、ショーケースエリアおよびデフォーカスエリアの音源を再生する方にスイッチを切り替えるように、後述するSW22に指示する。
The sound
定位処理部18は、モノラルの各音源を各音源の方向にしたがって定位させ、各音源についてステレオ出力を取得する。例えば、定位処理部18は、後述する頭部姿勢検出装置31から主体の頭部の姿勢データを受信する。姿勢データには、例えば頭部の正面方向を示す絶対角度を含む。そして、定位処理部18は、受信した姿勢データに含まれる頭部の正面方向と、音源管理部17から通知された各音源の方向ごとの伝達特性(頭部伝達関数)とに基づいて、各音源を定位させる。そして、定位処理部18は、定位させた各音源についてステレオ出力を取得し、取得した各音源のステレオ出力を音源選択部19に出力する。なお、定位処理部18は、伝達特性(頭部伝達関数)を用いて各音源を定位させるものとして説明したが、これに限定されるものではなく、各音源を定位させることが可能ないかなる技術を用いても良い。
The
音源選択部19は、各音源のステレオ出力を、音源管理部17から通知された各音源の領域にしたがってミキシングする。例えば、音源選択部19は、フォーカスエリアの音源のステレオ出力を後述する増幅回路201に出力する。また、音源選択部19は、ショーケースエリアの音源のステレオ出力を増幅回路202に、デフォーカスエリアの音源のステレオ出力を増幅回路203に出力する。
The sound
増幅回路20には、フォーカスエリアの音源を増幅する増幅回路201とショーケースエリアの音源を増幅する増幅回路202とデフォーカスエリアの音源を増幅する増幅回路203とがある。増幅回路201と増幅回路202のゲインaは、増幅回路203のゲインbよりも大きい。したがって、増幅回路201および増幅回路202で増幅された音源のステレオ出力は、増幅回路203で増幅された音源のステレオ出力よりも大きい音量となる。そして、増幅回路201は、増幅された音源のステレオ出力をSW22に出力する。増幅回路202および増幅回路203は、それぞれ増幅された音源のステレオ出力をミキサ21に出力する。
The
ミキサ21は、増幅回路202および増幅回路203から出力された各音源のステレオ出力をまとめて(ミキシングして)SW22に出力する。すなわち、ミキサ21は、ショーケースエリアの音源およびデフォーカスエリアの音源をミキシングする。この結果、主体は、ヘッドフォン2を介してショーケースエリアおよびデフォーカスエリアの各音源の方向から同時に各音源の音を聞くことになる。
SW22は、音源管理部17からの切り替え指示に基づいて、スイッチを切り替える。例えば、SW22は、音源管理部17によって、フォーカスエリア側の音源を再生する方にスイッチを切り替えるように指示されると、スイッチを増幅回路201につながる方に切り替える。また、SW22は、音源管理部17によって、ショーケースエリア側およびデフォーカスエリア側の音源を再生する方にスイッチを切り替えるように指示されると、スイッチをミキサ21につながる方に切り替える。
The
再生部23は、音源管理部17によって制御された各音源の位置、すなわち各音源の領域に基づいて、各音源をヘッドフォン出力に再生する。例えば、再生部23は、SW22によってフォーカスエリア側から出力されると、出力される音源のステレオ出力をヘッドフォン出力に再生する。また、再生部23は、SW22によってショーケースエリア側およびデフォーカスエリア側、すなわちミキサ21から出力されると、出力される各音源のステレオ出力をヘッドフォン出力に再生する。すなわち、再生部23は、ショーケースエリアおよびデフォーカスエリアの各音源がミキシングされた出力をヘッドフォン出力に再生する。
The
[ヘッドフォンの構成]
ヘッドフォン2は、耳に装着して音を聴くための装置である。さらに、ヘッドフォン2は、頭部姿勢検出装置31と出力装置32とを有する。頭部姿勢検出装置31は、ヘッドフォン2を装着している主体の頭部の姿勢データを検出し、検出した姿勢データを携帯端末1に送信する。例えば、頭部姿勢検出装置31は、ジャイロセンサを用いて、主体の頭部の姿勢データを検出するようにすれば良い。なお、頭部姿勢検出装置31は、ヘッドフォン2の内部に有すると説明したが、これに限定されず、ヘッドフォン2の外部に有するとしても良い。
[Headphone configuration]
The
出力装置32は、再生部23によって再生されたヘッドフォン出力をヘッドフォン2の外部に出力する。
The output device 32 outputs the headphone output reproduced by the reproducing
[音源管理テーブルの遷移]
次に、主体がハンドアクションで選択した音源がエリアを移動することによって音源管理テーブル102が変化する様子を示す。図4A〜図4Cは、音源管理テーブルの遷移を説明する図である。図4Aでは、主体(ここでは人)が音源S7を掴んで引く動作をした場合の遷移について説明し、図4Bでは、主体が音源S7を押し飛ばす動作をした場合の遷移について説明し、図4Cでは、初期状態から主体が音源S8を引く動作をした場合の遷移について説明する。
[Transition of sound source management table]
Next, how the sound source management table 102 changes as the sound source selected by the subject by hand action moves in the area is shown. 4A to 4C are diagrams for explaining transition of the sound source management table. 4A describes the transition when the subject (here, a person) grabs and pulls the sound source S 7 , and FIG. 4B describes the transition when the subject performs the action of pushing the sound source S 7 , in Figure 4C, mainly from the initial state will be described transition in a case where the operation to pull the sound source S 8.
図4Aの上図に示すように、音源管理テーブル102には、音源S1がH方向とフォーカスエリアとに対応付けて管理されている。このような場合、携帯端末1はフォーカスエリアの音源S1のみ再生し、主体Pは音源S1の音のみ聞こえる。そして、主体PがハンドアクションでF方向の音源S7を掴んで引く動作をしたとする。すると、図4Aの下図に示すように、音源管理テーブル102では、ショーケースエリアにあった音源S7がフォーカスエリアに移動すると同時に、フォーカスエリアにあった音源S1がショーケースエリアに移動する。すなわち、音源管理部17は、掴んで引く動作の方向Fに対応する音源S7を選択する。そして、音源管理部17は、掴んで引く動作に基づいて、選択した音源S7を、ショーケースエリアの内側のフォーカスエリアに移動させる。これと同時に、音源管理部17は、フォーカスエリアにあった音源S1をショーケースエリアに移動させる。これによって、携帯端末1はフォーカスエリアの音源S7のみ再生し、主体Pは音源S7の音のみ聞こえるようになる。
As shown in the upper diagram of FIG. 4A, the sound source management table 102, the sound source S 1 it is managed in association with the H direction and the focus area. In such a case, the mobile terminal 1 is to play only sound source S 1 of the focus area, subject P is heard only the sound of the sound source S 1. And, as a main component P has an operation to pull grabbed the F direction of the sound source S 7 in the hand action. Then, as shown in the lower portion of FIG. 4A, the sound source management table 102, the sound source S 7 that were in the showcase area at the same time moves the focus area, the sound source S 1 that has been in the focus area is moved to the showcase area. That is, the sound
また、図4Bの上図に示すように、音源管理テーブル102には、音源S7がF方向とフォーカスエリアとに対応付けて管理されている。このような場合、携帯端末1はフォーカスエリアの音源S7のみ再生し、主体Pは音源S7の音のみ聞こえる。そして、主体PがハンドアクションでF方向の音源S7を押し飛ばす動作をしたとする。すると、図4Bの下図に示すように、音源管理テーブル102では、フォーカスエリアにあった音源S7がデリートエリアに移動する。すなわち、音源管理部17は、押し飛ばす動作の方向Fに対応する音源S7を選択する。そして、音源管理部17は、押し飛ばす動作に基づいて、選択した音源S7を、デリートエリアに移動させる。これによって、携帯端末1は、フォーカスエリアにある音源が存在しなくなるので、ショーケースエリアにある音源S1、S4、S6をミキシングして再生し、主体Pは音源S1、S4、S6の各音について聞こえるようになる。
Further, as shown in the upper diagram in FIG. 4B, the sound source management table 102, the sound source S 7 is managed in association with the F direction and the focus area. In such a case, the mobile terminal 1 is to play only sound source S 7 of the focus area, subject P is heard only the sound of the sound source S 7. Then, it is assumed that the operations subject P is skip Press the F direction of the sound source S 7 in the hand action. Then, as shown in the lower portion of FIG. 4B, the sound source management table 102, the sound source S 7 that were in focus area moves to delete area. That is, the sound
また、図4Cの上図に示すように、音源管理テーブル102には、初期状態として、各音源S1〜S8がショーケースエリアに対応付けて管理されている。このような場合、携帯端末1はショーケースエリア内の全ての音源S1〜S8をミキシングして再生し、主体Pは音源S1〜S8の各音について聞こえる。そして、主体PがハンドアクションでG方向の音源S8を引く動作をしたとする。すると、図4Cの下図に示すように、音源管理テーブル102では、ショーケースエリアにあった音源S8がフォーカスエリアに移動する。すなわち、音源管理部17は、引く動作の方向Gに対応する音源S8を選択する。そして、音源管理部17は、引く動作に基づいて、選択した音源S8を、フォーカスエリアに移動させる。これによって、携帯端末1はフォーカスエリアの音源S8のみ再生し、主体Pは音源S8の音のみ聞こえるようになる。
4C, the sound source management table 102 manages the sound sources S 1 to S 8 in association with the showcase area as an initial state. In such a case, the portable terminal 1 mixes and reproduces all the sound sources S 1 to S 8 in the showcase area, and the main body P can hear each sound of the sound sources S 1 to S 8 . And, as a main component P has an operation to pull the G direction of the sound source S 8 in the hand action. Then, as shown in the lower portion of FIG. 4C, the sound source management table 102, the sound source S 8 that was in the showcase area is moved to the focus area. That is, the sound
[音源位置制御処理の手順]
次に、音源位置制御処理の手順について、図5を参照して説明する。図5は、音源位置制御処理の手順を示すフローチャートである。なお、各音源の定位は、定位処理部18によって行われたものとする。
[Sound source position control procedure]
Next, the procedure of the sound source position control process will be described with reference to FIG. FIG. 5 is a flowchart showing the procedure of the sound source position control process. Note that localization of each sound source is performed by the
まず、音源位置制御処理が開始されると、音源管理部17は、音源管理テーブル102を確認する(ステップS11)。そして、音源管理部17は、確認の結果、フォーカスエリアに音源はあるか否かを判定する(ステップS12)。フォーカスエリアに音源はあると判定した場合(ステップS12;Yes)、音源管理部17は、スイッチをフォーカスエリア側に切り替えるようにSW22に指示する(ステップS13)。すなわち、音源管理部17は、フォーカスエリアの音源を再生する方にスイッチを切り替えるように、SW22に指示する。そして、処理は、ステップS15に移行する。
First, when the sound source position control process is started, the sound
一方、フォーカスエリアに音源はないと判定した場合(ステップS12;No)、音源管理部17は、スイッチをミキサ21側に切り替えるようにSW22に指示する(ステップS14)。すなわち、音源管理部17は、ショーケースエリアおよびデフォーカスエリアの音源を再生する方にスイッチを切り替えるように、SW22に指示する。そして、処理は、ステップS15に移行する。
On the other hand, when it is determined that there is no sound source in the focus area (step S12; No), the sound
ステップS15では、再生部23が、再生処理を行う(ステップS15)。すなわち、再生部23は、スイッチがフォーカスエリア側である場合、フォーカスエリアの音源のステレオ出力をヘッドフォン出力に再生する。一方、再生部23は、スイッチがミキサ21側である場合、ショーケースエリアおよびデフォーカスエリアの各音源のステレオ出力がミキシングされた出力をヘッドフォン出力に再生する。その後、再生部23は、再生したヘッドフォン出力をヘッドフォン2に出力する。
In step S15, the
続いて、音源管理部17は、ハンドアクションのイベントを待つ(ステップS16)。音源管理部17は、ハンドアクションのイベントがあったか否かを判定する(ステップS17)。ハンドアクションのイベントがないと判定した場合(ステップS17;No)、音源管理部17は、ハンドアクションのイベントを待つべく、ステップS16に移行する。
Subsequently, the sound
一方、ハンドアクションのイベントがあると判定した場合(ステップS17;Yes)、音源管理部17は、イベントが示すハンドアクションに基づいて、音源管理テーブル102を更新する(ステップS18)。例えば、音源管理部17は、ハンドアクションがされた方向に対応する音源を選択する。そして、音源管理部17は、選択した音源を、音源管理テーブル102に管理された領域からハンドアクションに基づいた領域に移動させる。そして、音源管理部17は、選択した音源を、移動させた領域と当該音源の方向とに対応付けるように、音源管理テーブル102を更新する。
On the other hand, if it is determined that there is a hand action event (step S17; Yes), the sound
そして、音源管理部17は、音源管理テーブル102に基づいた音源位置制御をすべく、ステップS11に移行する。
Then, the sound
[ハンドアクションおよび頭部姿勢の検出]
次に、ハンドアクションおよび頭部姿勢の検出について、図6を参照して説明する。図6は、ハンドアクションおよび頭部姿勢の検出を説明する図である。図6に示すように、主体Pが持っている携帯端末1の画面に、選択ボタンb1、掴むボタンb2、ナビ開始ボタンb3が表示されている。また、主体Pは、頭部姿勢検出装置31を備えるヘッドフォン2を頭部に装着している。
[Hand action and head posture detection]
Next, detection of a hand action and a head posture will be described with reference to FIG. FIG. 6 is a diagram for explaining detection of a hand action and a head posture. As shown in FIG. 6, a selection button b1, a grabbing button b2, and a navigation start button b3 are displayed on the screen of the portable terminal 1 held by the subject P. In addition, the subject P wears the
かかる状況下で、携帯端末1のハンドアクション計測部16は、ハンドアクションを、携帯端末1の画面と、携帯端末1に内蔵する加速度センサ12(図示なし)とを用いて計測する。例えば、ハンドアクション計測部16は、「掴む」動作を、携帯端末1の画面上の掴むボタンb2を主体Pが押下したことを検出することで認識する。また、ハンドアクション計測部16は、「引く」、「押す」、「押し飛ばす」のそれぞれの動作を、加速度センサ12の方向と加速度の大きさとから計測する。そして、ハンドアクション計測部16は、計測した結果によりそれぞれの動作を認識する。
Under such circumstances, the hand
ハンドアクション計測部16は、音源の方向を、携帯端末1の図示しない地磁気センサ13やジャイロセンサ11を用いて計測する。また、頭部姿勢検出装置31は、自装置に内蔵するジャイロセンサ(図示せず)を用いて、頭部の姿勢を計測し、計測した頭部の姿勢データを携帯端末1に送信する。そして、携帯端末1の定位処理部18は、頭部の姿勢に連動して、音源データ101の各音源を定位させる。
The hand
[音源位置制御方式の用途]
次に、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を、図7を参照して説明する。図7は、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を説明する図である。なお、展示会場となる部屋に合わせた音源管理テーブル102および音源データ101が予め展示ナビゲーションシステムのサーバ(図示せず)に登録されているとする。そして、音源管理テーブル102には、初期状態として、各展示1〜8に関わる音源がショーケースエリアに対応付けて管理されている。
[Use of sound source position control method]
Next, the case where the sound source position control method according to the embodiment is used in the exhibition navigation system will be described with reference to FIG. FIG. 7 is a diagram for explaining a case where the sound source position control method according to the embodiment is used in an exhibition navigation system. It is assumed that the sound source management table 102 and the
まず、サーバは、人P0が所有する携帯端末1が展示会場の音源ダウンロード区間Qに入ったのを検知して、展示会場となる部屋に対応する音源管理テーブル102および音源データ101を人P0の携帯端末1にダウンロードする。そして、携帯端末1は、音源位置制御方式における音源の再生を開始する。すなわち、携帯端末1は、音源管理テーブル102および音源データ101に基づいて、ショーケースエリアの各音源を再生する。
First, the server detects that the portable terminal 1 owned by the person P 0 has entered the sound source download section Q of the exhibition hall, and obtains the sound source management table 102 and the
そして、人P0は部屋の中央に立ち、ハンドアクションを使って音源を選択する。例えば、人P0は、興味を持った音源について、図6の携帯端末1の画面上の掴むボタンb2を押下し、さらに選択ボタンb1を押下することで、この音源の選択を確定する。選択した音源は、ショーケースエリアからフォーカスエリアに移動する音源となる。人P0は、この操作を繰り返し、興味を持った複数の音源を選択する。そして、人P0が、図6の携帯端末1の画面上のナビ開始ボタンb3を押下することで、ナビゲーションが開始される。すなわち、携帯端末1は、選択した音源を、順次、ショーケースエリアからフォーカスエリアに移動し、フォーカスエリアの音源を再生する。 Then, the person P 0 stands in the center of the room and selects a sound source using a hand action. For example, the person P 0 presses the button b2 to be grasped on the screen of the portable terminal 1 in FIG. 6 and presses the selection button b1 for the sound source that is interested, thereby confirming the selection of the sound source. The selected sound source is a sound source that moves from the showcase area to the focus area. The person P 0 repeats this operation and selects a plurality of sound sources that are interested. Then, the navigation starts when the person P 0 presses the navigation start button b3 on the screen of the mobile terminal 1 of FIG. That is, the mobile terminal 1 sequentially moves the selected sound source from the showcase area to the focus area, and reproduces the sound source in the focus area.
なお、携帯端末1は、予め定められた案内ルートをサーバから取り込み、取り込んだ案内ルートに基づいて、選択した音源を順番に再生するようにしても良い。また、ナビゲーションの開始の際には、携帯端末1は、人P0のプロフィールデータを展示説明員側に転送するようにし、人P0は、個人にカスタマイズされた説明を受けることも可能である。 Note that the mobile terminal 1 may take a predetermined guide route from the server and play the selected sound sources in order based on the taken guide route. At the start of navigation, the portable terminal 1 transfers the profile data of the person P 0 to the exhibition instructor side, and the person P 0 can receive an explanation customized to the individual. .
[実施例の効果]
上記実施例によれば、携帯端末1は、自端末の主体の動作および動作の方向を判定し、判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する。そして、携帯端末1は、音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォン2に出力する。かかる構成によれば、携帯端末1は、空間に仮想的に定位された音源の位置を主体の動作によって制御するので、定位された音源の位置を主体が操作することができる。この結果、携帯端末1は、操作後の音源の位置に基づいた音源の音の再生をすることが可能となる。
[Effect of Example]
According to the above-described embodiment, the mobile terminal 1 determines the action of the subject of the terminal itself and the direction of the action, and is virtually localized in the space around the subject based on the determined action and the direction of action. Control the position of the sound source. Then, the mobile terminal 1 reproduces the sound of the sound source based on the position of the sound source, and outputs the reproduced sound to the
また、上記実施例によれば、携帯端末1は、判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、判定された動作に基づいて、選択した音源の位置を移動させる。かかる構成によれば、携帯端末1は、主体の直感的な動作により注目する音源を選択したり、さらに移動させたりすることができ、移動後の音源の位置に基づいた再生をすることが可能となる。 Further, according to the above embodiment, the mobile terminal 1 selects a sound source virtually localized in the space based on the determined direction of the operation, and the position of the selected sound source based on the determined operation. Move. According to such a configuration, the mobile terminal 1 can select or further move the sound source of interest by the intuitive operation of the subject, and can reproduce based on the position of the moved sound source It becomes.
また、上記実施例によれば、携帯端末1では、音源管理テーブル102が、主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位された音源を管理する。そして、携帯端末1は、音源管理テーブル102に管理された音源の中から、判定された動作の方向に対応する音源を選択し、判定された動作に基づいて、選択した音源を、音源管理テーブル102によって管理された領域から異なる領域へ移動させる。かかる構成によれば、携帯端末1は、主体の動作によって領域から領域へ移動させた音源を、移動後の領域に基づいて再生することが可能となる。 Further, according to the above embodiment, in the mobile terminal 1, the sound source management table 102 is localized in a plurality of directions around the subject for each of a plurality of regions into which the space is divided according to the distance from the subject. Manage the generated sound source. Then, the mobile terminal 1 selects a sound source corresponding to the determined direction of operation from the sound sources managed in the sound source management table 102, and selects the selected sound source based on the determined operation. The area managed by 102 is moved to a different area. According to such a configuration, the mobile terminal 1 can reproduce the sound source that has been moved from region to region by the subject's action based on the moved region.
[プログラムなど]
なお、実施例では、ハンドアクション計測部16が、計測するハンドアクションとして、掴む動作、押す動作、引く動作、押し飛ばす動作を計測するとして説明した。しかしながら、ハンドアクション計測部16は、これらに限定されず、音源を移動させられる動作であってジャイロセンサ11、加速度センサ12、地磁気センサ13などを用いて計測可能な動作であればいかなる動作であっても良い。これにより、携帯端末1では、定位された音源の位置を、主体がきめ細かく操作することができる。
[Programs]
In the embodiment, the hand
また、実施例では、ハンドアクション計測部16は、ハンドアクション、すなわち手先の動作を計測するとして説明した。しかしながら、ハンドアクション計測部16は、これに限定されず、手先の代わりに、足先、足全体、胴体、頭部の動作を計測するようにしても良い。かかる場合、利用者は、ハンドアクション計測部16を有する携帯端末1を、動作を計測することとなる部位に装着するようにすれば良い。これにより、音源位置制御方式は、用途を汎用化できる。
In the embodiment, the hand
また、実施例では、音源位置制御システム9は、携帯端末1とヘッドフォン2とを備えるものと説明した。しかしながら、音源位置制御システム9は、これに限定されず、サーバを含む構成としても良い。例えば、サーバが、主体(携帯端末)毎の音源管理テーブル102を管理するようにする。この場合、音源管理部17が、ハンドアクション計測部16によって計測されたハンドアクションの方向に基づいて、空間に仮想的に定位された音源を選択する。そして、音源管理部17が、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源の位置を移動させるべく、サーバの音源管理テーブル102を更新する。そして、音源管理部17は、自端末に関する音源管理テーブル102の情報をサーバに問い合わせ、エリア毎の音源の情報を取得する。この結果、音源管理部17は、取得したエリア毎の音源の情報に基づいて、SW22および音源選択部19を制御することができる。また、サーバが、ハンドアクション計測部16を有するものとしても良く、音源管理部17を有するものとしても良く、携帯端末1と連携して音源位置制御処理を実現できれば良い。
In the embodiment, the sound source position control system 9 is described as including the mobile terminal 1 and the
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、入力部14と出力部15とを1個の部として統合しても良い。一方、音源管理部17を、音源を選択する音源選択部と選択した音源を移動させる音源移動部とに分散しても良い。また、音源データ101および音源管理テーブル102などの記憶部を携帯端末1の外部装置としてネットワーク経由で接続するようにしても良い。
It should be noted that each component of each illustrated apparatus does not necessarily have to be physically configured as illustrated. That is, the specific mode of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the input unit 14 and the
また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した携帯端末1と同様の機能を実現する音源位置制御プログラムを実行するコンピュータの一例を説明する。図8は、音源位置制御プログラムを実行するコンピュータの一例を示す図である。 The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a sound source position control program that realizes the same function as the portable terminal 1 shown in FIG. 1 will be described. FIG. 8 is a diagram illustrating an example of a computer that executes a sound source position control program.
図8に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。そして、各装置201〜207は、バス208に接続される。
As shown in FIG. 8, the
ハードディスク装置207は、音源位置制御プログラム207a、音源位置制御関連情報207bを記憶する。CPU201は、音源位置制御プログラム207aを読み出して、RAM206に展開する。音源位置制御プログラム207aは、音源位置制御プロセス206aとして機能する。
The hard disk device 207 stores a sound source position control program 207a and sound source position control
例えば、音源位置制御プロセス206aは、ハンドアクション計測部16、音源管理部17、定位処理部18および音源選択部19に対応する。
For example, the sound source position control process 206 a corresponds to the hand
なお、音源位置制御プログラム207aについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから音源位置制御プログラム207aを読み出して実行するようにしても良い。
Note that the sound source position control program 207a is not necessarily stored in the hard disk device 207 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部と
を有することを特徴とする携帯端末。
(Additional remark 1) The determination part which determines the operation | movement of the main body of an own terminal, and the direction of operation,
A position control unit that controls the position of the sound source virtually localized in the space around the subject based on the motion and the direction of motion determined by the determination unit;
A portable terminal comprising: a reproduction unit that reproduces sound of a sound source based on the position of the sound source controlled by the position control unit, and outputs the reproduced sound to headphones.
(付記2)前記位置制御部は、前記判定部によって判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源の位置を移動させることを特徴とする付記1に記載の携帯端末。 (Additional remark 2) The said position control part selects the sound source virtually localized in space based on the direction of the operation | movement determined by the said determination part, and selects based on the operation | movement determined by the said determination part The mobile terminal according to appendix 1, wherein the position of the sound source is moved.
(付記3)前記位置制御部は、
主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位される音源を管理する管理テーブルと、
前記管理テーブルに管理された音源の中から、前記判定部によって判定された動作の方向に対応する音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源を、管理テーブルによって管理された領域から異なる領域へ移動させる移動部と
を有することを特徴とする付記2に記載の携帯端末。
(Supplementary Note 3) The position control unit
A management table for managing sound sources localized in a plurality of directions around the subject for each of a plurality of regions divided in space according to the length of the distance from the subject;
The sound source corresponding to the direction of the operation determined by the determination unit is selected from the sound sources managed in the management table, and the selected sound source is selected by the management table based on the operation determined by the determination unit. The mobile terminal according to
(付記4)コンピュータが、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行することを特徴とする音源位置制御方法。
(Appendix 4) The computer
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control method, comprising: executing a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.
(付記5)コンピュータに、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行させることを特徴とする音源位置制御プログラム。
(Appendix 5)
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control program that executes a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.
(付記6)携帯端末と、該携帯端末と接続するヘッドフォンとを有し、
前記携帯端末は、
自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生する再生部とを有し、
前記ヘッドフォンは、
前再生部によって再生された音を出力する出力部
を有することを特徴とする音源位置制御システム。
(Additional remark 6) It has a portable terminal and the headphones connected with this portable terminal,
The portable terminal is
A determination unit that determines the operation of the subject terminal and the direction of the operation;
A position control unit that controls the position of the sound source virtually localized in the space around the subject based on the motion and the direction of motion determined by the determination unit;
Based on the position of the sound source controlled by the position control unit, and a reproduction unit that reproduces the sound of the sound source,
The headphones are
A sound source position control system comprising an output unit that outputs sound reproduced by a previous reproduction unit.
1 携帯端末
2 ヘッドフォン
10 記憶部
101 音源データ
102 音源管理テーブル
11 ジャイロセンサ
12 加速度センサ
13 地磁気センサ
14 入力部
15 出力部
16 ハンドアクション計測部
17 音源管理部
18 定位処理部
19 音源選択部
20 増幅回路
21 ミキサ
22 SW
23 再生部
31 頭部姿勢検出装置
32 出力装置
DESCRIPTION OF SYMBOLS 1
23
Claims (5)
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部と
を有することを特徴とする携帯端末。 A determination unit that determines the operation of the subject terminal and the direction of the operation;
A position control unit that controls the position of the sound source virtually localized in the space around the subject based on the motion and the direction of motion determined by the determination unit;
A portable terminal comprising: a reproduction unit that reproduces sound of a sound source based on the position of the sound source controlled by the position control unit, and outputs the reproduced sound to headphones.
主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位される音源を管理する管理テーブルと、
前記管理テーブルに管理された音源の中から、前記判定部によって判定された動作の方向に対応する音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源を、管理テーブルによって管理された領域から異なる領域へ移動させる移動部と
を有することを特徴とする請求項2に記載の携帯端末。 The position controller is
A management table for managing sound sources localized in a plurality of directions around the subject for each of a plurality of regions divided in space according to the length of the distance from the subject;
The sound source corresponding to the direction of the operation determined by the determination unit is selected from the sound sources managed in the management table, and the selected sound source is selected by the management table based on the operation determined by the determination unit. The mobile terminal according to claim 2, further comprising a moving unit that moves the managed area to a different area.
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行することを特徴とする音源位置制御方法。 Computer
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control method, comprising: executing a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行させることを特徴とする音源位置制御プログラム。 On the computer,
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control program that executes a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012077851A JP5825176B2 (en) | 2012-03-29 | 2012-03-29 | Portable terminal, sound source position control method, and sound source position control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012077851A JP5825176B2 (en) | 2012-03-29 | 2012-03-29 | Portable terminal, sound source position control method, and sound source position control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013207759A true JP2013207759A (en) | 2013-10-07 |
JP5825176B2 JP5825176B2 (en) | 2015-12-02 |
Family
ID=49526402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012077851A Active JP5825176B2 (en) | 2012-03-29 | 2012-03-29 | Portable terminal, sound source position control method, and sound source position control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5825176B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015080087A (en) * | 2013-10-17 | 2015-04-23 | 富士通株式会社 | Sound processing device, sound processing method, and program |
JP2015143987A (en) * | 2014-01-03 | 2015-08-06 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | In-vehicle gesture interactive spatial audio system |
JP2017079457A (en) * | 2015-10-19 | 2017-04-27 | このみ 一色 | Portable information terminal, information processing apparatus, and program |
JP2019514293A (en) * | 2016-04-12 | 2019-05-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Spatial audio processing to emphasize sound sources close to the focal distance |
JP2019097162A (en) * | 2017-11-27 | 2019-06-20 | ノキア テクノロジーズ オーユー | User interface for selecting sound object to be rendered by user and/or method of rendering user interface for selecting sound object to be rendered by the user |
JP2021005873A (en) * | 2014-08-26 | 2021-01-14 | ブラックマジック デザイン ピーティーワイ リミテッドBlackmagic Design Pty Ltd | Method and system for positioning and controlling sound image in three-dimensional space |
JP2022537513A (en) * | 2019-06-11 | 2022-08-26 | ノキア テクノロジーズ オサケユイチア | Sound field rendering |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0990963A (en) * | 1995-09-20 | 1997-04-04 | Hitachi Ltd | Sound information providing device and sound information selecting method |
JP2006174159A (en) * | 2004-12-16 | 2006-06-29 | Yamaha Corp | Portable information processing unit and sound image localization method |
WO2006137400A1 (en) * | 2005-06-21 | 2006-12-28 | Japan Science And Technology Agency | Mixing device, method, and program |
JP2008092193A (en) * | 2006-09-29 | 2008-04-17 | Japan Science & Technology Agency | Sound source selecting device |
-
2012
- 2012-03-29 JP JP2012077851A patent/JP5825176B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0990963A (en) * | 1995-09-20 | 1997-04-04 | Hitachi Ltd | Sound information providing device and sound information selecting method |
JP2006174159A (en) * | 2004-12-16 | 2006-06-29 | Yamaha Corp | Portable information processing unit and sound image localization method |
WO2006137400A1 (en) * | 2005-06-21 | 2006-12-28 | Japan Science And Technology Agency | Mixing device, method, and program |
JP2008092193A (en) * | 2006-09-29 | 2008-04-17 | Japan Science & Technology Agency | Sound source selecting device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015080087A (en) * | 2013-10-17 | 2015-04-23 | 富士通株式会社 | Sound processing device, sound processing method, and program |
JP2015143987A (en) * | 2014-01-03 | 2015-08-06 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | In-vehicle gesture interactive spatial audio system |
JP2017509181A (en) * | 2014-01-03 | 2017-03-30 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | Gesture-interactive wearable spatial audio system |
US10126823B2 (en) | 2014-01-03 | 2018-11-13 | Harman International Industries, Incorporated | In-vehicle gesture interactive spatial audio system |
US10585486B2 (en) | 2014-01-03 | 2020-03-10 | Harman International Industries, Incorporated | Gesture interactive wearable spatial audio system |
JP2021005873A (en) * | 2014-08-26 | 2021-01-14 | ブラックマジック デザイン ピーティーワイ リミテッドBlackmagic Design Pty Ltd | Method and system for positioning and controlling sound image in three-dimensional space |
JP2017079457A (en) * | 2015-10-19 | 2017-04-27 | このみ 一色 | Portable information terminal, information processing apparatus, and program |
JP2019514293A (en) * | 2016-04-12 | 2019-05-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Spatial audio processing to emphasize sound sources close to the focal distance |
JP2019097162A (en) * | 2017-11-27 | 2019-06-20 | ノキア テクノロジーズ オーユー | User interface for selecting sound object to be rendered by user and/or method of rendering user interface for selecting sound object to be rendered by the user |
JP2022537513A (en) * | 2019-06-11 | 2022-08-26 | ノキア テクノロジーズ オサケユイチア | Sound field rendering |
Also Published As
Publication number | Publication date |
---|---|
JP5825176B2 (en) | 2015-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5825176B2 (en) | Portable terminal, sound source position control method, and sound source position control program | |
JP6668661B2 (en) | Parameter control device and parameter control program | |
US10824251B2 (en) | Devices and methods for sharing user interaction | |
US20090282335A1 (en) | Electronic device with 3d positional audio function and method | |
JP6322830B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
JP2019068446A (en) | Calibration of reproduction device | |
JP2014002748A (en) | Remote control device and method for controlling the same | |
JP2010205394A (en) | Sound source-reproducing device and sound source-selecting and reproducing method | |
JP2009514316A (en) | System and method for controlling a device utilizing position and contact | |
JP2005286903A (en) | Device, system and method for reproducing sound, control program, and information recording medium with the program recorded thereon | |
CN106790940B (en) | Recording method, recording playing method, device and terminal | |
TW201333813A (en) | Audio player and control method thereof | |
WO2015162923A1 (en) | Regenerating apparatus and method of regeneration | |
TW201029345A (en) | Remote controller and function-setting and operating method of the same | |
EP3787318A1 (en) | Signal processing device, channel setting method, program and speaker system | |
JP2014187413A (en) | Acoustic device and program | |
JP6608254B2 (en) | Recording device, advice output method and program | |
JPWO2006064717A1 (en) | Video display device, playback device remote controller and playback device | |
JP5912940B2 (en) | Evaluation apparatus, evaluation method, program, and system | |
JP5648515B2 (en) | User interface device | |
KR101686876B1 (en) | Apparatus and method for rhythm action game | |
WO2024004651A1 (en) | Audio playback device, audio playback method, and audio playback program | |
JP6993774B2 (en) | Audio output controller | |
JP6138031B2 (en) | Karaoke microphone | |
TWM472256U (en) | Voice tour guiding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5825176 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |