JP2013207759A - Portable terminal, sound source position control method, and sound source position control program - Google Patents

Portable terminal, sound source position control method, and sound source position control program Download PDF

Info

Publication number
JP2013207759A
JP2013207759A JP2012077851A JP2012077851A JP2013207759A JP 2013207759 A JP2013207759 A JP 2013207759A JP 2012077851 A JP2012077851 A JP 2012077851A JP 2012077851 A JP2012077851 A JP 2012077851A JP 2013207759 A JP2013207759 A JP 2013207759A
Authority
JP
Japan
Prior art keywords
sound source
sound
unit
subject
position control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012077851A
Other languages
Japanese (ja)
Other versions
JP5825176B2 (en
Inventor
Keiju Okabayashi
桂樹 岡林
Yuichi Murase
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012077851A priority Critical patent/JP5825176B2/en
Publication of JP2013207759A publication Critical patent/JP2013207759A/en
Application granted granted Critical
Publication of JP5825176B2 publication Critical patent/JP5825176B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a user to operate a sound source position virtually determined in space.SOLUTION: A portable terminal 1 includes: a hand action measuring section 16 for determining an operation of a main body of an own terminal and an operation direction; a sound source management section 17 for controlling a sound source position virtually determined in space around the main body on the basis of the determined operation and operation direction; and a regeneration section 23 that regenerates sound of the sound source on the basis of the controlled sound source position and then outputs the regenerated sound to a headphone 2.

Description

本発明は、携帯端末などに関する。   The present invention relates to a portable terminal and the like.

複数の音源を3次元空間に定位させ、臨場感ある音を再生するシステムとして、サラウンドシステムがある。   There is a surround system as a system that reproduces sound with a sense of presence by localizing a plurality of sound sources in a three-dimensional space.

例えば、仮想音空間における音源位置と利用者位置とに基づいて音像を定位し、音情報が音源位置から利用者位置に向かって聞こえるかのように加工し、音像定位加工後の音情報をそれぞれ出力するサラウンドシステムの従来技術が開示されている。   For example, the sound image is localized based on the sound source position and the user position in the virtual sound space, the sound information is processed as if it is heard from the sound source position toward the user position, and the sound information after the sound image localization process is respectively processed. The prior art of the output surround system is disclosed.

特開平9−90963号公報Japanese Patent Laid-Open No. 9-90963

しかしながら、従来のサラウンドシステムでは、定位された音源の位置を利用者が操作することができないという問題がある。すなわち、従来のサラウンドシステムでは、音源位置と利用者位置に基づいて音像を定位すると、定位した音像の位置を利用者が操作することができない。   However, the conventional surround system has a problem that the user cannot operate the position of the localized sound source. That is, in the conventional surround system, if the sound image is localized based on the sound source position and the user position, the user cannot operate the position of the localized sound image.

開示の技術は、定位された音源の位置を利用者が操作することができることを目的とする。   An object of the disclosed technique is to allow a user to operate the position of a localized sound source.

1つの側面では、携帯端末は、自端末の主体の動作および動作の方向を判定する判定部と、前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部とを有する。   In one aspect, the mobile terminal virtually determines in the space around the subject based on the determination unit that determines the operation and the direction of the operation of the subject terminal, and the operation and the direction of the operation determined by the determination unit. A position control unit that controls the position of the sound source localized in the position, a reproduction unit that reproduces the sound of the sound source based on the position of the sound source controlled by the position control unit, and outputs the reproduced sound to the headphones; Have

本願の開示する携帯端末の1つの態様によれば、定位された音源の位置を利用者が操作することができる。   According to one aspect of the mobile terminal disclosed in the present application, the user can operate the position of the localized sound source.

図1は、実施例に係る音源位置制御システムの構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating the configuration of the sound source position control system according to the embodiment. 図2は、実施例に係る音源位置制御方式の概念を示す図である。FIG. 2 is a diagram illustrating the concept of the sound source position control method according to the embodiment. 図3は、実施例に係る音源管理テーブルのデータ構造の一例を示す図である。FIG. 3 is a diagram illustrating an example of a data structure of a sound source management table according to the embodiment. 図4Aは、音源管理テーブルの遷移を説明する図(1)である。FIG. 4A is a diagram (1) illustrating the transition of the sound source management table. 図4Bは、音源管理テーブルの遷移を説明する図(2)である。FIG. 4B is a diagram (2) illustrating the transition of the sound source management table. 図4Cは、音源管理テーブルの遷移を説明する図(3)である。FIG. 4C is a diagram (3) illustrating the transition of the sound source management table. 図5は、実施例に係る音源位置制御処理の手順を示すフローチャートである。FIG. 5 is a flowchart illustrating the procedure of the sound source position control process according to the embodiment. 図6は、ハンドアクションおよび頭部姿勢の検出を説明する図である。FIG. 6 is a diagram for explaining detection of a hand action and a head posture. 図7は、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を説明する図である。FIG. 7 is a diagram for explaining a case where the sound source position control method according to the embodiment is used in an exhibition navigation system. 図8は、音源位置制御プログラムを実行するコンピュータの一例を示す図である。FIG. 8 is a diagram illustrating an example of a computer that executes a sound source position control program.

以下に、本願の開示する携帯端末、音源位置制御方法および音源位置制御プログラムの実施例を図面に基づいて詳細に説明する。なお、実施例では、携帯端末とヘッドフォンとを有する音源位置制御システムに適用した場合について説明するが、この実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of a mobile terminal, a sound source position control method, and a sound source position control program disclosed in the present application will be described in detail with reference to the drawings. In addition, although an Example demonstrates the case where it applies to the sound source position control system which has a portable terminal and headphones, this invention is not limited by this Example.

[音源位置制御システムの構成]
図1は、実施例に係る音源位置制御システムの構成を示す機能ブロック図である。図1に示すように、音源位置制御システム9では、携帯端末1とヘッドフォン2とが接続する。携帯端末1とヘッドフォン2との接続は、無線であっても有線であっても良い。
[Configuration of sound source position control system]
FIG. 1 is a functional block diagram illustrating the configuration of the sound source position control system according to the embodiment. As shown in FIG. 1, in the sound source position control system 9, the mobile terminal 1 and the headphones 2 are connected. The connection between the portable terminal 1 and the headphones 2 may be wireless or wired.

音源位置制御システム9では、携帯端末1が、自端末の主体の動作および動作の方向を判定し、判定した動作および動作の方向に基づいて、主体を中心とした周囲の空間に仮想的に定位された音源の位置を制御する。そして、携帯端末1は、制御した音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォン2に対して出力する。   In the sound source position control system 9, the mobile terminal 1 determines the operation of the subject of the terminal itself and the direction of the operation, and is virtually localized in the surrounding space around the subject based on the determined operation and the direction of the operation. Control the position of the generated sound source. Then, the mobile terminal 1 reproduces the sound of the sound source based on the controlled position of the sound source, and outputs the reproduced sound to the headphones 2.

このような音源位置制御システム9が実行する音源位置制御方式の概念を、図2を参照して説明する。図2は、実施例に係る音源位置制御方式の概念を示す図である。図2に示すように、主体Pを中心とした周囲の空間に複数の音源S〜Sが定位されている。かかる空間は、主体からの距離の長短に応じて複数の領域に分割されている。ここでは、空間は、主体Pを中心とした同心円上に分割され、主体Pから距離が短い方からフォーカスエリア、ショーケースエリア、デフォーカスエリアに分割されている。「フォーカスエリア」とは、このエリア内の音源のみが再生されるというエリアを意味する。「ショーケースエリア」とは、フォーカスエリア内に音源が存在しない場合、ショーケースエリア内の音源が例えば平均的な音量で再生されるというエリアを意味する。「デフォーカスエリア」とは、フォーカスエリア内に音源が存在しない場合に、デフォーカスエリア内の音源が例えば平均的な音量より小さい音量で再生されるというエリアを意味する。 The concept of the sound source position control method executed by the sound source position control system 9 will be described with reference to FIG. FIG. 2 is a diagram illustrating the concept of the sound source position control method according to the embodiment. As shown in FIG. 2, a plurality of sound sources S 1 to S 8 are localized in a surrounding space around the main body P. Such a space is divided into a plurality of regions according to the length of the distance from the subject. Here, the space is divided into concentric circles with the subject P as the center, and is divided into a focus area, a showcase area, and a defocus area from a shorter distance from the subject P. “Focus area” means an area where only the sound sources in this area are played. The “showcase area” means an area where a sound source in the showcase area is reproduced at an average volume, for example, when no sound source exists in the focus area. The “defocus area” means an area where the sound source in the defocus area is reproduced at a volume lower than the average volume when no sound source exists in the focus area.

携帯端末1が、主体Pが注目する音源を1個の動作、例えば手先の動作(以降、ハンドアクションという)で選択したり、選択した音源を領域間で移動させたりする。ハンドアクションには、例えば、掴む動作、押す動作、引く動作、押し飛ばす動作がある。一例として、主体Pが注目する音源がSであるとすると、主体Pがその音源が聞こえる方向に対して掴む動作をする。すると、携帯端末1は、主体Pの掴む動作および掴む動作の方向を判定し、判定した方向の音源Sをフォーカスエリアに移動する。そして、携帯端末1は、フォーカスエリアの音源Sの音のみを再生し、再生した音をヘッドフォン2に出力する。別の例として、主体Pが音源Sの聞こえる方向に対して押す動作をする。すると、携帯端末1は、主体Pの押す動作および押す動作の方向を判定し、判定した方向の音源Sを現在のフォーカスエリアから1つ外側のショーケースエリアに移動する。そして、携帯端末1は、フォーカスエリアに音源が存在しない場合、ショーケースエリア内の音源の音を全て再生する。さらに、主体Pが音源Sの聞こえる方向に対して押す動作をすると、携帯端末1は、主体Pの押す動作および押す動作の方向を判定し、判定した方向の音源Sをショーケースエリアから1つ外側のデフォーカスエリアに移動し、音源Sの音を平均的な音量より小さい音量で再生する。なお、音源S〜Sは空間に仮想的に定位されており、主体Pが首を回転させると、音源S〜Sの位置は、定位処理によって移動する。 The mobile terminal 1 selects a sound source that the subject P is interested in by one action, for example, a hand action (hereinafter referred to as a hand action), or moves the selected sound source between areas. Hand actions include, for example, a grabbing action, a pushing action, a pulling action, and a pushing action. As an example, the sound source entity P is noted When a S 1, the operation of grasping the direction in which principal P is the sound can be heard. Then, the mobile terminal 1 determines the direction of operation and gripping operation grabbing the entity P, and move the sound source S 1 of the determined direction to the focus area. Then, the portable terminal 1 reproduces only the sound of the sound source S 1 in the focus area, and outputs the reproduced sound to the headphones 2. As another example, the operation of mainly P presses the direction heard the sound source S 1. Then, the mobile terminal 1 determines the direction of operation and pressing operation presses the main P, and moves the determined direction of the sound source S 1 from the current focus area on one outer side of the showcase area. And the portable terminal 1 reproduces | regenerates all the sounds of the sound source in a showcase area, when a sound source does not exist in a focus area. Further, when the main P is an operation of pressing to the direction in which sounds of a sound source S 1, the mobile terminal 1 determines the direction of operation and pressing operation presses the main P, the source S 1 of the determined direction from the showcase area Go to one outside of the defocusing area, to reproduce the sound of the sound source S 1 with a smaller volume than the average volume. The sound sources S 1 to S 8 are virtually localized in space, and when the subject P rotates the neck, the positions of the sound sources S 1 to S 8 are moved by the localization process.

[携帯端末の構成]
図1に戻って、携帯端末1は、例えば携帯電話機に対応するが、これに限定されず、PDA(Personal Digital Assistants)、携帯可能なパーソナルコンピュータであっても良い。また、携帯端末1は、記憶部10とジャイロセンサ11と加速度センサ12と地磁気センサ13と入力部14と出力部15とを有する。さらに、携帯端末1は、ハンドアクション計測部16と音源管理部17と定位処理部18と音源選択部19と増幅回路20とミキサ21とSW22と再生部23とを有する。
[Configuration of mobile terminal]
Returning to FIG. 1, the mobile terminal 1 corresponds to, for example, a mobile phone, but is not limited thereto, and may be a PDA (Personal Digital Assistants) or a portable personal computer. The portable terminal 1 includes a storage unit 10, a gyro sensor 11, an acceleration sensor 12, a geomagnetic sensor 13, an input unit 14, and an output unit 15. Furthermore, the portable terminal 1 includes a hand action measurement unit 16, a sound source management unit 17, a localization processing unit 18, a sound source selection unit 19, an amplification circuit 20, a mixer 21, SW 22, and a reproduction unit 23.

記憶部10は、例えばフラッシュメモリ(Frash Memory)やFRAM(登録商標)(Ferroelectric Random Access Memory)などの不揮発性の半導体メモリ素子などの記憶装置に対応する。さらに、記憶部10は、音源データ101と音源管理テーブル102とを有する。音源データ101は、定位されていない音源、すなわちモノラル音源のデータである。後述する定位処理部18によって定位される方向として分割される数分の音源のデータが記憶されることが可能である。音源管理テーブル102は、各音源を、定位される方向と領域とに対応付けて管理するテーブルである。なお、音源データ101および音源管理テーブル102のそれぞれの情報は、例えば、音源位置制御処理が実行される際に、これらの情報を管理するサーバからダウンロードされるようにすれば良い。   The storage unit 10 corresponds to a storage device such as a nonvolatile semiconductor memory element such as a flash memory (Frash Memory) or an FRAM (registered trademark) (Ferroelectric Random Access Memory). Furthermore, the storage unit 10 includes sound source data 101 and a sound source management table 102. The sound source data 101 is data of a sound source that is not localized, that is, a monaural sound source. It is possible to store data for a number of sound sources that are divided as directions localized by the localization processing unit 18 described later. The sound source management table 102 is a table for managing each sound source in association with the localization direction and region. The information of the sound source data 101 and the sound source management table 102 may be downloaded from a server that manages the information when the sound source position control process is executed, for example.

ここで、音源管理テーブル102のデータ構造について、図3を参照して説明する。図3は、実施例に係る音源管理テーブルのデータ構造の一例を示す図である。図3左図に示すように、音源管理テーブル102は、各音源S〜Sを、各行で表される方向と各列で表される領域とに対応付けて記憶する。方向には、主体を中心として分割された方向が設定される。例えば、主体を中心にして主体正面の右45度の方向をA、右45度から90度の方向をB、右90度から135度の方向をC、右135度から180度の方向をDと設定される。主体を中心にして主体正面の左45度の方向をH、左45度から90度の方向をG、左90度から135度の方向をF、左135度から180度の方向をEと設定される。領域には、フォーカスエリア、ショーケースエリア、デフォーカスエリアおよびデリートエリアが設定される。「デリートエリア」とは、再生されない音源を管理するエリアを意味する。 Here, the data structure of the sound source management table 102 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a data structure of a sound source management table according to the embodiment. As shown in the left diagram of FIG. 3, the sound source management table 102 stores the sound sources S 1 to S 8 in association with the direction represented by each row and the region represented by each column. As the direction, a direction divided about the subject is set. For example, with the subject as the center, the direction 45 degrees to the right in front of the subject is A, the direction 45 degrees to 90 degrees right is B, the direction 90 degrees to 135 degrees right is C, and the direction 135 degrees to 180 degrees is D Is set. Centered around the subject, the left 45 ° direction on the subject's front is set to H, the left 45 ° to 90 ° direction is set to G, the left 90 ° to 135 ° direction is set to F, and the left 135 ° to 180 ° direction is set to E. Is done. A focus area, a showcase area, a defocus area, and a delete area are set in the area. The “delete area” means an area for managing sound sources that are not reproduced.

一例として、図3左図の音源管理テーブル102には、図3右図に示す音源が管理されている。音源Sは、方向Hとフォーカスエリアとに対応付けられる。音源Sは、方向Aとデフォーカスエリアとに対応付けられる。音源Sは、方向Bとデフォーカスエリアとに対応付けられる。音源Sは、方向Cとショーケースエリアとに対応付けられる。音源Sは、方向Dとデリートエリアとに対応付けられる。音源Sは、方向Eとショーケースエリアとに対応付けられる。音源Sは、方向Fとショーケースエリアとに対応付けられる。音源Sは、方向Gとデフォーカスエリアとに対応付けられる。 As an example, the sound source management table 102 in the left diagram of FIG. 3 manages the sound sources shown in the right diagram of FIG. Source S 1 is associated with the direction H and the focus area. Source S 2 is associated with the direction A and the de-focus area. Source S 3 is associated with the direction B and the defocus area. Tone S 4 is associated with the direction C and the showcase area. Tone S 5 is associated with the direction D and delete area. Sound source S 6 is associated with the direction E and showcase area. Sound source S 7 is associated with the direction F and showcase area. Tone S 8 is associated with the direction G and the defocus area.

図1に戻って、ジャイロセンサ11は、角速度を検出する。加速度センサ12は、直交する3軸方向の加速度を検出する。地磁気センサ13は、方位を検出する。入力部14は、例えば後述する出力部15に出力されたボタンを押下し、タッチパネル(もしくはキーボード、マウス、マイク)に対応する。出力部15は、例えば各種ボタンを出力し、ディスプレイ(もしくはモニタ)に対応する。   Returning to FIG. 1, the gyro sensor 11 detects the angular velocity. The acceleration sensor 12 detects acceleration in three orthogonal directions. The geomagnetic sensor 13 detects the direction. The input unit 14 corresponds to a touch panel (or keyboard, mouse, microphone) by pressing a button output to the output unit 15 described later, for example. The output unit 15 outputs various buttons, for example, and corresponds to a display (or monitor).

ハンドアクション計測部16は、ジャイロセンサ11、加速度センサ12、地磁気センサ13、入力部14および出力部15を用いて、主体のハンドアクションおよびハンドアクションの方向を計測する。計測するハンドアクションは、例えば、掴む動作、押す動作、引く動作、押し飛ばす動作である。掴む動作は、例えば出力部15に出力される「掴む」ボタンが押下されることで実現される。「掴む」ボタンは、例えば携帯端末1のアプリケーションによって作成されることが可能である。なお、ハンドアクション計測部16は、判定部の一例として挙げられる。   The hand action measuring unit 16 uses the gyro sensor 11, the acceleration sensor 12, the geomagnetic sensor 13, the input unit 14, and the output unit 15 to measure the main hand action and the direction of the hand action. The hand actions to be measured are, for example, a grabbing action, a pushing action, a pulling action, and a pushing action. The grasping operation is realized, for example, by pressing a “grab” button output to the output unit 15. The “grab” button can be created by an application of the mobile terminal 1, for example. The hand action measurement unit 16 is an example of a determination unit.

音源管理部17は、ハンドアクション計測部16によって計測されたハンドアクションの方向に基づいて、空間に仮想的に定位された音源を選択し、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源の位置を移動させる。なお、音源管理部17は、位置制御部の一例として挙げられる。   The sound source management unit 17 selects a sound source virtually localized in the space based on the direction of the hand action measured by the hand action measurement unit 16, and based on the hand action measured by the hand action measurement unit 16. Move the position of the selected sound source. The sound source management unit 17 is an example of a position control unit.

例えば、音源管理部17は、音源管理テーブル102に記憶された音源の中から、ハンドアクション計測部16によって計測されたハンドアクションの方向に対応する音源を選択する。そして、音源管理部17は、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源を、音源管理テーブル102に管理された領域から異なる領域へ移動させる。一例として、音源管理部17は、ハンドアクションが「掴む」の場合、選択した音源をショーケースエリアからフォーカスエリアに移動させる。また、音源管理部17は、ハンドアクションが「押す」の場合、選択した音源を1つ外側の領域に移動させる。また、音源管理部17は、ハンドアクションが「引く」の場合、選択した音源を1つ内側の領域に移動させる。また、音源管理部17は、ハンドアクションが「押し飛ばす」の場合、選択した音源を削除すべく、デリートエリアに移動させる。そして、音源管理部17は、選択した音源を、移動させた領域と当該音源の方向とに対応付けるように、音源管理テーブル102を更新する。   For example, the sound source management unit 17 selects a sound source corresponding to the direction of the hand action measured by the hand action measurement unit 16 from the sound sources stored in the sound source management table 102. Then, the sound source management unit 17 moves the selected sound source from the region managed in the sound source management table 102 to a different region based on the hand action measured by the hand action measurement unit 16. As an example, when the hand action is “grab”, the sound source management unit 17 moves the selected sound source from the showcase area to the focus area. Further, when the hand action is “push”, the sound source management unit 17 moves the selected sound source to an area outside by one. In addition, when the hand action is “pull”, the sound source management unit 17 moves the selected sound source to an area inside one. When the hand action is “push away”, the sound source management unit 17 moves the selected sound source to the delete area to delete the selected sound source. The sound source management unit 17 then updates the sound source management table 102 so that the selected sound source is associated with the moved region and the direction of the sound source.

また、音源管理部17は、音源管理テーブル102に記憶された、各音源の方向を後述する定位処理部18に通知する。また、音源管理部17は、音源管理テーブル102に記憶された、各音源の領域を後述する音源選択部19に通知する。また、音源管理部17は、音源管理テーブル102を用いて、フォーカスエリアにいずれかの音源があるか否かを判定する。そして、音源管理部17は、フォーカスエリアにいずれかの音源があると判定した場合、フォーカスエリアの音源を再生する方にスイッチを切り替えるように、後述するSW22に指示する。一方、音源管理部17は、フォーカスエリアにいずれの音源がないと判定した場合、ショーケースエリアおよびデフォーカスエリアの音源を再生する方にスイッチを切り替えるように、後述するSW22に指示する。   The sound source management unit 17 notifies the localization processing unit 18 described later of the direction of each sound source stored in the sound source management table 102. In addition, the sound source management unit 17 notifies the sound source selection unit 19 (to be described later) of each sound source region stored in the sound source management table 102. The sound source management unit 17 also uses the sound source management table 102 to determine whether there is any sound source in the focus area. When the sound source management unit 17 determines that there is any sound source in the focus area, the sound source management unit 17 instructs the SW 22 to be described later to switch the switch to reproduce the sound source in the focus area. On the other hand, when the sound source management unit 17 determines that there is no sound source in the focus area, the sound source management unit 17 instructs the SW 22 to be described later to switch the switch to the direction of reproducing the sound source in the showcase area and the defocus area.

定位処理部18は、モノラルの各音源を各音源の方向にしたがって定位させ、各音源についてステレオ出力を取得する。例えば、定位処理部18は、後述する頭部姿勢検出装置31から主体の頭部の姿勢データを受信する。姿勢データには、例えば頭部の正面方向を示す絶対角度を含む。そして、定位処理部18は、受信した姿勢データに含まれる頭部の正面方向と、音源管理部17から通知された各音源の方向ごとの伝達特性(頭部伝達関数)とに基づいて、各音源を定位させる。そして、定位処理部18は、定位させた各音源についてステレオ出力を取得し、取得した各音源のステレオ出力を音源選択部19に出力する。なお、定位処理部18は、伝達特性(頭部伝達関数)を用いて各音源を定位させるものとして説明したが、これに限定されるものではなく、各音源を定位させることが可能ないかなる技術を用いても良い。   The localization processing unit 18 localizes each monaural sound source according to the direction of each sound source, and acquires a stereo output for each sound source. For example, the localization processing unit 18 receives posture data of the main head from the head posture detection device 31 described later. The posture data includes, for example, an absolute angle indicating the front direction of the head. Then, the localization processing unit 18 is based on the front direction of the head included in the received posture data and the transfer characteristics (head transfer function) for each direction of each sound source notified from the sound source management unit 17. Localize the sound source. Then, the localization processing unit 18 acquires a stereo output for each localized sound source, and outputs the acquired stereo output of each sound source to the sound source selecting unit 19. The localization processing unit 18 has been described as localizing each sound source using transfer characteristics (head-related transfer function), but is not limited to this, and any technique that can localize each sound source. May be used.

音源選択部19は、各音源のステレオ出力を、音源管理部17から通知された各音源の領域にしたがってミキシングする。例えば、音源選択部19は、フォーカスエリアの音源のステレオ出力を後述する増幅回路20に出力する。また、音源選択部19は、ショーケースエリアの音源のステレオ出力を増幅回路20に、デフォーカスエリアの音源のステレオ出力を増幅回路20に出力する。 The sound source selection unit 19 mixes the stereo output of each sound source according to the region of each sound source notified from the sound source management unit 17. For example, the sound source selection unit 19 outputs the stereo output of the focus area sound source amplifier 20 1 to be described later. Further, the sound source selection unit 19, the stereo output of the sound source of the showcase area to the amplifier circuit 20 2 to output the stereo output of the de-focus area tone to the amplifier circuit 20 3.

増幅回路20には、フォーカスエリアの音源を増幅する増幅回路20とショーケースエリアの音源を増幅する増幅回路20とデフォーカスエリアの音源を増幅する増幅回路20とがある。増幅回路20と増幅回路20のゲインaは、増幅回路20のゲインbよりも大きい。したがって、増幅回路20および増幅回路20で増幅された音源のステレオ出力は、増幅回路20で増幅された音源のステレオ出力よりも大きい音量となる。そして、増幅回路20は、増幅された音源のステレオ出力をSW22に出力する。増幅回路20および増幅回路20は、それぞれ増幅された音源のステレオ出力をミキサ21に出力する。 The amplifier circuit 20, there are an amplifier circuit 20 3 for amplifying the sound of the amplifier circuit 20 2 and the defocus area to amplify the sound of the amplifier circuit 20 1 and the showcase area which amplifies the sound sources of the focus area. Gain a of the amplifier circuit 20 1 and the amplifier circuit 20 2 is greater than the gain b of the amplifier circuit 20 3. Thus, the stereo output of the amplified by the amplifier circuit 20 1 and the amplifier circuit 20 2 sound source becomes greater volume than the stereo output is amplified by the amplifier circuit 20 by three sources. The amplifier circuit 20 1 outputs the stereo output of the amplified sound source SW22. Amplifier circuit 20 2 and the amplifier circuit 20 3 outputs the stereo output of the sound source which are amplified to the mixer 21.

ミキサ21は、増幅回路20および増幅回路20から出力された各音源のステレオ出力をまとめて(ミキシングして)SW22に出力する。すなわち、ミキサ21は、ショーケースエリアの音源およびデフォーカスエリアの音源をミキシングする。この結果、主体は、ヘッドフォン2を介してショーケースエリアおよびデフォーカスエリアの各音源の方向から同時に各音源の音を聞くことになる。 Mixer 21, together stereo output of each sound source output from the amplifier circuit 20 2 and the amplifier circuit 20 3 (mixes) to the SW22. That is, the mixer 21 mixes the sound source in the showcase area and the sound source in the defocus area. As a result, the subject listens to the sound of each sound source simultaneously from the direction of each sound source in the showcase area and the defocus area via the headphones 2.

SW22は、音源管理部17からの切り替え指示に基づいて、スイッチを切り替える。例えば、SW22は、音源管理部17によって、フォーカスエリア側の音源を再生する方にスイッチを切り替えるように指示されると、スイッチを増幅回路20につながる方に切り替える。また、SW22は、音源管理部17によって、ショーケースエリア側およびデフォーカスエリア側の音源を再生する方にスイッチを切り替えるように指示されると、スイッチをミキサ21につながる方に切り替える。 The SW 22 switches the switch based on the switching instruction from the sound source management unit 17. For example, when the sound source management unit 17 instructs the SW 22 to switch the switch to play the sound source on the focus area side, the SW 22 switches the switch to the one connected to the amplifier circuit 201. Further, when the sound source management unit 17 instructs the SW 22 to switch the switch to the direction of reproducing the sound source on the showcase area side and the defocus area side, the SW 22 switches the switch to the direction connected to the mixer 21.

再生部23は、音源管理部17によって制御された各音源の位置、すなわち各音源の領域に基づいて、各音源をヘッドフォン出力に再生する。例えば、再生部23は、SW22によってフォーカスエリア側から出力されると、出力される音源のステレオ出力をヘッドフォン出力に再生する。また、再生部23は、SW22によってショーケースエリア側およびデフォーカスエリア側、すなわちミキサ21から出力されると、出力される各音源のステレオ出力をヘッドフォン出力に再生する。すなわち、再生部23は、ショーケースエリアおよびデフォーカスエリアの各音源がミキシングされた出力をヘッドフォン出力に再生する。   The reproduction unit 23 reproduces each sound source to the headphone output based on the position of each sound source controlled by the sound source management unit 17, that is, the area of each sound source. For example, when the playback unit 23 outputs from the focus area side through the SW 22, the playback unit 23 plays back the stereo output of the output sound source to the headphone output. Further, when output from the showcase area side and the defocus area side, that is, the mixer 21, by the SW 22, the playback unit 23 plays back the stereo output of each output sound source to the headphone output. That is, the reproducing unit 23 reproduces an output obtained by mixing the sound sources in the showcase area and the defocus area into a headphone output.

[ヘッドフォンの構成]
ヘッドフォン2は、耳に装着して音を聴くための装置である。さらに、ヘッドフォン2は、頭部姿勢検出装置31と出力装置32とを有する。頭部姿勢検出装置31は、ヘッドフォン2を装着している主体の頭部の姿勢データを検出し、検出した姿勢データを携帯端末1に送信する。例えば、頭部姿勢検出装置31は、ジャイロセンサを用いて、主体の頭部の姿勢データを検出するようにすれば良い。なお、頭部姿勢検出装置31は、ヘッドフォン2の内部に有すると説明したが、これに限定されず、ヘッドフォン2の外部に有するとしても良い。
[Headphone configuration]
The headphone 2 is a device that is worn on the ear and listens to sound. Furthermore, the headphone 2 includes a head posture detection device 31 and an output device 32. The head posture detection device 31 detects posture data of the head of the subject wearing the headphones 2 and transmits the detected posture data to the mobile terminal 1. For example, the head posture detection device 31 may detect posture data of the main head using a gyro sensor. Although the head posture detection device 31 has been described as being provided inside the headphones 2, the head posture detection device 31 is not limited thereto, and may be provided outside the headphones 2.

出力装置32は、再生部23によって再生されたヘッドフォン出力をヘッドフォン2の外部に出力する。   The output device 32 outputs the headphone output reproduced by the reproducing unit 23 to the outside of the headphones 2.

[音源管理テーブルの遷移]
次に、主体がハンドアクションで選択した音源がエリアを移動することによって音源管理テーブル102が変化する様子を示す。図4A〜図4Cは、音源管理テーブルの遷移を説明する図である。図4Aでは、主体(ここでは人)が音源Sを掴んで引く動作をした場合の遷移について説明し、図4Bでは、主体が音源Sを押し飛ばす動作をした場合の遷移について説明し、図4Cでは、初期状態から主体が音源Sを引く動作をした場合の遷移について説明する。
[Transition of sound source management table]
Next, how the sound source management table 102 changes as the sound source selected by the subject by hand action moves in the area is shown. 4A to 4C are diagrams for explaining transition of the sound source management table. 4A describes the transition when the subject (here, a person) grabs and pulls the sound source S 7 , and FIG. 4B describes the transition when the subject performs the action of pushing the sound source S 7 , in Figure 4C, mainly from the initial state will be described transition in a case where the operation to pull the sound source S 8.

図4Aの上図に示すように、音源管理テーブル102には、音源SがH方向とフォーカスエリアとに対応付けて管理されている。このような場合、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえる。そして、主体PがハンドアクションでF方向の音源Sを掴んで引く動作をしたとする。すると、図4Aの下図に示すように、音源管理テーブル102では、ショーケースエリアにあった音源Sがフォーカスエリアに移動すると同時に、フォーカスエリアにあった音源Sがショーケースエリアに移動する。すなわち、音源管理部17は、掴んで引く動作の方向Fに対応する音源Sを選択する。そして、音源管理部17は、掴んで引く動作に基づいて、選択した音源Sを、ショーケースエリアの内側のフォーカスエリアに移動させる。これと同時に、音源管理部17は、フォーカスエリアにあった音源Sをショーケースエリアに移動させる。これによって、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえるようになる。 As shown in the upper diagram of FIG. 4A, the sound source management table 102, the sound source S 1 it is managed in association with the H direction and the focus area. In such a case, the mobile terminal 1 is to play only sound source S 1 of the focus area, subject P is heard only the sound of the sound source S 1. And, as a main component P has an operation to pull grabbed the F direction of the sound source S 7 in the hand action. Then, as shown in the lower portion of FIG. 4A, the sound source management table 102, the sound source S 7 that were in the showcase area at the same time moves the focus area, the sound source S 1 that has been in the focus area is moved to the showcase area. That is, the sound source management unit 17 selects the sound source S 7 corresponding to the direction F of the grabbing and pulling operation. Then, the sound source managing unit 17, based on the operation of pulling grab, the sound source S 7 selected is moved to the inside of the focus area of the showcase area. At the same time, the sound source managing unit 17 moves the sound source S 1 that was in focus area showcase area. As a result, the mobile terminal 1 is to play only sound source S 7 of the focus area, subject P is to be heard only the sound of the sound source S 7.

また、図4Bの上図に示すように、音源管理テーブル102には、音源SがF方向とフォーカスエリアとに対応付けて管理されている。このような場合、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえる。そして、主体PがハンドアクションでF方向の音源Sを押し飛ばす動作をしたとする。すると、図4Bの下図に示すように、音源管理テーブル102では、フォーカスエリアにあった音源Sがデリートエリアに移動する。すなわち、音源管理部17は、押し飛ばす動作の方向Fに対応する音源Sを選択する。そして、音源管理部17は、押し飛ばす動作に基づいて、選択した音源Sを、デリートエリアに移動させる。これによって、携帯端末1は、フォーカスエリアにある音源が存在しなくなるので、ショーケースエリアにある音源S、S、Sをミキシングして再生し、主体Pは音源S、S、Sの各音について聞こえるようになる。 Further, as shown in the upper diagram in FIG. 4B, the sound source management table 102, the sound source S 7 is managed in association with the F direction and the focus area. In such a case, the mobile terminal 1 is to play only sound source S 7 of the focus area, subject P is heard only the sound of the sound source S 7. Then, it is assumed that the operations subject P is skip Press the F direction of the sound source S 7 in the hand action. Then, as shown in the lower portion of FIG. 4B, the sound source management table 102, the sound source S 7 that were in focus area moves to delete area. That is, the sound source management unit 17 selects the sound source S 7 corresponding to the direction F of the pushing operation. Then, the sound source managing unit 17, based on the operation skip press, the sound source S 7 selected is moved to the delete area. Accordingly, since the sound source in the focus area does not exist, the mobile terminal 1 mixes and reproduces the sound sources S 1 , S 4 , and S 6 in the showcase area, and the main P performs the sound sources S 1 , S 4 , It will be heard for each sound of the S 6.

また、図4Cの上図に示すように、音源管理テーブル102には、初期状態として、各音源S〜Sがショーケースエリアに対応付けて管理されている。このような場合、携帯端末1はショーケースエリア内の全ての音源S〜Sをミキシングして再生し、主体Pは音源S〜Sの各音について聞こえる。そして、主体PがハンドアクションでG方向の音源Sを引く動作をしたとする。すると、図4Cの下図に示すように、音源管理テーブル102では、ショーケースエリアにあった音源Sがフォーカスエリアに移動する。すなわち、音源管理部17は、引く動作の方向Gに対応する音源Sを選択する。そして、音源管理部17は、引く動作に基づいて、選択した音源Sを、フォーカスエリアに移動させる。これによって、携帯端末1はフォーカスエリアの音源Sのみ再生し、主体Pは音源Sの音のみ聞こえるようになる。 4C, the sound source management table 102 manages the sound sources S 1 to S 8 in association with the showcase area as an initial state. In such a case, the portable terminal 1 mixes and reproduces all the sound sources S 1 to S 8 in the showcase area, and the main body P can hear each sound of the sound sources S 1 to S 8 . And, as a main component P has an operation to pull the G direction of the sound source S 8 in the hand action. Then, as shown in the lower portion of FIG. 4C, the sound source management table 102, the sound source S 8 that was in the showcase area is moved to the focus area. That is, the sound source management unit 17 selects the sound source S 8 corresponding to the direction G of the pulling operation. Then, the sound source managing unit 17, based on the operation of pulling, the sound source S 8 selected is moved to the focus area. As a result, the mobile terminal 1 is to play only sound source S 8 of the focus area, subject P is to be heard only the sound of the sound source S 8.

[音源位置制御処理の手順]
次に、音源位置制御処理の手順について、図5を参照して説明する。図5は、音源位置制御処理の手順を示すフローチャートである。なお、各音源の定位は、定位処理部18によって行われたものとする。
[Sound source position control procedure]
Next, the procedure of the sound source position control process will be described with reference to FIG. FIG. 5 is a flowchart showing the procedure of the sound source position control process. Note that localization of each sound source is performed by the localization processing unit 18.

まず、音源位置制御処理が開始されると、音源管理部17は、音源管理テーブル102を確認する(ステップS11)。そして、音源管理部17は、確認の結果、フォーカスエリアに音源はあるか否かを判定する(ステップS12)。フォーカスエリアに音源はあると判定した場合(ステップS12;Yes)、音源管理部17は、スイッチをフォーカスエリア側に切り替えるようにSW22に指示する(ステップS13)。すなわち、音源管理部17は、フォーカスエリアの音源を再生する方にスイッチを切り替えるように、SW22に指示する。そして、処理は、ステップS15に移行する。   First, when the sound source position control process is started, the sound source management unit 17 checks the sound source management table 102 (step S11). Then, as a result of the confirmation, the sound source management unit 17 determines whether there is a sound source in the focus area (step S12). When it is determined that there is a sound source in the focus area (step S12; Yes), the sound source management unit 17 instructs the SW 22 to switch the switch to the focus area side (step S13). That is, the sound source management unit 17 instructs the SW 22 to switch the switch to the direction of reproducing the sound source in the focus area. Then, the process proceeds to step S15.

一方、フォーカスエリアに音源はないと判定した場合(ステップS12;No)、音源管理部17は、スイッチをミキサ21側に切り替えるようにSW22に指示する(ステップS14)。すなわち、音源管理部17は、ショーケースエリアおよびデフォーカスエリアの音源を再生する方にスイッチを切り替えるように、SW22に指示する。そして、処理は、ステップS15に移行する。   On the other hand, when it is determined that there is no sound source in the focus area (step S12; No), the sound source management unit 17 instructs the SW 22 to switch the switch to the mixer 21 side (step S14). That is, the sound source management unit 17 instructs the SW 22 to switch the switch to the direction of reproducing the sound source in the showcase area and the defocus area. Then, the process proceeds to step S15.

ステップS15では、再生部23が、再生処理を行う(ステップS15)。すなわち、再生部23は、スイッチがフォーカスエリア側である場合、フォーカスエリアの音源のステレオ出力をヘッドフォン出力に再生する。一方、再生部23は、スイッチがミキサ21側である場合、ショーケースエリアおよびデフォーカスエリアの各音源のステレオ出力がミキシングされた出力をヘッドフォン出力に再生する。その後、再生部23は、再生したヘッドフォン出力をヘッドフォン2に出力する。   In step S15, the playback unit 23 performs playback processing (step S15). That is, when the switch is on the focus area side, the playback unit 23 plays back the stereo output of the sound source in the focus area to the headphone output. On the other hand, when the switch is on the mixer 21 side, the reproducing unit 23 reproduces an output obtained by mixing the stereo outputs of the sound sources in the showcase area and the defocus area into a headphone output. Thereafter, the reproducing unit 23 outputs the reproduced headphone output to the headphones 2.

続いて、音源管理部17は、ハンドアクションのイベントを待つ(ステップS16)。音源管理部17は、ハンドアクションのイベントがあったか否かを判定する(ステップS17)。ハンドアクションのイベントがないと判定した場合(ステップS17;No)、音源管理部17は、ハンドアクションのイベントを待つべく、ステップS16に移行する。   Subsequently, the sound source management unit 17 waits for a hand action event (step S16). The sound source management unit 17 determines whether or not there is a hand action event (step S17). When it is determined that there is no hand action event (step S17; No), the sound source management unit 17 proceeds to step S16 to wait for a hand action event.

一方、ハンドアクションのイベントがあると判定した場合(ステップS17;Yes)、音源管理部17は、イベントが示すハンドアクションに基づいて、音源管理テーブル102を更新する(ステップS18)。例えば、音源管理部17は、ハンドアクションがされた方向に対応する音源を選択する。そして、音源管理部17は、選択した音源を、音源管理テーブル102に管理された領域からハンドアクションに基づいた領域に移動させる。そして、音源管理部17は、選択した音源を、移動させた領域と当該音源の方向とに対応付けるように、音源管理テーブル102を更新する。   On the other hand, if it is determined that there is a hand action event (step S17; Yes), the sound source management unit 17 updates the sound source management table 102 based on the hand action indicated by the event (step S18). For example, the sound source management unit 17 selects a sound source corresponding to the direction in which the hand action is performed. The sound source management unit 17 moves the selected sound source from the area managed in the sound source management table 102 to the area based on the hand action. The sound source management unit 17 then updates the sound source management table 102 so that the selected sound source is associated with the moved region and the direction of the sound source.

そして、音源管理部17は、音源管理テーブル102に基づいた音源位置制御をすべく、ステップS11に移行する。   Then, the sound source management unit 17 proceeds to step S11 to perform sound source position control based on the sound source management table 102.

[ハンドアクションおよび頭部姿勢の検出]
次に、ハンドアクションおよび頭部姿勢の検出について、図6を参照して説明する。図6は、ハンドアクションおよび頭部姿勢の検出を説明する図である。図6に示すように、主体Pが持っている携帯端末1の画面に、選択ボタンb1、掴むボタンb2、ナビ開始ボタンb3が表示されている。また、主体Pは、頭部姿勢検出装置31を備えるヘッドフォン2を頭部に装着している。
[Hand action and head posture detection]
Next, detection of a hand action and a head posture will be described with reference to FIG. FIG. 6 is a diagram for explaining detection of a hand action and a head posture. As shown in FIG. 6, a selection button b1, a grabbing button b2, and a navigation start button b3 are displayed on the screen of the portable terminal 1 held by the subject P. In addition, the subject P wears the headphone 2 including the head posture detection device 31 on the head.

かかる状況下で、携帯端末1のハンドアクション計測部16は、ハンドアクションを、携帯端末1の画面と、携帯端末1に内蔵する加速度センサ12(図示なし)とを用いて計測する。例えば、ハンドアクション計測部16は、「掴む」動作を、携帯端末1の画面上の掴むボタンb2を主体Pが押下したことを検出することで認識する。また、ハンドアクション計測部16は、「引く」、「押す」、「押し飛ばす」のそれぞれの動作を、加速度センサ12の方向と加速度の大きさとから計測する。そして、ハンドアクション計測部16は、計測した結果によりそれぞれの動作を認識する。   Under such circumstances, the hand action measuring unit 16 of the mobile terminal 1 measures the hand action using the screen of the mobile terminal 1 and the acceleration sensor 12 (not shown) built in the mobile terminal 1. For example, the hand action measuring unit 16 recognizes the “grab” operation by detecting that the subject P has pressed the button b2 to be grabbed on the screen of the mobile terminal 1. The hand action measuring unit 16 measures each operation of “pull”, “push”, and “push-off” from the direction of the acceleration sensor 12 and the magnitude of the acceleration. Then, the hand action measuring unit 16 recognizes each operation based on the measured result.

ハンドアクション計測部16は、音源の方向を、携帯端末1の図示しない地磁気センサ13やジャイロセンサ11を用いて計測する。また、頭部姿勢検出装置31は、自装置に内蔵するジャイロセンサ(図示せず)を用いて、頭部の姿勢を計測し、計測した頭部の姿勢データを携帯端末1に送信する。そして、携帯端末1の定位処理部18は、頭部の姿勢に連動して、音源データ101の各音源を定位させる。   The hand action measuring unit 16 measures the direction of the sound source using a geomagnetic sensor 13 and a gyro sensor 11 (not shown) of the mobile terminal 1. The head posture detection device 31 measures the posture of the head using a gyro sensor (not shown) built in the device itself, and transmits the measured head posture data to the mobile terminal 1. Then, the localization processing unit 18 of the portable terminal 1 localizes each sound source of the sound source data 101 in conjunction with the posture of the head.

[音源位置制御方式の用途]
次に、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を、図7を参照して説明する。図7は、実施例に係る音源位置制御方式を展示ナビゲーションシステムに用いた場合を説明する図である。なお、展示会場となる部屋に合わせた音源管理テーブル102および音源データ101が予め展示ナビゲーションシステムのサーバ(図示せず)に登録されているとする。そして、音源管理テーブル102には、初期状態として、各展示1〜8に関わる音源がショーケースエリアに対応付けて管理されている。
[Use of sound source position control method]
Next, the case where the sound source position control method according to the embodiment is used in the exhibition navigation system will be described with reference to FIG. FIG. 7 is a diagram for explaining a case where the sound source position control method according to the embodiment is used in an exhibition navigation system. It is assumed that the sound source management table 102 and the sound source data 101 corresponding to the room serving as the exhibition hall are registered in advance in a server (not shown) of the exhibition navigation system. In the sound source management table 102, as an initial state, sound sources related to the exhibitions 1 to 8 are managed in association with the showcase areas.

まず、サーバは、人Pが所有する携帯端末1が展示会場の音源ダウンロード区間Qに入ったのを検知して、展示会場となる部屋に対応する音源管理テーブル102および音源データ101を人Pの携帯端末1にダウンロードする。そして、携帯端末1は、音源位置制御方式における音源の再生を開始する。すなわち、携帯端末1は、音源管理テーブル102および音源データ101に基づいて、ショーケースエリアの各音源を再生する。 First, the server detects that the portable terminal 1 owned by the person P 0 has entered the sound source download section Q of the exhibition hall, and obtains the sound source management table 102 and the sound source data 101 corresponding to the room serving as the exhibition hall. Download to 0 mobile terminal 1. And the portable terminal 1 starts reproduction | regeneration of the sound source in a sound source position control system. That is, the mobile terminal 1 reproduces each sound source in the showcase area based on the sound source management table 102 and the sound source data 101.

そして、人Pは部屋の中央に立ち、ハンドアクションを使って音源を選択する。例えば、人Pは、興味を持った音源について、図6の携帯端末1の画面上の掴むボタンb2を押下し、さらに選択ボタンb1を押下することで、この音源の選択を確定する。選択した音源は、ショーケースエリアからフォーカスエリアに移動する音源となる。人Pは、この操作を繰り返し、興味を持った複数の音源を選択する。そして、人Pが、図6の携帯端末1の画面上のナビ開始ボタンb3を押下することで、ナビゲーションが開始される。すなわち、携帯端末1は、選択した音源を、順次、ショーケースエリアからフォーカスエリアに移動し、フォーカスエリアの音源を再生する。 Then, the person P 0 stands in the center of the room and selects a sound source using a hand action. For example, the person P 0 presses the button b2 to be grasped on the screen of the portable terminal 1 in FIG. 6 and presses the selection button b1 for the sound source that is interested, thereby confirming the selection of the sound source. The selected sound source is a sound source that moves from the showcase area to the focus area. The person P 0 repeats this operation and selects a plurality of sound sources that are interested. Then, the navigation starts when the person P 0 presses the navigation start button b3 on the screen of the mobile terminal 1 of FIG. That is, the mobile terminal 1 sequentially moves the selected sound source from the showcase area to the focus area, and reproduces the sound source in the focus area.

なお、携帯端末1は、予め定められた案内ルートをサーバから取り込み、取り込んだ案内ルートに基づいて、選択した音源を順番に再生するようにしても良い。また、ナビゲーションの開始の際には、携帯端末1は、人Pのプロフィールデータを展示説明員側に転送するようにし、人Pは、個人にカスタマイズされた説明を受けることも可能である。 Note that the mobile terminal 1 may take a predetermined guide route from the server and play the selected sound sources in order based on the taken guide route. At the start of navigation, the portable terminal 1 transfers the profile data of the person P 0 to the exhibition instructor side, and the person P 0 can receive an explanation customized to the individual. .

[実施例の効果]
上記実施例によれば、携帯端末1は、自端末の主体の動作および動作の方向を判定し、判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する。そして、携帯端末1は、音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォン2に出力する。かかる構成によれば、携帯端末1は、空間に仮想的に定位された音源の位置を主体の動作によって制御するので、定位された音源の位置を主体が操作することができる。この結果、携帯端末1は、操作後の音源の位置に基づいた音源の音の再生をすることが可能となる。
[Effect of Example]
According to the above-described embodiment, the mobile terminal 1 determines the action of the subject of the terminal itself and the direction of the action, and is virtually localized in the space around the subject based on the determined action and the direction of action. Control the position of the sound source. Then, the mobile terminal 1 reproduces the sound of the sound source based on the position of the sound source, and outputs the reproduced sound to the headphones 2. According to such a configuration, the mobile terminal 1 controls the position of the sound source virtually localized in the space by the main operation, so that the main body can operate the position of the localized sound source. As a result, the mobile terminal 1 can reproduce the sound of the sound source based on the position of the sound source after the operation.

また、上記実施例によれば、携帯端末1は、判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、判定された動作に基づいて、選択した音源の位置を移動させる。かかる構成によれば、携帯端末1は、主体の直感的な動作により注目する音源を選択したり、さらに移動させたりすることができ、移動後の音源の位置に基づいた再生をすることが可能となる。   Further, according to the above embodiment, the mobile terminal 1 selects a sound source virtually localized in the space based on the determined direction of the operation, and the position of the selected sound source based on the determined operation. Move. According to such a configuration, the mobile terminal 1 can select or further move the sound source of interest by the intuitive operation of the subject, and can reproduce based on the position of the moved sound source It becomes.

また、上記実施例によれば、携帯端末1では、音源管理テーブル102が、主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位された音源を管理する。そして、携帯端末1は、音源管理テーブル102に管理された音源の中から、判定された動作の方向に対応する音源を選択し、判定された動作に基づいて、選択した音源を、音源管理テーブル102によって管理された領域から異なる領域へ移動させる。かかる構成によれば、携帯端末1は、主体の動作によって領域から領域へ移動させた音源を、移動後の領域に基づいて再生することが可能となる。   Further, according to the above embodiment, in the mobile terminal 1, the sound source management table 102 is localized in a plurality of directions around the subject for each of a plurality of regions into which the space is divided according to the distance from the subject. Manage the generated sound source. Then, the mobile terminal 1 selects a sound source corresponding to the determined direction of operation from the sound sources managed in the sound source management table 102, and selects the selected sound source based on the determined operation. The area managed by 102 is moved to a different area. According to such a configuration, the mobile terminal 1 can reproduce the sound source that has been moved from region to region by the subject's action based on the moved region.

[プログラムなど]
なお、実施例では、ハンドアクション計測部16が、計測するハンドアクションとして、掴む動作、押す動作、引く動作、押し飛ばす動作を計測するとして説明した。しかしながら、ハンドアクション計測部16は、これらに限定されず、音源を移動させられる動作であってジャイロセンサ11、加速度センサ12、地磁気センサ13などを用いて計測可能な動作であればいかなる動作であっても良い。これにより、携帯端末1では、定位された音源の位置を、主体がきめ細かく操作することができる。
[Programs]
In the embodiment, the hand action measuring unit 16 has been described as measuring a gripping action, a pushing action, a pulling action, and a pushing action as the hand action to be measured. However, the hand action measurement unit 16 is not limited to these, and any operation is possible as long as the operation can move the sound source and can be measured using the gyro sensor 11, the acceleration sensor 12, the geomagnetic sensor 13, and the like. May be. Thereby, in the portable terminal 1, the subject can finely operate the position of the localized sound source.

また、実施例では、ハンドアクション計測部16は、ハンドアクション、すなわち手先の動作を計測するとして説明した。しかしながら、ハンドアクション計測部16は、これに限定されず、手先の代わりに、足先、足全体、胴体、頭部の動作を計測するようにしても良い。かかる場合、利用者は、ハンドアクション計測部16を有する携帯端末1を、動作を計測することとなる部位に装着するようにすれば良い。これにより、音源位置制御方式は、用途を汎用化できる。   In the embodiment, the hand action measuring unit 16 has been described as measuring a hand action, that is, a hand movement. However, the hand action measuring unit 16 is not limited to this, and instead of the hand, the hand action, the entire foot, the trunk, and the head may be measured. In such a case, the user may attach the portable terminal 1 having the hand action measuring unit 16 to a part where the action is to be measured. Thereby, the sound source position control method can be used for general purposes.

また、実施例では、音源位置制御システム9は、携帯端末1とヘッドフォン2とを備えるものと説明した。しかしながら、音源位置制御システム9は、これに限定されず、サーバを含む構成としても良い。例えば、サーバが、主体(携帯端末)毎の音源管理テーブル102を管理するようにする。この場合、音源管理部17が、ハンドアクション計測部16によって計測されたハンドアクションの方向に基づいて、空間に仮想的に定位された音源を選択する。そして、音源管理部17が、ハンドアクション計測部16によって計測されたハンドアクションに基づいて、選択した音源の位置を移動させるべく、サーバの音源管理テーブル102を更新する。そして、音源管理部17は、自端末に関する音源管理テーブル102の情報をサーバに問い合わせ、エリア毎の音源の情報を取得する。この結果、音源管理部17は、取得したエリア毎の音源の情報に基づいて、SW22および音源選択部19を制御することができる。また、サーバが、ハンドアクション計測部16を有するものとしても良く、音源管理部17を有するものとしても良く、携帯端末1と連携して音源位置制御処理を実現できれば良い。   In the embodiment, the sound source position control system 9 is described as including the mobile terminal 1 and the headphones 2. However, the sound source position control system 9 is not limited to this, and may include a server. For example, the server manages the sound source management table 102 for each subject (mobile terminal). In this case, the sound source management unit 17 selects a sound source virtually localized in the space based on the direction of the hand action measured by the hand action measurement unit 16. Then, the sound source management unit 17 updates the sound source management table 102 of the server so as to move the position of the selected sound source based on the hand action measured by the hand action measurement unit 16. Then, the sound source management unit 17 inquires of the server about information of the sound source management table 102 related to the own terminal, and acquires information on the sound source for each area. As a result, the sound source management unit 17 can control the SW 22 and the sound source selection unit 19 based on the acquired sound source information for each area. Further, the server may include the hand action measurement unit 16 or the sound source management unit 17 as long as the sound source position control process can be realized in cooperation with the mobile terminal 1.

なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、入力部14と出力部15とを1個の部として統合しても良い。一方、音源管理部17を、音源を選択する音源選択部と選択した音源を移動させる音源移動部とに分散しても良い。また、音源データ101および音源管理テーブル102などの記憶部を携帯端末1の外部装置としてネットワーク経由で接続するようにしても良い。   It should be noted that each component of each illustrated apparatus does not necessarily have to be physically configured as illustrated. That is, the specific mode of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the input unit 14 and the output unit 15 may be integrated as one unit. On the other hand, the sound source management unit 17 may be distributed between a sound source selection unit that selects a sound source and a sound source moving unit that moves the selected sound source. In addition, storage units such as the sound source data 101 and the sound source management table 102 may be connected as an external device of the mobile terminal 1 via a network.

また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図1に示した携帯端末1と同様の機能を実現する音源位置制御プログラムを実行するコンピュータの一例を説明する。図8は、音源位置制御プログラムを実行するコンピュータの一例を示す図である。   The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a sound source position control program that realizes the same function as the portable terminal 1 shown in FIG. 1 will be described. FIG. 8 is a diagram illustrating an example of a computer that executes a sound source position control program.

図8に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。そして、各装置201〜207は、バス208に接続される。   As shown in FIG. 8, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives input of data from a user, and a display 203. The computer 200 also includes a reading device 204 that reads programs and the like from a storage medium, and an interface device 205 that exchanges data with other computers via a network. The computer 200 also includes a RAM 206 that temporarily stores various information and a hard disk device 207. The devices 201 to 207 are connected to the bus 208.

ハードディスク装置207は、音源位置制御プログラム207a、音源位置制御関連情報207bを記憶する。CPU201は、音源位置制御プログラム207aを読み出して、RAM206に展開する。音源位置制御プログラム207aは、音源位置制御プロセス206aとして機能する。   The hard disk device 207 stores a sound source position control program 207a and sound source position control related information 207b. The CPU 201 reads the sound source position control program 207 a and develops it in the RAM 206. The sound source position control program 207a functions as a sound source position control process 206a.

例えば、音源位置制御プロセス206aは、ハンドアクション計測部16、音源管理部17、定位処理部18および音源選択部19に対応する。   For example, the sound source position control process 206 a corresponds to the hand action measurement unit 16, the sound source management unit 17, the localization processing unit 18, and the sound source selection unit 19.

なお、音源位置制御プログラム207aについては、必ずしも最初からハードディスク装置207に記憶させておかなくてもよい。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200がこれらから音源位置制御プログラム207aを読み出して実行するようにしても良い。   Note that the sound source position control program 207a is not necessarily stored in the hard disk device 207 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 200. Then, the computer 200 may read out and execute the sound source position control program 207a from these.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部と
を有することを特徴とする携帯端末。
(Additional remark 1) The determination part which determines the operation | movement of the main body of an own terminal, and the direction of operation,
A position control unit that controls the position of the sound source virtually localized in the space around the subject based on the motion and the direction of motion determined by the determination unit;
A portable terminal comprising: a reproduction unit that reproduces sound of a sound source based on the position of the sound source controlled by the position control unit, and outputs the reproduced sound to headphones.

(付記2)前記位置制御部は、前記判定部によって判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源の位置を移動させることを特徴とする付記1に記載の携帯端末。 (Additional remark 2) The said position control part selects the sound source virtually localized in space based on the direction of the operation | movement determined by the said determination part, and selects based on the operation | movement determined by the said determination part The mobile terminal according to appendix 1, wherein the position of the sound source is moved.

(付記3)前記位置制御部は、
主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位される音源を管理する管理テーブルと、
前記管理テーブルに管理された音源の中から、前記判定部によって判定された動作の方向に対応する音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源を、管理テーブルによって管理された領域から異なる領域へ移動させる移動部と
を有することを特徴とする付記2に記載の携帯端末。
(Supplementary Note 3) The position control unit
A management table for managing sound sources localized in a plurality of directions around the subject for each of a plurality of regions divided in space according to the length of the distance from the subject;
The sound source corresponding to the direction of the operation determined by the determination unit is selected from the sound sources managed in the management table, and the selected sound source is selected by the management table based on the operation determined by the determination unit. The mobile terminal according to Appendix 2, further comprising: a moving unit that moves the managed area to a different area.

(付記4)コンピュータが、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行することを特徴とする音源位置制御方法。
(Appendix 4) The computer
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control method, comprising: executing a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.

(付記5)コンピュータに、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行させることを特徴とする音源位置制御プログラム。
(Appendix 5)
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control program that executes a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.

(付記6)携帯端末と、該携帯端末と接続するヘッドフォンとを有し、
前記携帯端末は、
自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生する再生部とを有し、
前記ヘッドフォンは、
前再生部によって再生された音を出力する出力部
を有することを特徴とする音源位置制御システム。
(Additional remark 6) It has a portable terminal and the headphones connected with this portable terminal,
The portable terminal is
A determination unit that determines the operation of the subject terminal and the direction of the operation;
A position control unit that controls the position of the sound source virtually localized in the space around the subject based on the motion and the direction of motion determined by the determination unit;
Based on the position of the sound source controlled by the position control unit, and a reproduction unit that reproduces the sound of the sound source,
The headphones are
A sound source position control system comprising an output unit that outputs sound reproduced by a previous reproduction unit.

1 携帯端末
2 ヘッドフォン
10 記憶部
101 音源データ
102 音源管理テーブル
11 ジャイロセンサ
12 加速度センサ
13 地磁気センサ
14 入力部
15 出力部
16 ハンドアクション計測部
17 音源管理部
18 定位処理部
19 音源選択部
20 増幅回路
21 ミキサ
22 SW
23 再生部
31 頭部姿勢検出装置
32 出力装置
DESCRIPTION OF SYMBOLS 1 Portable terminal 2 Headphone 10 Memory | storage part 101 Sound source data 102 Sound source management table 11 Gyro sensor 12 Acceleration sensor 13 Geomagnetic sensor 14 Input part 15 Output part 16 Hand action measurement part 17 Sound source management part 18 Localization processing part 19 Sound source selection part 20 Amplification circuit 21 Mixer 22 SW
23 playback unit 31 head posture detection device 32 output device

Claims (5)

自端末の主体の動作および動作の方向を判定する判定部と、
前記判定部によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御する位置制御部と、
前記位置制御部によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する再生部と
を有することを特徴とする携帯端末。
A determination unit that determines the operation of the subject terminal and the direction of the operation;
A position control unit that controls the position of the sound source virtually localized in the space around the subject based on the motion and the direction of motion determined by the determination unit;
A portable terminal comprising: a reproduction unit that reproduces sound of a sound source based on the position of the sound source controlled by the position control unit, and outputs the reproduced sound to headphones.
前記位置制御部は、前記判定部によって判定された動作の方向に基づいて、空間に仮想的に定位された音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源の位置を移動させることを特徴とする請求項1に記載の携帯端末。   The position control unit selects a sound source virtually localized in space based on the direction of the operation determined by the determination unit, and the position of the selected sound source based on the operation determined by the determination unit The mobile terminal according to claim 1, wherein the mobile terminal is moved. 前記位置制御部は、
主体からの距離の長短に応じて空間が分割された複数の領域ごとに、主体を中心として複数の方向にそれぞれ定位される音源を管理する管理テーブルと、
前記管理テーブルに管理された音源の中から、前記判定部によって判定された動作の方向に対応する音源を選択し、前記判定部によって判定された動作に基づいて、選択した音源を、管理テーブルによって管理された領域から異なる領域へ移動させる移動部と
を有することを特徴とする請求項2に記載の携帯端末。
The position controller is
A management table for managing sound sources localized in a plurality of directions around the subject for each of a plurality of regions divided in space according to the length of the distance from the subject;
The sound source corresponding to the direction of the operation determined by the determination unit is selected from the sound sources managed in the management table, and the selected sound source is selected by the management table based on the operation determined by the determination unit. The mobile terminal according to claim 2, further comprising a moving unit that moves the managed area to a different area.
コンピュータが、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行することを特徴とする音源位置制御方法。
Computer
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control method, comprising: executing a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.
コンピュータに、
自端末の主体の動作および動作の方向を判定し、
前記判定する処理によって判定された動作および動作の方向に基づいて、主体の周囲の空間に仮想的に定位された音源の位置を制御し、
前記位置を制御する処理によって制御された音源の位置に基づいて、音源の音を再生し、再生した音をヘッドフォンに対して出力する
処理を実行させることを特徴とする音源位置制御プログラム。
On the computer,
Determine the actions and direction of the subject of the terminal itself,
Control the position of the sound source virtually localized in the space around the subject based on the motion and the motion direction determined by the determination processing,
A sound source position control program that executes a process of reproducing sound of a sound source based on the position of the sound source controlled by the process of controlling the position and outputting the reproduced sound to headphones.
JP2012077851A 2012-03-29 2012-03-29 Portable terminal, sound source position control method, and sound source position control program Active JP5825176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012077851A JP5825176B2 (en) 2012-03-29 2012-03-29 Portable terminal, sound source position control method, and sound source position control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012077851A JP5825176B2 (en) 2012-03-29 2012-03-29 Portable terminal, sound source position control method, and sound source position control program

Publications (2)

Publication Number Publication Date
JP2013207759A true JP2013207759A (en) 2013-10-07
JP5825176B2 JP5825176B2 (en) 2015-12-02

Family

ID=49526402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012077851A Active JP5825176B2 (en) 2012-03-29 2012-03-29 Portable terminal, sound source position control method, and sound source position control program

Country Status (1)

Country Link
JP (1) JP5825176B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080087A (en) * 2013-10-17 2015-04-23 富士通株式会社 Sound processing device, sound processing method, and program
JP2015143987A (en) * 2014-01-03 2015-08-06 ハーマン インターナショナル インダストリーズ インコーポレイテッド In-vehicle gesture interactive spatial audio system
JP2017079457A (en) * 2015-10-19 2017-04-27 このみ 一色 Portable information terminal, information processing apparatus, and program
JP2019514293A (en) * 2016-04-12 2019-05-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Spatial audio processing to emphasize sound sources close to the focal distance
JP2019097162A (en) * 2017-11-27 2019-06-20 ノキア テクノロジーズ オーユー User interface for selecting sound object to be rendered by user and/or method of rendering user interface for selecting sound object to be rendered by the user
JP2021005873A (en) * 2014-08-26 2021-01-14 ブラックマジック デザイン ピーティーワイ リミテッドBlackmagic Design Pty Ltd Method and system for positioning and controlling sound image in three-dimensional space
JP2022537513A (en) * 2019-06-11 2022-08-26 ノキア テクノロジーズ オサケユイチア Sound field rendering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990963A (en) * 1995-09-20 1997-04-04 Hitachi Ltd Sound information providing device and sound information selecting method
JP2006174159A (en) * 2004-12-16 2006-06-29 Yamaha Corp Portable information processing unit and sound image localization method
WO2006137400A1 (en) * 2005-06-21 2006-12-28 Japan Science And Technology Agency Mixing device, method, and program
JP2008092193A (en) * 2006-09-29 2008-04-17 Japan Science & Technology Agency Sound source selecting device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0990963A (en) * 1995-09-20 1997-04-04 Hitachi Ltd Sound information providing device and sound information selecting method
JP2006174159A (en) * 2004-12-16 2006-06-29 Yamaha Corp Portable information processing unit and sound image localization method
WO2006137400A1 (en) * 2005-06-21 2006-12-28 Japan Science And Technology Agency Mixing device, method, and program
JP2008092193A (en) * 2006-09-29 2008-04-17 Japan Science & Technology Agency Sound source selecting device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080087A (en) * 2013-10-17 2015-04-23 富士通株式会社 Sound processing device, sound processing method, and program
JP2015143987A (en) * 2014-01-03 2015-08-06 ハーマン インターナショナル インダストリーズ インコーポレイテッド In-vehicle gesture interactive spatial audio system
JP2017509181A (en) * 2014-01-03 2017-03-30 ハーマン インターナショナル インダストリーズ インコーポレイテッド Gesture-interactive wearable spatial audio system
US10126823B2 (en) 2014-01-03 2018-11-13 Harman International Industries, Incorporated In-vehicle gesture interactive spatial audio system
US10585486B2 (en) 2014-01-03 2020-03-10 Harman International Industries, Incorporated Gesture interactive wearable spatial audio system
JP2021005873A (en) * 2014-08-26 2021-01-14 ブラックマジック デザイン ピーティーワイ リミテッドBlackmagic Design Pty Ltd Method and system for positioning and controlling sound image in three-dimensional space
JP2017079457A (en) * 2015-10-19 2017-04-27 このみ 一色 Portable information terminal, information processing apparatus, and program
JP2019514293A (en) * 2016-04-12 2019-05-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Spatial audio processing to emphasize sound sources close to the focal distance
JP2019097162A (en) * 2017-11-27 2019-06-20 ノキア テクノロジーズ オーユー User interface for selecting sound object to be rendered by user and/or method of rendering user interface for selecting sound object to be rendered by the user
JP2022537513A (en) * 2019-06-11 2022-08-26 ノキア テクノロジーズ オサケユイチア Sound field rendering

Also Published As

Publication number Publication date
JP5825176B2 (en) 2015-12-02

Similar Documents

Publication Publication Date Title
JP5825176B2 (en) Portable terminal, sound source position control method, and sound source position control program
JP6668661B2 (en) Parameter control device and parameter control program
US10824251B2 (en) Devices and methods for sharing user interaction
US20090282335A1 (en) Electronic device with 3d positional audio function and method
JP6322830B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP2019068446A (en) Calibration of reproduction device
JP2014002748A (en) Remote control device and method for controlling the same
JP2010205394A (en) Sound source-reproducing device and sound source-selecting and reproducing method
JP2009514316A (en) System and method for controlling a device utilizing position and contact
JP2005286903A (en) Device, system and method for reproducing sound, control program, and information recording medium with the program recorded thereon
CN106790940B (en) Recording method, recording playing method, device and terminal
TW201333813A (en) Audio player and control method thereof
WO2015162923A1 (en) Regenerating apparatus and method of regeneration
TW201029345A (en) Remote controller and function-setting and operating method of the same
EP3787318A1 (en) Signal processing device, channel setting method, program and speaker system
JP2014187413A (en) Acoustic device and program
JP6608254B2 (en) Recording device, advice output method and program
JPWO2006064717A1 (en) Video display device, playback device remote controller and playback device
JP5912940B2 (en) Evaluation apparatus, evaluation method, program, and system
JP5648515B2 (en) User interface device
KR101686876B1 (en) Apparatus and method for rhythm action game
WO2024004651A1 (en) Audio playback device, audio playback method, and audio playback program
JP6993774B2 (en) Audio output controller
JP6138031B2 (en) Karaoke microphone
TWM472256U (en) Voice tour guiding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R150 Certificate of patent or registration of utility model

Ref document number: 5825176

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150