WO2016080504A1 - Terminal device, control target specification method, audio signal processing system, and program for terminal device - Google Patents

Terminal device, control target specification method, audio signal processing system, and program for terminal device Download PDF

Info

Publication number
WO2016080504A1
WO2016080504A1 PCT/JP2015/082615 JP2015082615W WO2016080504A1 WO 2016080504 A1 WO2016080504 A1 WO 2016080504A1 JP 2015082615 W JP2015082615 W JP 2015082615W WO 2016080504 A1 WO2016080504 A1 WO 2016080504A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
position information
target
sound source
unit
Prior art date
Application number
PCT/JP2015/082615
Other languages
French (fr)
Japanese (ja)
Inventor
須山 明彦
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Publication of WO2016080504A1 publication Critical patent/WO2016080504A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Abstract

This terminal device is provided with: an angle information output unit that, when the terminal device is pointed in a prescribed direction, detects an angle of rotation about a vertical axis, said angle of rotation being based on an axis that is orthogonal to the vertical axis, and an angle of inclination about the axis that is orthogonal to the vertical axis, and outputs the angle of rotation and angle of inclination as angle information; a target location information storage unit that stores location information for a plurality of control targets; and a control target specification unit that compares location information calculated on the basis of the angle information output from the angle information output unit with location information for the control targets, said information being stored in the target location information storage unit, and specifies a control target.

Description

端末装置、制御対象特定方法、オーディオ信号処理システムおよび端末装置のプログラムTerminal device, control target specifying method, audio signal processing system, and terminal device program
 この開示は、複数のスピーカを用いて臨場感の高い音を再生する技術に関し、特に仮想音源等の特定と位置の設定を支援する技術に関する。 This disclosure relates to technology for reproducing highly realistic sounds using a plurality of speakers, and more particularly to technology for supporting the specification and position setting of a virtual sound source or the like.
 この種の技術の一例としては、2個のスピーカから同じ音量、同じ位相の音を出力することでそれらスピーカの間の位置にあたかも仮想スピーカがあるかのような聴感を聴者に与える(すなわち、それらスピーカの間の位置に音像を定位させる)技術が挙げられる。また、音量変化や周波数変化などによる音響効果の付与により、音像が移動しているかのような聴感(仮想音源が移動しているかのような聴感)を聴者に与えることも一般に行われている。従来、この種の技術は、映画館やテーマパークなどに設置されるオーディオシステムなどの比較的大規模なシステムで採用されることが多かったが、近年ではホームシアターシステムなどの家庭用のオーディオシステムにも採用されるようになってきている。 As an example of this kind of technology, by outputting sounds of the same volume and phase from two speakers, the listener feels as if there is a virtual speaker in the position between the speakers (ie, A technique of localizing a sound image at a position between the speakers). Also, it is generally performed to give a listener a sense of sound as if a sound image is moving (a sense of sound as if a virtual sound source is moving) by applying a sound effect due to volume change or frequency change. Conventionally, this type of technology has often been used in relatively large-scale systems such as audio systems installed in movie theaters and theme parks, but in recent years it has been applied to home audio systems such as home theater systems. Are also being adopted.
日本国特開2009-065452号公報Japanese Unexamined Patent Publication No. 2009-065452
 しかし、これら複数のスピーカを用いて臨場感の高い音の再生を可能とするオーディオシステムにおいて、仮想スピーカや仮想音源の位置を直観的で判り易い操作によりユーザに特定させる技術、および、特定した仮想スピーカや仮想音源を直観的で判り易い操作により所望の位置に移動させる技術は従来提案されていなかった。 However, in an audio system that enables the reproduction of sound with a high sense of presence using these multiple speakers, a technology that allows the user to specify the positions of virtual speakers and virtual sound sources through intuitive and easy-to-understand operations, and the specified virtual Conventionally, a technique for moving a speaker or a virtual sound source to a desired position by an intuitive and easy-to-understand operation has not been proposed.
 本開示は上記課題に鑑みて為されたものであり、複数のスピーカを有するオーディオシステム、または、複数チャネルの音響信号を出力可能な装置における仮想音源等の特定、あるいは、仮想音源等の所望の位置への移動を直観的で判りやすい操作により実現する技術を提供することを目的とする。 The present disclosure has been made in view of the above-described problems, and it is possible to specify a virtual sound source in an audio system having a plurality of speakers, or an apparatus capable of outputting a multi-channel acoustic signal, or a desired sound source such as a virtual sound source. An object is to provide a technique for realizing movement to a position by an intuitive and easy-to-understand operation.
 上記課題を解決するために本開示の端末装置は、端末装置を所定の方向に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力する角度情報出力部と、複数の制御対象の位置情報を記憶する対象位置情報記憶部と、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報と、前記対象位置情報記憶部に記憶された前記複数の制御対象の位置情報との比較を行い、制御対象の特定を行う制御対象特定部と、を備えることを特徴とする。 In order to solve the above-described problem, the terminal device of the present disclosure includes a rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis when the terminal device is oriented in a predetermined direction, and the vertical axis. An angle information output unit that detects an inclination angle around an orthogonal axis and outputs the rotation angle and the inclination angle as angle information; an object position information storage unit that stores position information of a plurality of control objects; and The position information calculated based on the angle information output from the angle information output unit is compared with the position information of the plurality of control targets stored in the target position information storage unit, and the control target is specified. And a control target specifying unit to perform.
 本開示によれば、複数のスピーカと各スピーカにオーディオ信号を供給するオーディオアンプとを含むオーディオシステムにおける仮想音源等の特定、または仮想音源等の所望の位置への移動を直観的で判りやすい操作で実現できる。 According to the present disclosure, an intuitive and easy-to-understand operation for specifying a virtual sound source or moving a virtual sound source to a desired position in an audio system including a plurality of speakers and an audio amplifier that supplies an audio signal to each speaker. Can be realized.
本開示の第1実施形態のオーディオ信号処理システムの構成例を示す図である。It is a figure showing an example of composition of an audio signal processing system of a 1st embodiment of this indication. オーディオ信号処理システムにおけるスピーカ配置の一例を示す図である。It is a figure which shows an example of speaker arrangement | positioning in an audio signal processing system. オーディオ信号処理システムに含まれるオーディオ信号処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the audio signal processing apparatus contained in an audio signal processing system. オーディオ信号処理システムに含まれる端末装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the terminal device contained in an audio signal processing system. 端末装置から出力される角度情報を説明するための図である。It is a figure for demonstrating the angle information output from a terminal device. 端末装置における全体的な処理を示すフローチャートである。It is a flowchart which shows the whole process in a terminal device. 端末装置における対象音源の特定処理を示すフローチャートである。It is a flowchart which shows the specific process of the target sound source in a terminal device. 端末装置における仮想音源の位置指定処理を示すフローチャートである。It is a flowchart which shows the position designation | designated process of the virtual sound source in a terminal device. 端末装置のリセット処理時における表示例を示す図である。It is a figure which shows the example of a display at the time of the reset process of a terminal device. 端末装置のリセット方向について説明するための図である。It is a figure for demonstrating the reset direction of a terminal device. 第1実施形態で用いられる3次元座標空間を説明するための図である。It is a figure for demonstrating the three-dimensional coordinate space used by 1st Embodiment. スピーカ管理テーブルを示す図である。It is a figure which shows a speaker management table. 仮想音源管理テーブルを示す図である。It is a figure which shows a virtual sound source management table. 対象音源の特定処理の開始時における端末装置の表示例を示す図である。It is a figure which shows the example of a display of the terminal device at the time of the start of the specific process of a target sound source. 第1実施形態における対象音源の特定処理の際の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process in the case of the specific process of the target sound source in 1st Embodiment. 第1実施形態における対象音源の特定処理の際の座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process in the case of the specific process of the target sound source in 1st Embodiment. 第1実施形態における対象音源の特定処理の際の座標算出例を説明するための図である。It is a figure for demonstrating the example of a coordinate calculation in the case of the specific process of the target sound source in 1st Embodiment. 第1実施形態における対象音源の特定処理の際の座標算出例を説明するための図である。It is a figure for demonstrating the example of a coordinate calculation in the case of the specific process of the target sound source in 1st Embodiment. 対象音源が特定された際の端末装置の表示例を示す図である。It is a figure which shows the example of a display of a terminal device when a target sound source is specified. 仮想音源の設定位置指定処理の開始時における端末装置の表示例を示す図である。It is a figure which shows the example of a display of a terminal device at the time of the start of the setting position designation | designated process of a virtual sound source. 第1実施形態における対象音源の位置指定処理の際の座標算出例を説明するための図である。It is a figure for demonstrating the example of a coordinate calculation in the case of the position specification process of the target sound source in 1st Embodiment. 第1実施形態における対象音源の位置指定処理の際の座標算出例を説明するための図である。It is a figure for demonstrating the example of a coordinate calculation in the case of the position specification process of the target sound source in 1st Embodiment. 第1実施形態における対象音源の位置指定処理の際の座標算出例を説明するための図である。It is a figure for demonstrating the example of a coordinate calculation in the case of the position specification process of the target sound source in 1st Embodiment. 第1実施形態における対象音源の位置指定処理の際の座標算出例を説明するための図である。It is a figure for demonstrating the example of a coordinate calculation in the case of the position specification process of the target sound source in 1st Embodiment. 更新後の仮想音源管理テーブルを示す図である。It is a figure which shows the virtual sound source management table after an update. 第2実施形態における端末装置の全体的な処理を示すフローチャートである。It is a flowchart which shows the whole process of the terminal device in 2nd Embodiment. 第2実施形態における端末装置の対象音源の特定処理を示すフローチャートである。It is a flowchart which shows the specific process of the target sound source of the terminal device in 2nd Embodiment. 第2実施形態における端末装置の仮想音源の位置指定処理を示すフローチャートである。It is a flowchart which shows the position designation | designated process of the virtual sound source of the terminal device in 2nd Embodiment. 距離を調整する際の端末装置の表示例を示す図である。It is a figure which shows the example of a display of the terminal device at the time of adjusting distance. 距離を調整する際の端末装置の表示例を示す図である。It is a figure which shows the example of a display of the terminal device at the time of adjusting distance. 距離の調整により特定可能および位置指定可能な音源を説明するための図である。It is a figure for demonstrating the sound source which can be specified and position designation by adjustment of distance. 第3実施形態で用いられる3次元座標空間を説明するための図である。It is a figure for demonstrating the three-dimensional coordinate space used by 3rd Embodiment. 第3実施形態における座標算出処理を説明するための図である。It is a figure for demonstrating the coordinate calculation process in 3rd Embodiment. 第3実施形態で用いられる3次元座標空間を説明するための図である。It is a figure for demonstrating the three-dimensional coordinate space used by 3rd Embodiment. 第3実施形態で用いられる3次元座標空間を説明するための図である。It is a figure for demonstrating the three-dimensional coordinate space used by 3rd Embodiment. 第3実施形態で用いられる3次元座標空間を説明するための図である。It is a figure for demonstrating the three-dimensional coordinate space used by 3rd Embodiment. 変形例に係る音響再生装置の外観図である。It is an external view of the sound reproduction apparatus which concerns on a modification. 本体部のブロック図であるIt is a block diagram of a main-body part. 音像定位部のブロック図である。It is a block diagram of a sound image localization part.
<A:第1実施形態>
<A-1:オーディオ信号処理システムの構成>
 図1に、第1実施形態に係るオーディオ信号処理システムの構成例を示す。オーディオ信号処理システム1Aは、スマートフォンなどの端末装置10と、オーディオ信号処理装置20と、スピーカSP1~SP9とを備える。端末装置10は、例えば、スマートフォンなどの通信機器であり、オーディオ信号処理装置20と通信可能である。通信の形態は無線又は有線のいずれであってあってもよいが、例えば、無線LAN(Local Area Network)を介して通信が可能である。また、端末装置10は、インターネット上の所定のサイトからアプリケーションプログラムをダウンロードすることができる。そのようなアプリケーションプログラムには、仮想音源を特定するプログラム、および仮想音源の設定位置を指定するプログラムが含まれ得る。
<A: First Embodiment>
<A-1: Configuration of audio signal processing system>
FIG. 1 shows a configuration example of an audio signal processing system according to the first embodiment. The audio signal processing system 1A includes a terminal device 10 such as a smartphone, an audio signal processing device 20, and speakers SP1 to SP9. The terminal device 10 is a communication device such as a smartphone and can communicate with the audio signal processing device 20. The form of communication may be either wireless or wired, but for example, communication is possible via a wireless LAN (Local Area Network). Further, the terminal device 10 can download an application program from a predetermined site on the Internet. Such an application program may include a program for specifying a virtual sound source and a program for specifying a set position of the virtual sound source.
 オーディオ信号処理装置20は、いわゆるマルチチャネルアンプである。オーディオ信号処理装置20は、入力オーディオ信号IN1~IN9に音響効果を付与した出力オーディオ信号OUT1~OUT9を生成し、OUT1~OUT9をスピーカSP1~SP9に供給する。スピーカSP1~SP9は、オーディオ信号処理装置20と有線又は無線にて接続されている。 The audio signal processing device 20 is a so-called multi-channel amplifier. The audio signal processing device 20 generates output audio signals OUT1 to OUT9 obtained by applying acoustic effects to the input audio signals IN1 to IN9, and supplies OUT1 to OUT9 to the speakers SP1 to SP9. The speakers SP1 to SP9 are connected to the audio signal processing device 20 by wire or wirelessly.
 図2に、オーディオ信号処理システム1Aのリスニングルーム内のスピーカSP1~SP9の配置例を示す。この例では、9つのスピーカSP1~SP9がリスニングルーム内に配置されているが、スピーカの数は、9つに限らず、5つ以下であってもよいし、10以上であってもよい。この場合、入力オーディオ信号の数は、5つ以下であってもよいし、10以上であってもよい。本実施形態においては、例えば、7.1chサラウンドシステムに、リアの左右のプレゼンススピーカを加えたものである。なお、サブウーハのスピーカについては記載を省略している。 FIG. 2 shows an arrangement example of the speakers SP1 to SP9 in the listening room of the audio signal processing system 1A. In this example, nine speakers SP1 to SP9 are arranged in the listening room, but the number of speakers is not limited to nine and may be five or less, or ten or more. In this case, the number of input audio signals may be 5 or less, or 10 or more. In the present embodiment, for example, a left and right presence speakers are added to a 7.1 channel surround system. Note that the description of the subwoofer speaker is omitted.
 このオーディオ信号処理システム1Aにおいては、リスニングルーム内のスピーカSP1~SP9の各位置を示すスピーカ位置情報は既知である。利用者Aがあらかじめ定められた位置(以下「基準位置Pref」と称する。)で、スピーカSP1~SP9から放音された音を視聴した場合に所望の音響効果が得られる。この例では、センタスピーカSP1は基準位置Prefの正面に配置され、右フロントスピーカSP2は基準位置Prefの右斜め前方に配置され、右サラウンドスピーカSP3は基準位置Prefの右斜め後方に配置され、左サラウンドスピーカSP4は基準位置Prefの左斜め後方に配置され、左フロントスピーカSP5は基準位置Prefの左斜め前方に配置される。また、右フロントプレゼンススピーカSP6は基準位置Prefの右斜め前方の上方に配置され、右リアプレゼンススピーカSP7は基準位置Prefの右斜め後方の上方に配置され、左リアプレゼンススピーカSP8は基準位置Prefの左斜め後方の上方に配置され、左フロントプレゼンススピーカSP9は基準位置Prefの左斜め前方の上方に配置される。 In this audio signal processing system 1A, the speaker position information indicating the positions of the speakers SP1 to SP9 in the listening room is known. When the user A views the sound emitted from the speakers SP1 to SP9 at a predetermined position (hereinafter referred to as “reference position Pref”), a desired acoustic effect is obtained. In this example, the center speaker SP1 is disposed in front of the reference position Pref, the right front speaker SP2 is disposed obliquely to the right of the reference position Pref, and the right surround speaker SP3 is disposed obliquely to the right of the reference position Pref. The surround speaker SP4 is disposed obliquely to the left of the reference position Pref, and the left front speaker SP5 is disposed obliquely to the left of the reference position Pref. Further, the right front presence speaker SP6 is disposed above and obliquely forward to the right of the reference position Pref, the right rear presence speaker SP7 is disposed above and obliquely rearward to the right of the reference position Pref, and the left rear presence speaker SP8 is disposed at the reference position Pref. The left front presence speaker SP9 is disposed above and diagonally to the left of the reference position Pref.
 本実施形態では、センタチャネル、右フロントチャネル、左フロントチャネル、右サラウンドチャネル、左サラウンドチャネル、右フロントプレゼンスチャネル、左フロントプレゼンスチャネル、右リアプレゼンスチャネル、および左リアプレゼンスチャネルの9つのチャネルのオーディオ信号が再生装置(図示略)からオーディオ信号処理装置20に与えられる。本実施形態では、これら9つのチャネルの各々(或いは、これら9つのチャネルのうちの任意の2つ以上のミキシング結果)を仮想音源化して所望の位置に設置すること(すなわち、仮想音源化したオーディオ信号に対応する音像の定位位置として当該所望の位置を設定すること)を直観的で判りやすい操作によりユーザに行わせることができる。 In the present embodiment, the audio of nine channels including a center channel, a right front channel, a left front channel, a right surround channel, a left surround channel, a right front presence channel, a left front presence channel, a right rear presence channel, and a left rear presence channel. A signal is supplied from a playback device (not shown) to the audio signal processing device 20. In the present embodiment, each of these nine channels (or any two or more mixing results of these nine channels) is converted into a virtual sound source and installed at a desired position (that is, audio converted into a virtual sound source). Setting the desired position as the localization position of the sound image corresponding to the signal) can be performed by the user through an intuitive and easy-to-understand operation.
 例えば、左フロントプレゼンスチャネルに含まれる音像R1を仮想音源化した仮想音源V1として左フロントプレゼンススピーカSP9、左フロントスピーカSP5、左サラウンドスピーカSP4および左リアプレゼンススピーカSP8の間の位置(図2では、点線丸印で表記)に置く場合には、端末装置10の操作によって左フロントプレゼンスチャネルに含まれる音像R1が操作対象として特定されると、オーディオ信号処理装置20は、左フロントプレゼンスチャネルに含まれる音像R1を作成するオーディオ信号を選択する。次に、端末装置10の操作によって音像R1を仮想音源V1の位置に置くことが指示されると、オーディオ信号処理装置20は、左フロントプレゼンスチャネルに含まれる音像R1が当該位置に定位するように、左フロントプレゼンスチャネルのオーディオ信号を左フロントプレゼンススピーカSP9、左フロントスピーカSP5、左サラウンドスピーカSP4および左リアプレゼンススピーカSP8の各々に振り分けて出力する。上述の説明では端末装置10がR1を特定するとオーディオ信号処理装置20が対応する信号を選択し、次に端末装置10が変更位置を指示するという処理手順としたが、端末装置10がR1を特定し、位置を変更した時点で、オーディオ信号処理装置20が対応する信号を選択し位置制御するようにしても良い。
 以下、本実施形態の特徴を顕著に示すオーディオ信号処理装置20および端末装置10を中心に説明する。
For example, the position between the left front presence speaker SP9, the left front speaker SP5, the left surround speaker SP4, and the left rear presence speaker SP8 as a virtual sound source V1 obtained by converting the sound image R1 included in the left front presence channel into a virtual sound source (in FIG. 2, When the sound image R1 included in the left front presence channel is specified as an operation target by operating the terminal device 10, the audio signal processing device 20 is included in the left front presence channel. An audio signal for creating the sound image R1 is selected. Next, when the operation of the terminal device 10 instructs to place the sound image R1 at the position of the virtual sound source V1, the audio signal processing device 20 causes the sound image R1 included in the left front presence channel to be localized at the position. The left front presence channel audio signal is distributed to the left front presence speaker SP9, left front speaker SP5, left surround speaker SP4 and left rear presence speaker SP8. In the above description, when the terminal device 10 specifies R1, the audio signal processing device 20 selects a corresponding signal, and then the terminal device 10 instructs the change position. However, the terminal device 10 specifies R1. When the position is changed, the audio signal processing device 20 may select the corresponding signal and control the position.
Hereinafter, the audio signal processing device 20 and the terminal device 10 that clearly show the features of the present embodiment will be mainly described.
<A-2:オーディオ信号処理装置20の構成>
 図3に示されるオーディオ信号処理装置20は、装置全体の制御中枢として機能するCPU210、外部と通信を実行する通信インターフェース220、プログラムやデータを記憶するとともにCPU210の作業領域として機能するメモリ230、マイクロフォンなどの外部装置からの信号を入力してCPU210に供給する外部インターフェース240、基準信号Sr1~Sr9を生成する基準信号生成回路250、選択回路260およびm個の処理ユニットU1~Umを備える。m個の処理ユニットU1~UmおよびCPU210は、複数のスピーカSP1~SP9の各位置を示すスピーカ位置情報、および仮想音源の位置を示す仮想音源位置情報(座標情報)に基づいて、入力オーディオ信号IN1~IN9に音響効果を付与した出力オーディオ信号OUT1~OUT9を複数のスピーカSP1~SP9の各々について生成する。
<A-2: Configuration of Audio Signal Processing Device 20>
An audio signal processing device 20 shown in FIG. 3 includes a CPU 210 that functions as a control center of the entire device, a communication interface 220 that performs communication with the outside, a memory 230 that stores programs and data and functions as a work area of the CPU 210, and a microphone. An external interface 240 that receives a signal from an external device and supplies it to the CPU 210, a reference signal generation circuit 250 that generates reference signals Sr1 to Sr9, a selection circuit 260, and m processing units U1 to Um are provided. The m processing units U1 to Um and the CPU 210, based on the speaker position information indicating each position of the plurality of speakers SP1 to SP9 and the virtual sound source position information (coordinate information) indicating the position of the virtual sound source, input audio signal IN1. Output audio signals OUT1 to OUT9 obtained by applying acoustic effects to .about.IN9 are generated for each of the plurality of speakers SP1 to SP9.
 ここで、j(jは1≦j≦mを満たす任意の自然数)番目の処理ユニットUjは、仮想音源化部300、周波数補正部310、ゲイン分配部320、および加算器331~339を有する。なお、他の処理ユニットU1、U2、…Uj-1、Uj+1、…Umは、処理ユニットUjと同様に構成されている。 Here, the j-th processing unit Uj (j is an arbitrary natural number satisfying 1 ≦ j ≦ m) includes a virtual sound source unit 300, a frequency correction unit 310, a gain distribution unit 320, and adders 331 to 339. The other processing units U1, U2,... Uj-1, Uj + 1,... Um are configured in the same manner as the processing unit Uj.
 仮想音源化部300は、入力オーディオ信号IN1~IN9に基づいて、仮想音源のオーディオ信号を生成する。この例では、m個の処理ユニットU1~Umを備えるので、m個の仮想音源に対応した出力オーディオ信号OUT1~OUT9を生成することができる。仮想音源化部300は、9個のスイッチSW1~SW9とミキサ301とを備える。CPU210は仮想音源化部300を制御する。より具体的には、CPU210は、メモリ230にm個の仮想音源を管理する仮想音源管理テーブルを記憶しておき、仮想音源管理テーブルを参照して仮想音源化部300を制御する。仮想音源管理テーブルには、各仮想音源について、どの入力オーディオ信号IN1~IN9をミキシングすればよいかを表わすデータ(例えば、ミキシングするチャネルを示すチャネル識別子や、それぞれのチャネルについてミキシングするか否かを表わす論理値など)が格納されている。そして、CPU210は、仮想音源管理テーブルを参照して入力オーディオ信号IN1~IN9のうちミキシングの対象となる入力オーディオ信号に対応するスイッチを順次にオンにして、ミキシングの対象となる入力オーディオ信号を取り込む。例えば、ミキシングの対象となる入力オーディオ信号がIN1、IN2およびIN5である場合、まず、CPU210は、入力オーディオ信号IN1に対応するスイッチSW1をオンにし、他のスイッチSW2~SW9をオフにする。次に、CPU210は、入力オーディオ信号IN2に対応するスイッチSW2をオンにし、他のスイッチSW1、SW3~SW9をオフにする。その次に、CPU210は、入力オーディオ信号IN5に対応するスイッチSW5をオンにし、他のスイッチSW1~SW4、SW6~SW9をオフにする。 The virtual sound generator 300 generates an audio signal of a virtual sound source based on the input audio signals IN1 to IN9. In this example, since m processing units U1 to Um are provided, output audio signals OUT1 to OUT9 corresponding to m virtual sound sources can be generated. The virtual sound generator 300 includes nine switches SW1 to SW9 and a mixer 301. The CPU 210 controls the virtual sound generator 300. More specifically, the CPU 210 stores a virtual sound source management table for managing m virtual sound sources in the memory 230, and controls the virtual sound source generating unit 300 with reference to the virtual sound source management table. In the virtual sound source management table, data indicating which input audio signals IN1 to IN9 should be mixed for each virtual sound source (for example, channel identifiers indicating channels to be mixed, and whether to mix each channel). For example, a logical value to represent). Then, the CPU 210 refers to the virtual sound source management table and sequentially turns on the switch corresponding to the input audio signal to be mixed among the input audio signals IN1 to IN9 to capture the input audio signal to be mixed. . For example, when the input audio signals to be mixed are IN1, IN2, and IN5, first, the CPU 210 turns on the switch SW1 corresponding to the input audio signal IN1, and turns off the other switches SW2 to SW9. Next, the CPU 210 turns on the switch SW2 corresponding to the input audio signal IN2, and turns off the other switches SW1, SW3 to SW9. Next, the CPU 210 turns on the switch SW5 corresponding to the input audio signal IN5, and turns off the other switches SW1 to SW4 and SW6 to SW9.
 周波数補正部310は、仮想音源化部300の出力信号に周波数補正を施す。具体的には、CPU210の制御の下、周波数補正部310は、仮想音源の位置から基準位置Prefまでの距離にしたがって、距離が遠いほど、高域の周波数成分を大きく減衰させるように周波数特性を補正する。これは、仮想音源から基準位置Prefまでの距離が大きいほど、高周波成分の減衰量が大きくなるという音響特性を再現するためである。 The frequency correction unit 310 performs frequency correction on the output signal of the virtual sound source unit 300. Specifically, under the control of the CPU 210, the frequency correction unit 310 adjusts the frequency characteristics so that the higher frequency components are attenuated as the distance increases, according to the distance from the position of the virtual sound source to the reference position Pref. to correct. This is for reproducing the acoustic characteristic that the attenuation amount of the high frequency component increases as the distance from the virtual sound source to the reference position Pref increases.
 メモリ230は、減衰量テーブルをあらかじめ記憶している。減衰量テーブルには、仮想音源から基準位置Prefまでの距離と各周波数成分の減衰量との関係を表わすデータが格納されている。一方、仮想音源管理テーブルには、それぞれの仮想音源の位置を示す仮想音源位置情報が格納されている。仮想音源位置情報は、基準位置Prefを原点とする三次元直交座標で与えられる。なお、仮想音源位置情報を二次元直交座標、あるいは極座標で表してもよい。この例では、仮想音源位置情報は、三次元直交座標の座標情報で与えられるものとする。 The memory 230 stores an attenuation table in advance. The attenuation amount table stores data representing the relationship between the distance from the virtual sound source to the reference position Pref and the attenuation amount of each frequency component. On the other hand, the virtual sound source management table stores virtual sound source position information indicating the position of each virtual sound source. The virtual sound source position information is given in three-dimensional orthogonal coordinates with the reference position Pref as the origin. The virtual sound source position information may be represented by two-dimensional orthogonal coordinates or polar coordinates. In this example, it is assumed that the virtual sound source position information is given as coordinate information of three-dimensional orthogonal coordinates.
 CPU210は、第1に、メモリ230が記憶した仮想音源管理テーブルの内容を読み出し、読み出した仮想音源管理テーブルの内容に基づいて、それぞれの仮想音源から基準位置Prefまでの距離を算出し、第2に、減衰量テーブルを参照して算出した基準位置Prefまでの距離に応じた各周波数の減衰量を取得し、第3に、取得した減衰量に応じた周波数特性が得られるように周波数補正部310を制御する。 The CPU 210 first reads the contents of the virtual sound source management table stored in the memory 230, calculates the distance from each virtual sound source to the reference position Pref based on the contents of the read virtual sound source management table, and second The frequency correction unit obtains the attenuation amount of each frequency according to the distance to the reference position Pref calculated with reference to the attenuation amount table, and thirdly, obtains the frequency characteristic according to the acquired attenuation amount. 310 is controlled.
 ゲイン分配部320は、CPU210の制御の下、周波数補正部310の出力信号を各スピーカSP1~SP9に分配して、分配した複数のオーディオ信号Aj[1]~Aj[9]を出力する。各スピーカSP1~SP9に対するオーディオ信号のゲインは、スピーカSP1~SP9と仮想音源との間の距離が遠いほど小さくなる。これにより、あたかも仮想音源の位置として設定された場所から音が放射されているかような音場を形成することができる。例えば、各スピーカSP1~SP9に対するオーディオ信号Aj[1]~Aj[9]のゲインは、スピーカSP1~SP9と仮想音源との間の距離の逆数に比例する。あるいは、ゲインが、スピーカSP1~SP9と仮想音源との間の距離の二乗あるいは四乗の逆数に比例する構成であってもよい。なお、仮想音源との間の距離がほぼ0であるスピーカSP1~SP9が存在する場合は、それ以外のスピーカSP1~SP9に対するオーディオ信号Aj[1]~Aj[9]のゲインを0にする。 The gain distribution unit 320 distributes the output signals of the frequency correction unit 310 to the speakers SP1 to SP9 under the control of the CPU 210, and outputs a plurality of distributed audio signals Aj [1] to Aj [9]. The gain of the audio signal for each of the speakers SP1 to SP9 decreases as the distance between the speakers SP1 to SP9 and the virtual sound source increases. Thereby, it is possible to form a sound field as if sound is radiated from a place set as the position of the virtual sound source. For example, the gains of the audio signals Aj [1] to Aj [9] for the speakers SP1 to SP9 are proportional to the reciprocal of the distance between the speakers SP1 to SP9 and the virtual sound source. Alternatively, the gain may be proportional to the inverse of the square or the fourth power of the distance between the speakers SP1 to SP9 and the virtual sound source. If there are speakers SP1 to SP9 whose distance from the virtual sound source is almost zero, the gains of the audio signals Aj [1] to Aj [9] for the other speakers SP1 to SP9 are set to zero.
 メモリ230は、例えば、スピーカ管理テーブルを記憶している。スピーカ管理テーブルには、各スピーカSP1~SP9の識別子と対応づけて位置を示すスピーカ位置情報および基準位置Prefとの間の距離を示す情報が格納される。スピーカ位置情報は、例えば、基準位置Prefを原点とする三次元直交座標、二次元直交座標、あるいは極座標などによって表わされる。 The memory 230 stores, for example, a speaker management table. The speaker management table stores speaker position information indicating the position in association with the identifiers of the speakers SP1 to SP9 and information indicating the distance between the reference position Pref. The speaker position information is represented by, for example, three-dimensional orthogonal coordinates, two-dimensional orthogonal coordinates, or polar coordinates with the reference position Pref as the origin.
 CPU210は、第1に、メモリ230に格納した仮想音源管理テーブルとスピーカ管理テーブルとを参照して、各スピーカSP1~SP9と各仮想音源との間の距離を算出し、第2に、算出した距離に基づいて各スピーカSP1~SP9に対するオーディオ信号のゲインを算出し、ゲインを指定する制御信号を各処理ユニットU1~Umに供給する。 First, the CPU 210 refers to the virtual sound source management table and the speaker management table stored in the memory 230, calculates the distances between the speakers SP1 to SP9 and the virtual sound sources, and secondly calculates the distances. Based on the distance, the gain of the audio signal for each of the speakers SP1 to SP9 is calculated, and a control signal designating the gain is supplied to each of the processing units U1 to Um.
 処理ユニットUjの加算器331~339は、ゲイン分配部320から出力されるオーディオ信号Aj[1]~Aj[9]と、前段の処理ユニットUj-1から供給されるオーディオ信号Oj-1[1]~Oj-1[9]とを加算して、オーディオ信号Oj[1]~Oj[9]を出力する。これにより、処理ユニットUmから出力されるオーディオ信号Om[k](kは1から9までの任意の自然数)は、Om[k]=A1[k]+ A2[k]+…+Aj[k]+…+Am[k]となる。 The adders 331 to 339 of the processing unit Uj are the audio signals Aj [1] to Aj [9] output from the gain distributor 320 and the audio signal Oj-1 [1 supplied from the previous processing unit Uj-1. ] To Oj-1 [9] are added to output audio signals Oj [1] to Oj [9]. Thus, the audio signal Om [k] (k is an arbitrary natural number from 1 to 9) output from the processing unit Um is represented by Om [k] = A1 [k] +] A2 [k] +... + Aj [k ] + ... + Am [k].
 基準信号生成回路250は、CPU210の制御の下、基準信号Sr1~Sr9を生成して選択回路260に出力する。CPU210は、複数のスピーカSP1~SP9の各距離を測定する際に、基準信号Sr1~Sr9を生成するように基準信号生成回路250を生成する。また、CPU210は、複数のスピーカSP1~SP9の各距離を測定する場合に基準信号Sr1~Sr9を選択する一方、音響効果を付与する場合にオーディオ信号Om[1]~Om[9]を選択して得た出力オーディオ信号OUT1~OUT9を複数のスピーカSP1~SP9の各々に供給するように選択回路260を制御する。 The reference signal generation circuit 250 generates reference signals Sr1 to Sr9 and outputs them to the selection circuit 260 under the control of the CPU 210. The CPU 210 generates the reference signal generation circuit 250 so as to generate the reference signals Sr1 to Sr9 when measuring the distances of the plurality of speakers SP1 to SP9. Further, the CPU 210 selects the reference signals Sr1 to Sr9 when measuring the distances of the plurality of speakers SP1 to SP9, and selects the audio signals Om [1] to Om [9] when applying the acoustic effect. The selection circuit 260 is controlled to supply the output audio signals OUT1 to OUT9 obtained in this way to each of the plurality of speakers SP1 to SP9.
<A-3:端末装置10の構成>
 図4に、端末装置10のハードウェア構成の一例を示す。端末装置10は、装置全体の制御中枢として機能するCPU100、アプリケーションプログラムなどを記憶したりCPU100の作業領域として機能するメモリ110、利用者が指示を入力する操作部120、操作内容などを表示する表示部130、外部と通信を行う通信インターフェース140、ジャイロセンサ151、加速度センサ152、および方位センサ153、並びにバイブレーション発生部160とサウンド発生部161を備える。
<A-3: Configuration of Terminal Device 10>
FIG. 4 shows an example of the hardware configuration of the terminal device 10. The terminal device 10 stores a CPU 100 that functions as a control center of the entire device, a memory 110 that stores application programs and the like, and functions as a work area of the CPU 100, an operation unit 120 that allows a user to input instructions, and a display that displays operation details Unit 130, a communication interface 140 that communicates with the outside, a gyro sensor 151, an acceleration sensor 152, an orientation sensor 153, and a vibration generation unit 160 and a sound generation unit 161.
 ジャイロセンサ151は、図5に示すように端末装置10の姿勢を直交するX軸、Y軸、およびZ軸の回転角であるピッチ角(pitch)、ロール角(roll)、およびヨー角(yaw)を出力する。これらの角度から、端末装置10の向いている方向を特定することができる。加速度センサ152は、端末装置10に加えられた加速度の成分を直交するX軸、Y軸、およびZ軸について測定する。この場合、加速度センサ152が測定する加速度は、三次元ベクトルで表わされ、三次元ベクトルに基づいて端末装置10の向いている方向を特定することができる。方位センサ153は、例えば、地磁気を検出することにより、方位を測定する。この方位により、端末装置10の向いている方向を特定することができる。但し、ジャイロセンサ151および加速度センサ152が出力する信号は、端末装置10の有する3軸の座標系であって、リスニングリームに固定の座標系では無い。従って、ジャイロセンサ151および加速度センサ152で測定される方向は相対的なものとなる。即ち、リスニングルーム内に固定されている何らかの目標物を基準とし、基準に対する角度が相対的な方向として得られる。一方、方位センサ153が出力する信号は、地球上の方位であり、絶対的な方向を示す。 As shown in FIG. 5, the gyro sensor 151 includes a pitch angle (pitch), a roll angle (roll), and a yaw angle (yaw) that are rotation angles of the X axis, the Y axis, and the Z axis orthogonal to the attitude of the terminal device 10. ) Is output. From these angles, the direction in which the terminal device 10 is facing can be specified. The acceleration sensor 152 measures the component of acceleration applied to the terminal device 10 with respect to the orthogonal X axis, Y axis, and Z axis. In this case, the acceleration measured by the acceleration sensor 152 is represented by a three-dimensional vector, and the direction in which the terminal device 10 is facing can be specified based on the three-dimensional vector. The direction sensor 153 measures the direction by detecting geomagnetism, for example. With this orientation, the direction in which the terminal device 10 is facing can be specified. However, the signals output from the gyro sensor 151 and the acceleration sensor 152 are the three-axis coordinate system of the terminal device 10 and not the coordinate system fixed to the listening dream. Therefore, the directions measured by the gyro sensor 151 and the acceleration sensor 152 are relative. That is, a certain target fixed in the listening room is used as a reference, and an angle with respect to the reference is obtained as a relative direction. On the other hand, the signal output from the orientation sensor 153 is an orientation on the earth and indicates an absolute direction.
 CPU100は、アプリケーションプログムを実行することによって、ジャイロセンサ151、加速度センサ152、および方位センサ153のうち少なくとも一つの出力を用いて、端末装置10が向けられた方向を測定する。この例の端末装置10は、ジャイロセンサ151、加速度センサ152、および方位センサ153を備えるが、このうちの少なくとも一つを備えるものであってもよい。ジャイロセンサ151および加速度センサ152は、角度を出力する。角度はなんらかの基準に対する値である。基準は、リスニングルーム内の目標物であればどのようなものであってもよいが、この例では、複数のスピーカSP1~SP9のうちセンタスピーカSP1とする。
 一方、方位センサ153を用いて、複数のスピーカSP1~SP9の方向を測定する場合は、基準の方向の入力は不要である。方位センサ153からは、絶対的な方向を示す値が出力されるからである。
The CPU 100 measures the direction in which the terminal device 10 is directed by using at least one output of the gyro sensor 151, the acceleration sensor 152, and the direction sensor 153 by executing the application program. The terminal device 10 in this example includes the gyro sensor 151, the acceleration sensor 152, and the direction sensor 153, but may include at least one of them. The gyro sensor 151 and the acceleration sensor 152 output an angle. The angle is a value relative to some standard. The reference may be any target in the listening room. In this example, the reference is the center speaker SP1 among the plurality of speakers SP1 to SP9.
On the other hand, when the direction of the plurality of speakers SP1 to SP9 is measured using the direction sensor 153, it is not necessary to input the reference direction. This is because the direction sensor 153 outputs a value indicating an absolute direction.
 本実施形態の端末装置10においては、仮想音源の位置の指定を行うプログラムを起動させると、端末装置10はオーディオ信号処理装置20との通信を行って、オーディオ信号処理装置20のメモリ230に記憶されている仮想音源管理テーブルを読み取り、端末装置10のメモリ110に格納する。仮想音源管理テーブルには、それぞれの仮想音源の位置を示す仮想音源位置情報が格納されている。仮想音源位置情報は、基準位置Prefを原点とする三次元直交座標で与えられる。なお、仮想音源位置情報を極座標で表してもよい。この例では、仮想音源位置情報は、三次元直交座標の座標情報で与えられるものとする。 In the terminal device 10 of the present embodiment, when the program for specifying the position of the virtual sound source is activated, the terminal device 10 communicates with the audio signal processing device 20 and stores it in the memory 230 of the audio signal processing device 20. The virtual sound source management table is read and stored in the memory 110 of the terminal device 10. The virtual sound source management table stores virtual sound source position information indicating the position of each virtual sound source. The virtual sound source position information is given in three-dimensional orthogonal coordinates with the reference position Pref as the origin. Note that the virtual sound source position information may be expressed in polar coordinates. In this example, it is assumed that the virtual sound source position information is given as coordinate information of three-dimensional orthogonal coordinates.
<A-4:オーディオ信号処理システムの動作>
 次に、オーディオ信号処理システムの動作を、基準角度の設定を行うリセット処理と、移動させようとする仮想音源を対象音源として特定する特定処理と、仮想音源を移動させる位置を指定処理とに分けて説明する。図6ないし図8に、端末装置10が実行するリセット処理、対象音源の特定処理、および仮想音源の位置の指定処理の内容を示す。
<A-4: Operation of Audio Signal Processing System>
Next, the operation of the audio signal processing system is divided into a reset process for setting a reference angle, a specific process for specifying a virtual sound source to be moved as a target sound source, and a process for specifying the position to move the virtual sound source. I will explain. 6 to 8 show the contents of the reset process, the target sound source specifying process, and the virtual sound source position specifying process executed by the terminal device 10.
<A-4-1:リセット処理>
 端末装置10を用いて移動させようとする仮想音源を対象音源として特定を行う場合、ユーザは、まず、端末装置10の操作部(図示略)を操作して、仮想音源の位置の指定を行うプログラムを起動させる。プログラムが起動すると、端末装置10はオーディオ信号処理装置20との通信を行って、オーディオ信号処理装置20のメモリ230に記憶されている仮想音源管理テーブルを読み取り、端末装置10のメモリ110に格納する(S30)。端末装置10の表示部130には、図9に示すように、例えば、2次元空間におけるスピーカの配置を模式的に示す画像と、「リセット方向に向け設定ボタンをクリックしてください」等のメッセージと、設定ボタンBが表示される(S31)。ユーザは、端末装置10を持って基準位置Prefの位置に立ち、図10に示すように、端末装置10のY軸が所定のリセット方向(本実施形態では、センタスピーカSP1の方向)に向けられた状態で設定ボタンBを押下する。CPU100は、設定ボタンBの押下を検出すると(S32)、yawをゼロにリセットする(S33)。この例では、ジャイロセンサ151および加速度センサ152の少なくとも一方により角度情報出力部が構成され、角度情報出力部により角度情報としてのyawが取得されるものとする。上述したようにジャイロセンサ151および加速度センサ152は角度を出力する。CPU100は、前記角度情報のうちyawを用いて図10に示すXY平面上におけるリセット方向に端末装置10のY軸が向けられたものとして、yawをゼロにリセットする処理を行う。前述したように、本実施形態では、仮想音源の対象音源を特定し、仮想音源の位置を指定しようとするユーザは端末装置10を持って基準位置Prefの位置に立っているため、端末装置10の中心の位置と基準位置Prefの位置は概ね一致する。したがって、基準位置Prefの位置は上記2次元座標空間の座標原点に概ね一致する。なお、本実施形態ではyawは相対角度として取得されるので上述のようなリセット処理が必要であるが、yawが絶対角度として取得される場合には上述のようなリセット処理は不要である。また、他のセンサーによってyawを自動的にリセットすることも考えられる。
<A-4-1: Reset processing>
When specifying the virtual sound source to be moved using the terminal device 10 as the target sound source, the user first operates the operation unit (not shown) of the terminal device 10 to specify the position of the virtual sound source. Start the program. When the program is activated, the terminal device 10 communicates with the audio signal processing device 20, reads the virtual sound source management table stored in the memory 230 of the audio signal processing device 20, and stores it in the memory 110 of the terminal device 10. (S30). As shown in FIG. 9, for example, the display unit 130 of the terminal device 10 includes an image schematically showing the speaker arrangement in the two-dimensional space and a message such as “Please click the setting button toward the reset direction”. Then, the setting button B is displayed (S31). The user holds the terminal device 10 at the reference position Pref, and as shown in FIG. 10, the Y axis of the terminal device 10 is directed in a predetermined reset direction (in the present embodiment, the direction of the center speaker SP1). In this state, press the setting button B. When detecting the pressing of the setting button B (S32), the CPU 100 resets yaw to zero (S33). In this example, an angle information output unit is configured by at least one of the gyro sensor 151 and the acceleration sensor 152, and yaw as angle information is acquired by the angle information output unit. As described above, the gyro sensor 151 and the acceleration sensor 152 output an angle. The CPU 100 performs the process of resetting yaw to zero, assuming that the Y axis of the terminal device 10 is directed in the reset direction on the XY plane shown in FIG. As described above, in this embodiment, the user who specifies the target sound source of the virtual sound source and specifies the position of the virtual sound source is standing at the reference position Pref with the terminal device 10, and thus the terminal device 10. The center position and the reference position Pref substantially coincide with each other. Therefore, the position of the reference position Pref substantially coincides with the coordinate origin of the two-dimensional coordinate space. In the present embodiment, since yaw is acquired as a relative angle, the reset process as described above is necessary. However, when yaw is acquired as an absolute angle, the reset process as described above is not necessary. It is also conceivable that yaw is automatically reset by another sensor.
 本実施形態においては、ジャイロセンサ151および加速度センサ152の少なくとも一方により角度情報出力部が構成され、角度情報出力部は、鉛直軸であるZ軸に直交するY軸の方向を基準としたZ軸回りの回転角度(yaw)と、端末装置10の軸であって、端末装置10から対象音源の位置へ向かう方向との軸と直交し、かつ、Z軸と直交する軸(図5に示すX軸)の回りのピッチ角(pitch)とを角度情報として出力する。 In the present embodiment, an angle information output unit is configured by at least one of the gyro sensor 151 and the acceleration sensor 152, and the angle information output unit is a Z-axis based on the direction of the Y-axis orthogonal to the Z-axis that is the vertical axis. An axis (X shown in FIG. 5) that is orthogonal to the rotation angle (yaw) around the axis and the axis of the terminal device 10, which is orthogonal to the axis from the terminal device 10 toward the position of the target sound source. A pitch angle around the axis is output as angle information.
<A-4-2:対象音源の特定処理>
 リセット処理が完了すると、ユーザは、移動させたい仮想音源の方向に端末装置10を向けて直観的な操作で音源の特定を行う。本実施形態では、移動の対象となる仮想音源は、各チャネルの音であり、その個数は9個である。初期状態においては、各チャネルの音は、いずれか一つのスピーカから出力されており、入力オーディオ信号のミキシングは行われていない。つまり、センタチャネルの音はセンタスピーカSP1、右フロントチャネルの音は右フロントスピーカSP2、左フロントチャネルの音はスピーカSP5、右サラウンドチャネルの音は右サラウンドスピーカSP3、左サラウンドチャネルの音は左サラウンドスピーカSP4、右フロントプレゼンスチャネルの音は右フロントプレゼンススピーカSP6、左フロントプレゼンスチャネルの音は左フロントプレゼンススピーカSP9、右リアプレゼンスチャネルの音は右リアプレゼンススピーカSP7、および左リアプレゼンスチャネルの音は左リアプレゼンススピーカSP8からそれぞれ出力される。但し、本開示はこの例に限定されるものではなく、各チャネルの音をミックスした音源を、移動させる仮想音源としてもよい。
<A-4-2: Target sound source identification process>
When the reset process is completed, the user directs the terminal device 10 in the direction of the virtual sound source to be moved and specifies the sound source through an intuitive operation. In the present embodiment, the virtual sound source to be moved is the sound of each channel, and the number thereof is nine. In the initial state, the sound of each channel is output from any one of the speakers, and the input audio signal is not mixed. That is, the center channel sound is the center speaker SP1, the right front channel sound is the right front speaker SP2, the left front channel sound is the speaker SP5, the right surround channel sound is the right surround speaker SP3, and the left surround channel sound is the left surround. Speaker SP4, right front presence channel sound is right front presence speaker SP6, left front presence channel sound is left front presence speaker SP9, right rear presence channel sound is right rear presence speaker SP7, and left rear presence channel sound is Output from the left rear presence speaker SP8. However, the present disclosure is not limited to this example, and a sound source obtained by mixing sounds of each channel may be used as a virtual sound source for movement.
 本実施形態では、図11に示すように、端末装置10の中心を座標原点とし、X軸方向の長さが2、Y軸方向の長さが2、かつZ軸方向の長さが2の3次元座標空間において、特定したチャネルの音を仮想音源として移動させる例について説明する。また、本実施形態においては、図11に示す3次元座標空間において、天井面と底面には、スピーカおよび仮想音源を配置しないこととする。
 各スピーカの位置情報は、ユーザの操作、音場自動測定などで設定されるか、あるいは、予め設定され、スピーカ管理テーブルTBL1としてメモリ230に記憶されている。図12にスピーカ管理テーブルTBL1の一例を示す。スピーカ管理テーブルTBL1には各スピーカの位置情報が、X,Y,Zの座標として記憶されている。なお、スピーカ管理テーブルTBL1には、基準位置Prefから各スピーカSP1~SP9までの距離を示す情報も含まれているが、図12においては省略する。図12に示すスピーカ管理テーブルTBL1は、各スピーカが図11に示すように3次元座標空間に配置されている場合の例であり、例えば、右フロントプレゼンススピーカSP6の位置情報は、(-1,1,1)と表される。
In this embodiment, as shown in FIG. 11, the center of the terminal device 10 is the coordinate origin, the length in the X-axis direction is 2, the length in the Y-axis direction is 2, and the length in the Z-axis direction is 2. An example in which the sound of the specified channel is moved as a virtual sound source in the three-dimensional coordinate space will be described. In the present embodiment, speakers and virtual sound sources are not arranged on the ceiling surface and the bottom surface in the three-dimensional coordinate space shown in FIG.
The position information of each speaker is set by a user operation, automatic sound field measurement, or the like, or is set in advance and stored in the memory 230 as a speaker management table TBL1. FIG. 12 shows an example of the speaker management table TBL1. The speaker management table TBL1 stores position information of each speaker as X, Y, and Z coordinates. The speaker management table TBL1 includes information indicating the distances from the reference position Pref to the speakers SP1 to SP9, but is omitted in FIG. The speaker management table TBL1 shown in FIG. 12 is an example in which each speaker is arranged in a three-dimensional coordinate space as shown in FIG. 11. For example, the position information of the right front presence speaker SP6 is (−1, 1,1).
 上述したように、初期状態においては、各チャネルの音はいずれか一つのスピーカから出力されるので、初期状態における各チャネルの位置情報は、各スピーカの位置情報と一致する。本実施形態では、各チャネルの位置情報は、仮想音源管理テーブルTBL2としてメモリ230に記憶されている。また、この仮想音源管理テーブルTBL2は、端末装置10によって読み取られ、端末装置10の対象位置情報記憶部としてのメモリ110に格納されている。図13に初期状態における仮想音源管理テーブルTBL2の一例を示す。図13に示すように、初期状態における各チャネルの位置情報は、図12に示す各スピーカの位置情報と一致している。また、仮想音源管理テーブルTBL2には、それぞれのチャネルについてミキシングするか否かを表わす論理値なども含まれるが、図13においては省略する。 As described above, since the sound of each channel is output from any one speaker in the initial state, the position information of each channel in the initial state matches the position information of each speaker. In the present embodiment, the position information of each channel is stored in the memory 230 as the virtual sound source management table TBL2. The virtual sound source management table TBL2 is read by the terminal device 10 and stored in the memory 110 as a target position information storage unit of the terminal device 10. FIG. 13 shows an example of the virtual sound source management table TBL2 in the initial state. As shown in FIG. 13, the position information of each channel in the initial state matches the position information of each speaker shown in FIG. The virtual sound source management table TBL2 includes a logical value indicating whether or not to mix each channel, but is omitted in FIG.
<A-4-2-1:2次元座標空間における対象音源の特定処理>
 本実施形態では、以上のような位置情報を有する各チャネルの音を、移動する対象音源として端末装置10により特定する。なお、この対象音源の特定処理を行う際には、全てのチャネルの音を含む何らのオーディオ信号がオーディオ信号処理システム1Aにおいて再生されているものとする。
 上述したリセット処理が完了すると、端末装置10の表示部130には、例えば、図14に示すように、「移動対象の音源の方向に向けてください。」等のメッセージが表示される(S34)。ユーザは、オーディオ信号処理システム1Aにおいて再生される再生音を聞きながら、端末装置10を移動させたい音源の方向に向ける。一例として、図11に示すように、左フロントプレゼンスチャネルの音像R1を対象音源として特定する場合について説明する。
<A-4-2-1: Target sound source identification processing in two-dimensional coordinate space>
In the present embodiment, the terminal device 10 specifies the sound of each channel having the position information as described above as the target sound source to be moved. Note that when performing the target sound source identification process, it is assumed that any audio signal including sounds of all channels is reproduced in the audio signal processing system 1A.
When the reset process described above is completed, a message such as “Please turn to the direction of the moving sound source” is displayed on the display unit 130 of the terminal device 10 as shown in FIG. 14, for example (S34). . The user turns the terminal device 10 in the direction of the sound source to be moved while listening to the reproduced sound reproduced in the audio signal processing system 1A. As an example, a case where the sound image R1 of the left front presence channel is specified as a target sound source as shown in FIG. 11 will be described.
 端末装置10のCPU100は、表示部130に図14に示すメッセージを表示させた後は、対象音源の特定処理の実行を開始する(S35)。対象音源の特定処理は、所時間間隔で実行される処理である。対象音源の特定処理の具体的な内容を図7に示す。上述したように、各チャネルの位置情報は3次元座標空間における座標で表されるが、本実施形態では、まずXY平面の2次元座標空間における座標を求め、次にYZ平面の2次元座標空間における座標を求めて各チャネルの特定を行う。ユーザが端末装置10を移動させたい音源の方向に向けると、制御対象特定部としてのCPU100は、前記角度情報のうちyawのみを用いて(図7:S100)、XY平面上における位置情報(X,Y)を算出する(図7:S101)。CPU100は、これらの処理を所定時間間隔で実行する。上述したように、本実施形態では、対象音源を特定しようとするユーザは端末装置10を持って基準位置Prefの位置に立っているため、端末装置10の中心の位置と基準位置Prefの位置は概ね一致する。したがって、基準位置Prefの位置は上記2次元座標空間の座標原点に概ね一致する。 After displaying the message shown in FIG. 14 on the display unit 130, the CPU 100 of the terminal device 10 starts executing the target sound source specifying process (S35). The target sound source identification process is a process executed at regular time intervals. The specific contents of the target sound source identification process are shown in FIG. As described above, the position information of each channel is represented by the coordinates in the three-dimensional coordinate space. In this embodiment, first, the coordinates in the two-dimensional coordinate space of the XY plane are obtained, and then the two-dimensional coordinate space of the YZ plane. Each channel is specified by obtaining the coordinates at. When the user directs the terminal device 10 to the direction of the sound source to be moved, the CPU 100 serving as the control target specifying unit uses only the yaw of the angle information (FIG. 7: S100), and the position information on the XY plane (X , Y) is calculated (FIG. 7: S101). The CPU 100 executes these processes at predetermined time intervals. As described above, in the present embodiment, the user who wants to specify the target sound source holds the terminal device 10 and stands at the reference position Pref, so the center position of the terminal device 10 and the reference position Pref are It almost agrees. Therefore, the position of the reference position Pref substantially coincides with the coordinate origin of the two-dimensional coordinate space.
 図15は、端末装置10の中心を座標原点とし、Y軸方向の長さが2、かつX軸方向の長さも2の矩形上の2次元座標空間において操作対象の音源を特定する場合の動作を説明するための図である。この場合、制御対象特定部としてのCPU100は、yawの値が-45°~45°であれば、Xをyawの値に応じて-1~1に設定するとともにYを1に設定する。また、yawの値が45°~135°であれば、制御対象特定部としてのCPU100は、Yをyawの値に応じて+1~-1に設定するとともにXを1に設定する。また、yawの値が-45°~-135°であれば、制御対象特定部としてのCPU100は、Yをyawの値に応じて+1~-1に設定するとともにXを-1に設定する。そして、制御対象特定部としてのCPU100は、yawの値が135°~180であればXの値をyawの値に応じて1~0に設定するとともにY=-1に設定し、yawの値が-135°~-180°であれば、Xをyawの値に応じて-1~0に設定するとともにYを-1に設定する。つまり、前記角度情報は、図14に示す矩形上の2次元座標空間の境界上の座標(X,Y)に変換される。
 例えば、図17に示すように、ユーザが左フロントプレゼンスチャネルの方に端末装置10が向けられた場合には、所定時間間隔で更新されるユーザが特定しようとする音源の座標は、概ね(-1,1)となる。
FIG. 15 shows an operation when a sound source to be operated is specified in a two-dimensional coordinate space on a rectangle having a coordinate origin at the center of the terminal device 10, a length in the Y-axis direction of 2, and a length in the X-axis direction of 2. It is a figure for demonstrating. In this case, if the yaw value is −45 ° to 45 °, the CPU 100 as the control target specifying unit sets X to −1 to 1 and sets Y to 1 according to the yaw value. If the yaw value is 45 ° to 135 °, the CPU 100 as the control target specifying unit sets Y to +1 to −1 and X to 1 according to the yaw value. If the yaw value is −45 ° to −135 °, the CPU 100 as the control target specifying unit sets Y to +1 to −1 and X to −1 in accordance with the yaw value. Then, the CPU 100 as the control target specifying unit sets the value of X to 1 to 0 according to the value of yaw and sets Y = −1 if the value of yaw is 135 ° to 180, and the value of yaw If is −135 ° to −180 °, X is set to −1 to 0 according to the value of yaw, and Y is set to −1. That is, the angle information is converted into coordinates (X, Y) on the boundary of the two-dimensional coordinate space on the rectangle shown in FIG.
For example, as shown in FIG. 17, when the terminal device 10 is directed toward the left front presence channel, the coordinates of the sound source to be specified by the user updated at predetermined time intervals are approximately (− 1, 1).
<A-4-2-2:3次元座標空間における対象音源の特定処理>
 端末装置10の中心を座標原点とする所定の広さの3次元座標空間において仮想音源位置およびスピーカ位置を設定する場合には、pitchを利用して(図7:S100)、高さ方向の座標Zを求める(図7:S101)ようにすれば良い。なお、各軸の座標を求める順序はどのような順序であってもよい。yawとpitchからXYZ座標を同時に求めるようにしても良い)図16は、端末装置10の中心を座標原点とし、Z軸方向の長さが2、かつY軸方向の長さも2の矩形上の2次元座標空間において対象音源を特定する場合の動作を説明するための図である。具体的には、pitchの値が-45°~45°であれば、Zをpitchの値に応じて-1~1に設定し、pitchの値が-45°より小さければZを-1に設定し、pitchの値が45°より大きければZを+1に設定すれば良い。このような態様によれば、前記角度情報は図11に示す立方体状の3次元座標空間の側面上の座標(X,Y,Z)に変換される。
 例えば、図17に示すように、ユーザが左フロントプレゼンスチャネルの方に端末装置10を向けた場合には、ユーザが特定しようとする音源の座標は、YZ平面上の座標が(1,1)なので、XY平面上の座標(-1,1)と合わせて、3次元座標空間の座標は、概ね(-1,1,1)となる。
<A-4-2-2: Target sound source identification processing in three-dimensional coordinate space>
When setting the virtual sound source position and the speaker position in a three-dimensional coordinate space having a predetermined width with the center of the terminal device 10 as the coordinate origin, the pitch is used (FIG. 7: S100), and the coordinates in the height direction are used. Z may be obtained (FIG. 7: S101). The order of obtaining the coordinates of each axis may be any order. FIG. 16 is a rectangle on which the center of the terminal device 10 is the origin of coordinates, the length in the Z-axis direction is 2, and the length in the Y-axis direction is 2 as well. It is a figure for demonstrating operation | movement when pinpointing a target sound source in a two-dimensional coordinate space. Specifically, if the pitch value is −45 ° to 45 °, Z is set to −1 to 1 according to the pitch value, and if the pitch value is smaller than −45 °, Z is set to −1. If the value of pitch is greater than 45 °, Z may be set to +1. According to such an aspect, the angle information is converted into coordinates (X, Y, Z) on the side surface of the cubic three-dimensional coordinate space shown in FIG.
For example, as shown in FIG. 17, when the user points the terminal device 10 toward the left front presence channel, the coordinates of the sound source to be specified by the user are (1, 1) on the YZ plane. Therefore, the coordinates in the three-dimensional coordinate space are approximately (−1, 1, 1) together with the coordinates (−1, 1) on the XY plane.
 次に、CPU100は、上述のようにして所定時間毎にユーザが端末装置10を向けた方向の座標を求め、メモリ110に格納した仮想音源管理テーブルTBL2に記憶されたチャネルの位置情報と比較し、ユーザが移動しようとする音源が、どのチャネルであるかを特定する処理を行う(図7:S102)。具体的には、CPU100は、上述のようにして求めた座標と仮想音源管理テーブルTBL2に位置情報として記憶された座標との差分が所定値以下であるかどうかを所定時間毎に判断し、ユーザが移動しようとする音源が、どのチャネルであるかを特定する。特定できた場合には、ステップS35の対象音源の特定処理の出力として、例えば、特定した対象音源を識別する情報を出力する。特定できなかった場合には、ステップS35の対象音源の特定処理の出力として、例えば、特定できなかった旨の情報を出力する。以上のように、本実施形態では、端末装置の向け先の位置の算出と、対象音源の特定とを所定時間毎に実行する。 Next, the CPU 100 obtains the coordinates of the direction in which the user points the terminal device 10 every predetermined time as described above, and compares the coordinates with the channel position information stored in the virtual sound source management table TBL2 stored in the memory 110. Then, a process for specifying which channel the sound source to which the user intends to move is performed (FIG. 7: S102). Specifically, the CPU 100 determines whether or not the difference between the coordinates obtained as described above and the coordinates stored as the position information in the virtual sound source management table TBL2 is equal to or less than a predetermined value for each predetermined time. Specifies which channel the sound source is trying to move. If it can be specified, for example, information for identifying the specified target sound source is output as the output of the target sound source specifying process in step S35. If it cannot be specified, for example, information indicating that it has not been specified is output as the output of the target sound source specifying process in step S35. As described above, in the present embodiment, the calculation of the position of the destination of the terminal device and the identification of the target sound source are executed every predetermined time.
 ステップS35の対象音源の特定処理を開始した後は、対象音源が特定できたかどうかの確認を行う(S38)。本実施形態では、一例として、対象音源の特定ができるまでステップS38の処理を繰り返す。つまり、類似または近似した座標が仮想音源管理テーブルTBL2に存在せず、特定ができない場合には(S38:NO)、例えば、「移動対象の音源の方向に向けてください」等のメッセージを端末装置10の表示部130に表示し続け、対象音源の特定処理を続ける。但し、一定時間経過しても特定できない場合には、タイムアウトにより処理を終了させたり、処理をキャンセルするようにしてもよい。 After starting the target sound source identification process in step S35, it is confirmed whether the target sound source has been identified (S38). In the present embodiment, as an example, the process of step S38 is repeated until the target sound source can be specified. That is, when similar or approximate coordinates do not exist in the virtual sound source management table TBL2 and cannot be specified (S38: NO), for example, a message such as “Please turn to the direction of the sound source to be moved” is displayed on the terminal device. The display is continued on the display unit 130 and the target sound source identification process is continued. However, if it cannot be specified even after a certain period of time has elapsed, the processing may be terminated due to a timeout or the processing may be cancelled.
 CPU100は、対象音源が特定できたことを確認した場合には(S38:YES)、ステップS35の対象音源の特定処理を停止させ、例えば図19に示すように、「左フロントプレゼンスチャネルを移動しますか?」等のメッセージとYESボタンC1およびNOボタンC2を端末装置10の表示部130に表示させる(S39)。また、特定できた場合には、端末装置10をバイブレーション発生部160によりリアルタイムで振動させたり、端末装置10のサウンド発生部161のスピーカからリアルタイムで音を出力するようにしてもよい。また、対象音源であると特定可能な候補が複数ある場合には、複数の候補を端末装置10の表示部130に表示させるようにしてもよい。また、特定できた場合にステップS39の確認メッセージのボタンは表示せずに、特定したチャネル名だけを表示し、特定したチャネルを記憶するだけで対象音源の特定処理を続けても良い。 When the CPU 100 confirms that the target sound source can be specified (S38: YES), the CPU 100 stops the target sound source specifying process in step S35, and, for example, as shown in FIG. A message such as “Is it?” And a YES button C1 and a NO button C2 are displayed on the display unit 130 of the terminal device 10 (S39). Further, if the identification can be made, the terminal device 10 may be vibrated in real time by the vibration generating unit 160, or the sound may be output from the speaker of the sound generating unit 161 of the terminal device 10 in real time. Further, when there are a plurality of candidates that can be specified as the target sound source, the plurality of candidates may be displayed on the display unit 130 of the terminal device 10. Further, if the identification message can be identified, the confirmation message button in step S39 may not be displayed, but only the identified channel name may be displayed, and the identification process of the target sound source may be continued simply by storing the identified channel.
 以上のように、制御対象特定部としてのCPU100は、端末装置10が対象音源に向けられた際に、ジャイロセンサ151および加速度センサ152の少なくとも一方により構成される角度情報出力部から出力されるyawおよびpitchからなる角度情報に基づいて位置情報(座標)を算出し、算出した位置情報と、対象位置情報記憶部としてのメモリ110に記憶された仮想音源管理テーブルTBL2における各チャネルの位置情報との比較を行い、互いの位置情報のずれが所定範囲内である場合に、操作対象の音源として対応するチャネルを提示(表示)し、操作対象の決定を促す。 As described above, the CPU 100 as the control target specifying unit outputs the yaw output from the angle information output unit configured by at least one of the gyro sensor 151 and the acceleration sensor 152 when the terminal device 10 is directed to the target sound source. Position information (coordinates) is calculated based on the angle information including the pitch, and the calculated position information and the position information of each channel in the virtual sound source management table TBL2 stored in the memory 110 as the target position information storage unit. A comparison is performed, and when the positional information shift is within a predetermined range, a channel corresponding to the sound source to be operated is presented (displayed) to prompt the determination of the operation target.
 すなわち、図19に示す表示状態において、ユーザがNOボタンC2を押下した場合には(S40:NO)、対象音源の特定処理を最初からやり直す。しかし、図19に示す表示状態において、ユーザがYESボタンC1を押下した場合には(S40:YES)、CPU100は、例えば図20に示すように、「移動させたい方向へ向けてください」等のメッセージと、移動ボタンEとを端末装置10の表示部130に表示させる(S41)。 That is, when the user presses the NO button C2 in the display state shown in FIG. 19 (S40: NO), the target sound source specifying process is restarted from the beginning. However, when the user presses the YES button C1 in the display state shown in FIG. 19 (S40: YES), the CPU 100, for example, as shown in FIG. The message and the movement button E are displayed on the display unit 130 of the terminal device 10 (S41).
<A-4-3:仮想音源の設置位置の指定>
 次に、CPU100は、ユーザが図20に示す移動ボタンEを押したことを検知すると(S42:YES)、仮想音源の設置位置の指定処理を開始する(S43)。図8に仮想音源の設置位置の指定処理の具体的な内容を示す。仮想音源の設置位置の指定処理は、所定時間間隔で実行される処理である。この場合、移動ボタンEが押されていることを検知するCPU100が設定位置指示部として機能する。また、CPU100は、位置情報更新部としても機能し、仮想音源の設置位置の指定処理においても、対象音源の特定処理と同様に、前記角度情報のうちyawを用いて、XY平面の2次元座標空間における座標を、pitchを用いてYZ平面の2次元座標空間における座標を求めて、仮想音源の設置位置の3次元座標空間における座標を求める(図8:S200)。そして、CPU100は、現在制御対象となっている仮想音源を識別する情報、例えばチャネル名と、算出した座標からなる位置情報とを含む仮想音源情報を、オーディオ信号処理装置20に所定時間間隔ごとに送信する(図8:S201)。また、CPU100は、メモリ110に格納した仮想音源管理テーブルを更新する(図8:S202)。
<A-4-3: Specification of virtual sound source installation position>
Next, when the CPU 100 detects that the user has pressed the movement button E shown in FIG. 20 (S42: YES), it starts the virtual sound source installation position designation process (S43). FIG. 8 shows specific contents of the virtual sound source installation position designation process. The virtual sound source installation position designation process is a process executed at predetermined time intervals. In this case, the CPU 100 that detects that the movement button E is pressed functions as a setting position instruction unit. The CPU 100 also functions as a position information update unit. In the virtual sound source installation position designation process, as in the target sound source specifying process, the yaw of the angle information is used, and the two-dimensional coordinates on the XY plane are used. The coordinates in the space are obtained using the pitch in the two-dimensional coordinate space of the YZ plane, and the coordinates in the three-dimensional coordinate space of the installation position of the virtual sound source are obtained (FIG. 8: S200). Then, the CPU 100 sends, to the audio signal processing device 20, virtual sound source information including information for identifying a virtual sound source that is currently controlled, for example, a channel name and position information including the calculated coordinates, at predetermined time intervals. Transmit (FIG. 8: S201). Further, the CPU 100 updates the virtual sound source management table stored in the memory 110 (FIG. 8: S202).
 オーディオ信号処理装置20のCPU210は、仮想音源情報を受信すると、仮想音源管理テーブルTBL2を更新し、所定時間間隔で仮想音源を設定途中の位置に置いた場合のゲイン配分で入力オーディオ信号を計算し、オーディオ信号を出力する。ユーザーは移動ボタンEを押しながら、仮想音源を移動させたい位置に端末装置10を向け、設定途中の音像位置を確認しながら、対象音源を希望する位置に移動させ、希望位置で移動ボタンEを離すと(S46:YES)、仮想音源の設置位置の指定処理が完了する。 例えば、図21、図23に示すように、ユーザが移動ボタンEを押下しながら、左フロントプレゼンススピーカSP9と左リアプレゼンススピーカSP8の間の位置(V1)に端末装置10を向け、移動ボタンEを離した場合には、yawの値が-74°なので、Xを-1に設定する。Yについては、図22に示すように、 When receiving the virtual sound source information, the CPU 210 of the audio signal processing device 20 updates the virtual sound source management table TBL2, and calculates the input audio signal by gain distribution when the virtual sound source is placed in the middle of setting at a predetermined time interval. , Output audio signal. While pressing the move button E, the user directs the terminal device 10 to a position where the virtual sound source is to be moved, confirms the sound image position in the middle of setting, moves the target sound source to the desired position, and presses the move button E at the desired position. When released (S46: YES), the virtual sound source installation position designation process is completed. For example, as shown in FIGS. 21 and 23, while the user presses the move button E, the terminal device 10 is pointed at a position (V1) between the left front presence speaker SP9 and the left rear presence speaker SP8, and the move button E Is released, the value of yaw is -74 °, so X is set to -1. As for Y, as shown in FIG.
(数1)
 y=tan16°≒0.29となる。したがって、仮想音源のXY平面上の座標は、(-1,0.29)となる。
(Equation 1)
y = tan16 ° ≈0.29. Therefore, the coordinates of the virtual sound source on the XY plane are (−1, 0.29).
また、pitchを利用して高さ方向の座標Zを求める。図24に示すように、pitchの値が27°とすると、 Also, the coordinate Z in the height direction is obtained using the pitch. As shown in FIG. 24, when the value of pitch is 27 °,
(数2)
 z=tan27°≒0.51となる。したがって、仮想音源のXZ平面上の座標は、(-1,0.51)となるので、先に求めたXY平面上の座標(-1,0.29)と合わせて、3次元座標空間の座標は、概ね(-1,0.29,0.51)となる。
(Equation 2)
z = tan 27 ° ≈0.51. Therefore, since the coordinates on the XZ plane of the virtual sound source are (−1, 0.51), together with the coordinates (−1, 0.29) on the XY plane obtained earlier, The coordinates are approximately (-1, 0.29, 0.51).
 なお、上述のように仮想音源の座標を算出した後には、CPU100は、端末装置10の表示部130に、例えば、「この位置に移動しますか?」のように確認メッセージとYESボタンおよびNOボタンを表示させるようにしてもよい。ユーザは、仮想音源の位置を聞きながら確認できるので、位置を変更したい場合には、NOボタンを押下する。CPU100は、NOボタンの押下を検知した場合には、音源の位置情報を移動開始前の位置情報に戻し、メモリに格納した仮想音源管理テーブルを更新する。また、移動開始前の位置情報を含む仮想音源情報をオーディオ信号処理装置20に送信する。オーディオ信号処理装置20のCPU210は、仮想音源情報を受信すると、仮想音源管理テーブルTBL2を更新し、仮想音源を移動開始前の位置に置いた場合のゲイン配分で入力オーディオ信号を計算し、オーディオ信号を出力する。CPU100は、ステップS41に示す端末装置10を仮想音源の方向に向ける旨の指示表示を行い、上述した処理を繰り返す。しかし、仮想音源の位置が所望の位置である場合には、ユーザはYESボタンを押下する。CPU100は、YESボタンの押下を検知すると、処理を完了させる。以上のような最終的な確認処理を行うようにしてもよい。 After calculating the coordinates of the virtual sound source as described above, the CPU 100 causes the display unit 130 of the terminal device 10 to display a confirmation message, a YES button, and NO, for example, “Do you want to move to this position?” A button may be displayed. The user can confirm the position of the virtual sound source while listening to it, and presses the NO button to change the position. When the CPU 100 detects that the NO button is pressed, the CPU 100 returns the position information of the sound source to the position information before starting the movement, and updates the virtual sound source management table stored in the memory. In addition, virtual sound source information including position information before the start of movement is transmitted to the audio signal processing device 20. When receiving the virtual sound source information, the CPU 210 of the audio signal processing device 20 updates the virtual sound source management table TBL2, calculates the input audio signal by gain distribution when the virtual sound source is placed at the position before the movement start, and the audio signal. Is output. The CPU 100 displays an instruction indicating that the terminal device 10 shown in step S41 is directed toward the virtual sound source, and repeats the above-described processing. However, when the position of the virtual sound source is a desired position, the user presses the YES button. When the CPU 100 detects that the YES button is pressed, the CPU 100 completes the process. The final confirmation process as described above may be performed.
 上述した例では、左フロントプレゼンスチャネルの位置を仮想音源として移動させたので、図25に示すように、仮想音源管理テーブルTBL2の左フロントプレゼンスチャネルの座標値は、最終的には(-1,0.29,0.51)に書き換えられる。
 CPU100は、移動ボタンEが離されたことを検知すると(S46:YES)、オーディオ信号処理装置20に対して、仮想音源の移動が完了した旨の情報を送信する(S47)。オーディオ信号処理装置20は、仮想音源の移動が完了した旨の情報を受信すると、ユーザが位置指定を行った仮想音源を含め、全体のチャネルを再生させるなどしても良い。
In the above example, since the position of the left front presence channel is moved as a virtual sound source, as shown in FIG. 25, the coordinate value of the left front presence channel of the virtual sound source management table TBL2 is finally (−1, 0.29, 0.51).
When detecting that the movement button E has been released (S46: YES), the CPU 100 transmits information indicating that the movement of the virtual sound source is completed to the audio signal processing device 20 (S47). When the audio signal processing device 20 receives the information indicating that the movement of the virtual sound source is completed, the audio signal processing device 20 may reproduce the entire channel including the virtual sound source for which the user has designated the position.
 以上のように、設定位置指示部として機能するCPU100は、制御対象としての対象音源の特定が行われた後に、移動ボタンEが押下され、端末装置10が所望の位置に向けられると、所定時間間隔で向け先の位置を算出し、算出した位置を仮想音源の新たな位置として仮想音源管理テーブルTBL2を更新する。 As described above, the CPU 100 functioning as the setting position instruction unit, after the target sound source as the control target is specified, when the movement button E is pressed and the terminal device 10 is directed to a desired position, for a predetermined time. The destination position is calculated at intervals, and the virtual sound source management table TBL2 is updated with the calculated position as a new position of the virtual sound source.
 以上説明したように、本実施形態によれば、仮想音源の位置の指定を行うプログラムを起動させた状態で、端末装置10を仮想音源に向けるといった直観的な操作で、仮想音源の特定を行うことができる。特定を行った後は、移動ボタンEを押下しながら端末装置10を仮想音源の設置を所望する場所に向けるといった直観的な操作で、所定時間間隔で仮想音源管理テーブルTBL2が更新され、更新された情報に基づいてオーディオ信号が再生されるので、リアルタイムで再生音を聞きながら仮想音源を所望の場所に設置することができる。 As described above, according to the present embodiment, the virtual sound source is specified by an intuitive operation such as pointing the terminal device 10 toward the virtual sound source in a state where the program for specifying the position of the virtual sound source is activated. be able to. After the identification, the virtual sound source management table TBL2 is updated and updated at predetermined time intervals by an intuitive operation such that the terminal device 10 is directed to a place where the virtual sound source is desired while pressing the move button E. Since the audio signal is reproduced based on the received information, the virtual sound source can be installed at a desired location while listening to the reproduced sound in real time.
 また、本実施形態では、仮想音源の位置を指定した際に、仮想音源管理テーブルTBL2を更新するので、仮想音源として移動させた音源を新たな対象音源として特定し、さらに別な位置へと移動させることが可能となる。したがって、本実施形態によれば、直観的な操作により、仮想音源の位置を自由に変更することが可能になる。 In this embodiment, when the position of the virtual sound source is designated, the virtual sound source management table TBL2 is updated. Therefore, the sound source moved as the virtual sound source is specified as a new target sound source and moved to another position. It becomes possible to make it. Therefore, according to the present embodiment, the position of the virtual sound source can be freely changed by an intuitive operation.
 なお、本実施形態では、各チャネルによる音像を制御対象として本開示の特定処理と設定位置の指定処理を行う例について説明した。しかし、本開示は本実施形態において説明した例に限定されるものではなく、例えば、複数のチャネルをミキシングした音像を制御対象としてもよいし、スピーカや仮想スピーカを制御対象としてもよい。スピーカを制御対象とする場合には、仮想音源管理テーブルではなく、スピーカ管理テーブルをオーディオ信号処理装置20から端末装置10に送信し、端末装置10においてスピーカ管理テーブルに基づいて処理を行えばよい。また、端末装置10において更新したスピーカ管理テーブルの内容は、オーディオ信号処理装置20に反映させればよい。仮想スピーカは、複数のスピーカから同じ音を出力することで、物理的にスピーカがない所にスピーカがあるように聞こえるスピーカのことを言う。仮想スピーカは、仮想音源管理テーブルで管理してもよいし、スピーカ管理テーブルで管理してもよい。 In the present embodiment, the example in which the specific process and the setting position specifying process of the present disclosure are performed using the sound image of each channel as a control target has been described. However, the present disclosure is not limited to the example described in the present embodiment. For example, a sound image obtained by mixing a plurality of channels may be set as a control target, or a speaker or a virtual speaker may be set as a control target. When a speaker is a control target, a speaker management table, not a virtual sound source management table, may be transmitted from the audio signal processing device 20 to the terminal device 10 and the terminal device 10 may perform processing based on the speaker management table. Further, the content of the speaker management table updated in the terminal device 10 may be reflected in the audio signal processing device 20. A virtual speaker is a speaker that sounds as if there is a speaker where there is no physical speaker by outputting the same sound from a plurality of speakers. The virtual speaker may be managed by a virtual sound source management table or may be managed by a speaker management table.
<B:第2実施形態>
 次に、図26ないし図31を参照しつつ、本開示の第2実施形態について説明する。第1実施形態においては、端末装置10によって示した位置を3次元座標空間におけるX軸方向、Y軸方向、またはZ軸方向のいずれかの境界に投影させ、角度情報のみを用いて当該位置の座標を求める例について説明した。本実施形態は、角度情報の他に距離情報を用いて端末装置10によって示した位置の座標を求める。図26ないし図28は本実施形態に係る端末装置10における対象音源の特定処理の内容を示すフローチャート、図29は本実施形態に係る端末装置10の表示部130の表示例を示す図である。図30は本実施形態に係る端末装置10の表示部130の表示例を示す図である。図31は本実施形態に係る端末装置10により特定可能な対象音源と位置指定可能な仮想音源の例を示す図である。なお、図26ないし図30に示すフローチャートにおいて、図6ないし図8に示すフローチャートとの共通箇所には同一のステップ番号を付してある。
<B: Second Embodiment>
Next, a second embodiment of the present disclosure will be described with reference to FIGS. 26 to 31. In the first embodiment, the position indicated by the terminal device 10 is projected on a boundary in the X-axis direction, the Y-axis direction, or the Z-axis direction in the three-dimensional coordinate space, and only the angle information is used to project the position. The example which calculates | requires a coordinate was demonstrated. In the present embodiment, the coordinates of the position indicated by the terminal device 10 are obtained using distance information in addition to angle information. FIG. 26 to FIG. 28 are flowcharts showing the contents of the target sound source specifying process in the terminal device 10 according to this embodiment, and FIG. 29 is a diagram showing a display example of the display unit 130 of the terminal device 10 according to this embodiment. FIG. 30 is a diagram illustrating a display example of the display unit 130 of the terminal device 10 according to the present embodiment. FIG. 31 is a diagram illustrating an example of a target sound source that can be specified by the terminal device 10 according to the present embodiment and a virtual sound source whose position can be specified. In the flowcharts shown in FIGS. 26 to 30, the same step numbers are given to the common parts with the flowcharts shown in FIGS. 6 to 8.
 本実施形態においても、仮想音源の位置の指定を行うプログラムを起動させると、図26に示すステップS30~S33の処理が行われ、さらに図29に示すように、端末装置10を対象音源に向け、さらに距離を調整するように指示する表示が端末装置10の表示部130において行われる(S50)。端末装置10のCPU100は、表示部130に図29に示すメッセージを表示させた後は、距離を含めた対象音源の特定処理の実行を開始する(S51)。距離を含めた対象音源の特定処理は、所時間間隔で実行される処理である。距離を含めた対象音源の特定処理の具体的な内容を図27に示す。 Also in this embodiment, when the program for specifying the position of the virtual sound source is started, the processing of steps S30 to S33 shown in FIG. 26 is performed, and as shown in FIG. 29, the terminal device 10 is directed to the target sound source. Further, a display for instructing to adjust the distance is performed on the display unit 130 of the terminal device 10 (S50). After displaying the message shown in FIG. 29 on the display unit 130, the CPU 100 of the terminal device 10 starts executing the target sound source specifying process including the distance (S51). The target sound source identification process including the distance is a process executed at regular time intervals. The specific contents of the target sound source identification process including the distance are shown in FIG.
 図29に示す距離調整を促す表示においては、矢印方向に移動可能なフェーダーFと設定ボタンGとが含まれる。ユーザがフェーダーFを「遠い」側に移動させた場合には、現在の位置よりも遠い位置に存在する対象音源を特定することができ、フェーダーFを「近い」側に移動させた場合には、現在の位置よりも近い位置に存在する対象音源を特定することができる。 29. The display for prompting the distance adjustment shown in FIG. 29 includes a fader F that can move in the direction of the arrow and a setting button G. When the user moves fader F to the “far” side, the target sound source existing at a position farther than the current position can be specified, and when fader F is moved to the “near” side. Thus, it is possible to identify the target sound source that is present at a position closer to the current position.
 具体的には、距離調整指示部としての機能するCPU100は、フェーダーFの移動を検知すると、フェーダーFの移動方向と移動量に応じて距離の調整を指示する。そして、制御対象特定部としても機能するCPU100は、この指示に応じて距離を調整する(S150)。フェーダーFの移動の検知処理と距離の調整処理は所定時間間隔ごとに行われ、フェーダーFの移動が検知されなければ、次の処理(S100以降)が行われる。フェーダーFの移動が検知された場合には、具体的には、図22および図24に示す三角形における斜辺aの長さを、フェーダーFの移動方向に応じて変化させる。さらに、第1実施形態と同様に、所定時間間隔ごとに角度情報を取得して(S100)、所定時間間隔ごとに対象音源の座標を算出する(S101)。本実施形態においては、オーディオ信号処理装置20のメモリ230および端末装置10の対象位置情報記憶部としてのメモリ110に記憶されている仮想音源管理テーブルTBL2には、各チャネルの位置情報として、ユーザからの距離を考慮した座標が格納されている。 Specifically, when the CPU 100 functioning as the distance adjustment instruction unit detects the movement of the fader F, the CPU 100 instructs the adjustment of the distance according to the moving direction and the moving amount of the fader F. And CPU100 which functions also as a control object specific | specification part adjusts a distance according to this instruction | indication (S150). The process of detecting the movement of the fader F and the process of adjusting the distance are performed at predetermined time intervals. If the movement of the fader F is not detected, the next process (S100 and subsequent steps) is performed. When the movement of the fader F is detected, specifically, the length of the hypotenuse a in the triangle shown in FIGS. 22 and 24 is changed according to the moving direction of the fader F. Further, as in the first embodiment, angle information is acquired at predetermined time intervals (S100), and the coordinates of the target sound source are calculated at predetermined time intervals (S101). In the present embodiment, the virtual sound source management table TBL2 stored in the memory 230 of the audio signal processing device 20 and the memory 110 serving as the target position information storage unit of the terminal device 10 receives the position information of each channel from the user. Coordinates that take into account the distance are stored.
 端末装置10の制御対象特定部としてのCPU100は、距離を調整した上で算出した座標に近い対象音源の座標が仮想音源管理テーブルTBL2に存在するかどうかを所定時間間隔ごとに判断する(S102)。算出した座標に近い対象音源の座標が仮想音源管理テーブルTBL2に存在しない場合には、ステップS51の対象音源の特定処理の出力として、例えば、特定できなかった旨の情報を出力する。算出した座標に近い対象音源の座標が仮想音源管理テーブルTBL2に存在した場合には制御対象としての対象音源が特定されたと判断する。そして、CPU100は、ステップS51の対象音源の特定処理の出力として、例えば、特定した対象音源を識別する情報を出力する。以上のように、本実施形態では、距離の調整と、端末装置の向け先の位置の算出と、対象音源の特定とを所定時間毎に実行する。 The CPU 100 as the control target specifying unit of the terminal device 10 determines whether the coordinates of the target sound source close to the coordinates calculated after adjusting the distance exist in the virtual sound source management table TBL2 at predetermined time intervals (S102). . If the coordinates of the target sound source close to the calculated coordinates do not exist in the virtual sound source management table TBL2, for example, information indicating that the target sound source could not be specified is output as the output of the target sound source specifying process in step S51. If the coordinates of the target sound source close to the calculated coordinates exist in the virtual sound source management table TBL2, it is determined that the target sound source as the control target has been specified. Then, the CPU 100 outputs, for example, information for identifying the specified target sound source as the output of the target sound source specifying process in step S51. As described above, in the present embodiment, the adjustment of the distance, the calculation of the position of the destination of the terminal device, and the identification of the target sound source are executed every predetermined time.
 ステップS51の対象音源の特定処理を開始した後は、対象音源が特定できたかどうかの確認を行う(S38)。本実施形態では、一例として、対象音源の特定ができるまでステップS38の処理を繰り返す。つまり、類似または近似した座標が仮想音源管理テーブルTBL2に存在せず、対象音源を特定ができない場合には(S38:NO)、例えば、「移動対象の音源の方向に向けて距離を調整してください」等のメッセージを端末装置10の表示部130に表示し続け、対象音源の特定処理を続ける。但し、一定時間経過しても対象音源を特定できない場合には、タイムアウトにより処理を終了させたり、処理をキャンセルするようにしてもよい。 After starting the target sound source identification process in step S51, it is confirmed whether the target sound source has been identified (S38). In the present embodiment, as an example, the process of step S38 is repeated until the target sound source can be specified. That is, when similar or approximate coordinates do not exist in the virtual sound source management table TBL2 and the target sound source cannot be specified (S38: NO), for example, “adjust the distance toward the direction of the sound source to be moved” Please continue to display a message such as “Please” on the display unit 130 of the terminal device 10 and continue the process of identifying the target sound source. However, if the target sound source cannot be specified even after a certain period of time, the process may be terminated due to a timeout or the process may be canceled.
 CPU100は、対象音源が特定できたことを確認した場合には(S38:YES)、ステップS50の距離を含めた対象音源の特定処理を停止させ、例えば図19に示すように、「左フロントプレゼンスチャネルを移動しますか?」等のメッセージとYESボタンC1およびNOボタンC2を端末装置10の表示部130に表示させる(S39)。第1実施形態と同様に、端末装置10をバイブレーション発生部160によりリアルタイムで振動させたり、端末装置10のサウンド発生部161のスピーカからリアルタイムで音を出力するようにしてもよい。また、対象音源であると特定可能な候補が複数ある場合には、複数の候補を端末装置10の表示部130に表示させるようにしてもよい。また、特定できた場合にステップS39の確認メッセージのボタンは表示せずに、特定したチャネル名だけを表示し、特定したチャネルを記憶するだけで対象音源の特定処理を続けても良い。 When the CPU 100 confirms that the target sound source can be specified (S38: YES), the CPU 100 stops the target sound source specifying process including the distance in step S50. For example, as shown in FIG. The message “Do you want to move the channel?” And the YES button C1 and NO button C2 are displayed on the display unit 130 of the terminal device 10 (S39). Similarly to the first embodiment, the terminal device 10 may be vibrated in real time by the vibration generating unit 160 or sound may be output from the speaker of the sound generating unit 161 of the terminal device 10 in real time. Further, when there are a plurality of candidates that can be specified as the target sound source, the plurality of candidates may be displayed on the display unit 130 of the terminal device 10. Further, if the identification message can be identified, the confirmation message button in step S39 may not be displayed, but only the identified channel name may be displayed, and the identification process of the target sound source may be continued simply by storing the identified channel.
 以上のように、制御対象特定部としてのCPU100は、端末装置10が対象音源に向けられた際に、ジャイロセンサ151および加速度センサ152の少なくとも一方により構成される角度情報出力部から出力されるyawおよびpitchからなる角度情報と、フェーダーFの移動に基づく距離情報とに基づいて位置情報(座標)を算出し、算出した位置情報と、対象位置情報記憶部としてのメモリ110に記憶された仮想音源管理テーブルTBL2における各チャネルの位置情報との比較を行い、互いの位置情報のずれが所定範囲内である場合に、操作対象の音源として対応するチャネルを提示(表示)し、操作対象の決定を促す。 As described above, the CPU 100 as the control target specifying unit outputs the yaw output from the angle information output unit configured by at least one of the gyro sensor 151 and the acceleration sensor 152 when the terminal device 10 is directed to the target sound source. And position information (coordinates) based on the angle information including the pitch and the distance information based on the movement of the fader F, and the calculated position information and the virtual sound source stored in the memory 110 as the target position information storage unit The position information of each channel in the management table TBL2 is compared, and when the difference between the position information is within a predetermined range, the corresponding channel is presented (displayed) as the sound source to be operated, and the operation target is determined. Prompt.
 図19に示す表示状態において、ユーザがNOボタンC2を押下した場合には(S40:NO)、対象音源の特定処理を最初からやり直す。しかし、図19に示す表示状態において、ユーザがYESボタンC1を押下した場合には(S40:YES)、CPU100は、例えば図30に示すように、「移動させたい方向へ向けて距離を調整してください」等のメッセージと、移動ボタンEとを端末装置10の表示部130に表示させる(S52)。CPU100は、ユーザがこの表示したがって移動ボタンEを押下したことを検知すると(S42:YES)、距離を含めた仮想音源の設定位置の指定処理を開始する(S60)。 In the display state shown in FIG. 19, when the user presses the NO button C2 (S40: NO), the target sound source specifying process is restarted from the beginning. However, when the user presses the YES button C1 in the display state shown in FIG. 19 (S40: YES), the CPU 100 adjusts the distance in the direction to be moved as shown in FIG. And the like, and the movement button E are displayed on the display unit 130 of the terminal device 10 (S52). When the CPU 100 detects that the user has pressed the display button, that is, the movement button E (S42: YES), the CPU 100 starts specifying the virtual sound source setting position including the distance (S60).
 図28に距離を含めた仮想音源の設置位置の指定処理の具体的な内容を示す。仮想音源の設置位置の指定処理は、所定時間間隔で実行される処理である。この場合、移動ボタンEが押されていることを検知するCPU100は、距離調整指示部として機能する。ユーザがフェーダーFを操作し、CPU100が、フェーダーFの移動を検知すると、フェーダーFの移動方向と移動量に応じて距離の調整を指示する。そして、位置情報更新部としても機能するCPU100は、この指示に応じて距離を調整する(S250)。フェーダーFの移動の検知処理と距離の調整処理は所定時間間隔ごとに行われ、フェーダーFの移動が検知されなければ、次の処理(S200~)が行われる。フェーダーFの移動が検知された場合には、具体的には、上述の例と同様に、図22および図24に示す三角形における斜辺aの長さを、フェーダーFの移動方向に応じて変化させる。さらに、第1実施形態と同様に、所定時間間隔ごとに角度情報を取得して、仮想音源の設定位置の座標を算出する(S200)。そして、所定時間間隔ごとに仮想音源を識別する情報、例えばチャネル名と、その仮想音源の位置情報を含む仮想音源情報をオーディオ信号処理装置20に送信する(S201)。また、CPU100は、メモリ110に格納した仮想音源管理テーブルを更新する(図8:S202)。またフェーダーを移動ボタンと同じ意味を持たせ、ユーザーがフェーダーを操作している間だけ移動ボタンが押さされているとみなすことで、片手で容易に操作するようにしても良い。 FIG. 28 shows specific contents of the virtual sound source installation position designation process including the distance. The virtual sound source installation position designation process is a process executed at predetermined time intervals. In this case, the CPU 100 that detects that the movement button E is pressed functions as a distance adjustment instruction unit. When the user operates the fader F and the CPU 100 detects the movement of the fader F, the CPU 100 instructs the adjustment of the distance according to the moving direction and the moving amount of the fader F. And CPU100 which functions also as a position information update part adjusts a distance according to this instruction (S250). The process of detecting the movement of the fader F and the process of adjusting the distance are performed at predetermined time intervals. If the movement of the fader F is not detected, the following process (S200 ~) is performed. When the movement of the fader F is detected, specifically, the length of the hypotenuse a in the triangle shown in FIGS. 22 and 24 is changed according to the moving direction of the fader F, as in the above example. . Furthermore, as in the first embodiment, angle information is acquired at predetermined time intervals, and the coordinates of the set position of the virtual sound source are calculated (S200). Then, information for identifying a virtual sound source, such as a channel name and virtual sound source information including the position information of the virtual sound source, is transmitted to the audio signal processing device 20 at predetermined time intervals (S201). Further, the CPU 100 updates the virtual sound source management table stored in the memory 110 (FIG. 8: S202). Alternatively, the fader may have the same meaning as the movement button, and it may be operated easily with one hand by assuming that the movement button is pressed only while the user operates the fader.
 オーディオ信号処理装置20のCPU210は、仮想音源情報を受信すると、仮想音源管理テーブルTBL2を更新し、所定時間間隔で仮想音源を設定途中の位置に置いた場合のゲイン配分で入力オーディオ信号を計算し、オーディオ信号を出力する。ユーザーは移動ボタンEを押しながら、仮想音源を移動させたい位置に端末装置10を向け、設定途中の音像位置を確認しながら、対象音源を希望する位置に移動させ、希望位置で移動ボタンEを離すと(S46:YES)、仮想音源の設置位置の指定処理が完了する。
 CPU100は、移動ボタンEが離されたことを検知すると(S46:YES)、オーディオ信号処理装置20に対して、仮想音源の移動が完了した旨の情報を送信する(S47)。オーディオ信号処理装置20は、仮想音源の移動が完了した旨の情報を受信すると、ユーザが位置指定を行った仮想音源を含め、全体のチャネルを再生させるなどしてもよい。したがって、ユーザは、フェーダーFの操作に応じて、自分自身に対する仮想音源の距離が変化することを認識することができ、リアルタイムで距離が変化する仮想音源の音を聞きながら最適な位置に仮想音源を設置することが可能となる。
When receiving the virtual sound source information, the CPU 210 of the audio signal processing device 20 updates the virtual sound source management table TBL2, and calculates the input audio signal by gain distribution when the virtual sound source is placed in the middle of setting at a predetermined time interval. , Output audio signal. While pressing the move button E, the user directs the terminal device 10 to a position where the virtual sound source is to be moved, confirms the sound image position in the middle of setting, moves the target sound source to the desired position, and presses the move button E at the desired position. When released (S46: YES), the virtual sound source installation position designation process is completed.
When detecting that the movement button E has been released (S46: YES), the CPU 100 transmits information indicating that the movement of the virtual sound source is completed to the audio signal processing device 20 (S47). When the audio signal processing apparatus 20 receives information indicating that the movement of the virtual sound source has been completed, the audio signal processing apparatus 20 may reproduce the entire channel including the virtual sound source for which the user has designated the position. Therefore, the user can recognize that the distance of the virtual sound source with respect to himself / herself changes according to the operation of the fader F, and listen to the sound of the virtual sound source whose distance changes in real time at the optimal position. Can be installed.
 以上のように、距離調整指示部としての機能するCPU100が、ユーザの操作に応じて端末装置10と目標位置との距離の調整を指示すると、制御対象特定部としても機能するCPU100は、指示に応じて現在の端末装置と目標位置との距離を増減させる。つまり、目標位置を端末装置10に近づける指示の場合には、現在よりも距離を短くし、目標位置を端末装置10から遠ざける指示の場合には、現在よりも距離を長くする。制御対象特定部としてのCPU100は、このようにして指示に基づいて増減させた距離と、角度情報出力部としてのセンサーから出力される角度情報とに基づいて、目標位置の位置情報を算出する。そして、制御対象特定部としてのCPU100は、算出した目標位置の位置情報と、仮想音源管理テーブルTBL2に記憶された距離を考慮した各チャネルの位置情報とを比較し、互いの位置情報のずれが所定範囲内である場合には、対象音源が特定されたと判断する。 As described above, when the CPU 100 functioning as the distance adjustment instruction unit instructs the adjustment of the distance between the terminal device 10 and the target position according to the user's operation, the CPU 100 functioning also as the control target specifying unit responds to the instruction. Accordingly, the distance between the current terminal device and the target position is increased or decreased. That is, in the case of an instruction to bring the target position closer to the terminal device 10, the distance is made shorter than the current time, and in the case of an instruction to move the target position away from the terminal device 10, the distance is made longer than the current time. The CPU 100 as the control target specifying unit calculates the position information of the target position based on the distance thus increased or decreased based on the instruction and the angle information output from the sensor as the angle information output unit. Then, the CPU 100 as the control target specifying unit compares the calculated position information of the target position with the position information of each channel in consideration of the distance stored in the virtual sound source management table TBL2, and the position information shifts between each other. If it is within the predetermined range, it is determined that the target sound source has been specified.
 また、距離調整指示部としての機能するCPU100が、ユーザの操作に応じて端末装置10と対象音源の設定位置との距離の調整を指示すると、位置情報更新部としても機能するCPU100は、指示に応じて現在の端末装置と設定位置との距離を増減させる。つまり、設定位置を端末装置10に近づける指示の場合には、現在よりも距離を短くし、設定位置を端末装置10から遠ざける指示の場合には、現在よりも距離を長くする。位置情報更新部としてのCPU100は、このようにして指示に基づいて増減させた距離と、角度情報出力部としてのセンサーから出力される角度情報とに基づいて、設定位置の位置情報を算出する。そして、位置情報更新部としてのCPU100は、算出した対象音源の位置情報を、新たな位置情報として仮想音源管理テーブルTBL2の内容を更新する。このようにして仮想音源の設定位置が指定される。ざらに、新たな位置情報はリアルタイムでオーディオ信号処理装置20に送信され、オーディオ信号処理装置20のCPU210が新たな位置情報で仮想音源管理テーブルTBL2の内容を更新するので、リアルタイムで仮想音源の音を聞きながら仮想音源の設定位置の指定が可能となる。 Further, when the CPU 100 functioning as a distance adjustment instruction unit instructs the adjustment of the distance between the terminal device 10 and the set position of the target sound source in response to a user operation, the CPU 100 functioning also as a position information update unit responds to the instruction. Accordingly, the distance between the current terminal device and the set position is increased or decreased. That is, in the case of an instruction to bring the set position closer to the terminal device 10, the distance is made shorter than the present, and in the case of an instruction to move the set position away from the terminal device 10, the distance is made longer than the present. The CPU 100 as the position information update unit calculates the position information of the set position based on the distance thus increased or decreased based on the instruction and the angle information output from the sensor as the angle information output unit. Then, the CPU 100 as the position information update unit updates the contents of the virtual sound source management table TBL2 with the calculated position information of the target sound source as new position information. In this way, the setting position of the virtual sound source is designated. The new position information is transmitted to the audio signal processing apparatus 20 in real time, and the CPU 210 of the audio signal processing apparatus 20 updates the contents of the virtual sound source management table TBL2 with the new position information. The setting position of the virtual sound source can be specified while listening to the sound.
 以上のように本実施形態によれば、制御対象の特定と制御対象の設置位置の指定において、制御対象とユーザとの距離を考慮する。そのため、例えば、図31に示すように、ユーザからの距離が異なる音像R1~R4を特定することができ、さらに、ユーザからの距離が異なる位置に仮想音源V1~V4を指定することができる。したがって、本実施形態によれば、制御対象の特定および位置の指定をより自由に行うことができる。 As described above, according to the present embodiment, the distance between the control target and the user is taken into account in specifying the control target and specifying the installation position of the control target. Therefore, for example, as shown in FIG. 31, sound images R1 to R4 having different distances from the user can be specified, and further, virtual sound sources V1 to V4 can be designated at positions having different distances from the user. Therefore, according to the present embodiment, it is possible to more freely specify the control target and specify the position.
 本実施形態では、距離の調整を、端末装置10の表示部130に表示させたフェーダーを用いて行ったが、本開示はこの例に限定されるものではなく、表示部130に距離を表す数値を入力させるようにしてもよい。また、図5に示す端末装置10から得られる角度情報の一つであるrollを用いてもよい。例えば、rollの角度が反時計周りに大きくなった場合には図22および図24に示す三角形における斜辺aの長さを短くし、rollの角度が時計周りに大きくなった場合には図22および図24に示す三角形における斜辺aの長さを長くするようにしてもよい。あるいは、rollの角度が反時計周りに大きくなる場合に距離を短くし、rollの角度が時計周りに大きくなる場合に距離を長くするようにしてもよい。rollの角度を用いる場合には、表示部130上の表示を確認することが困難となることが考えられるので、制御対象を特定できた際に、端末装置10のバイブレーション機能を使って端末装置10を震わせたり、あるいは、サウンド機能を使ってブザー音等の音を発生させるようにしてもよい。 In the present embodiment, the distance is adjusted using the fader displayed on the display unit 130 of the terminal device 10, but the present disclosure is not limited to this example, and a numerical value indicating the distance on the display unit 130. May be input. Moreover, you may use roll which is one of the angle information obtained from the terminal device 10 shown in FIG. For example, when the roll angle increases counterclockwise, the length of the hypotenuse a in the triangle shown in FIGS. 22 and 24 is shortened, and when the roll angle increases clockwise, FIG. You may make it lengthen the length of the hypotenuse a in the triangle shown in FIG. Alternatively, the distance may be shortened when the roll angle increases counterclockwise, and the distance may be increased when the roll angle increases clockwise. When the roll angle is used, it may be difficult to confirm the display on the display unit 130. Therefore, when the control target can be identified, the vibration function of the terminal device 10 is used to identify the terminal device 10. A sound such as a buzzer sound may be generated using a sound function.
 本実施形態では、制御対象の特定処理と設定位置の指定処理との両方の処理において距離の調整を行う例について説明したが、制御対象の特定処理と設定位置の指定処理とのいずれか一方の処理において距離の調整を行うようにしてもよい。 In this embodiment, the example in which the distance is adjusted in both the control target specifying process and the setting position specifying process has been described, but either the control target specifying process or the setting position specifying process is performed. The distance may be adjusted in the processing.
<C:第3実施形態>
 次に、図32ないし図36を参照しつつ、本開示の第3実施形態について説明する。第1実施形態においては、図11に示すように、端末装置10の中心を座標原点とし、X軸方向の長さが2、Y軸方向の長さが2、かつZ軸方向の長さが2の3次元座標空間において、対象音源および仮想音源の座標を求めた。しかし、本開示はこの例に限定されるものではなく、例えば、図32に示すように、端末装置10の中心を座標原点とし、半径が1、かつZ軸方向の長さが2の円柱形状の図形に投影することにより、対象音源および仮想音源の座標を求めるようにしてもよい。この場合にも、天井面および底面にはスピーカおよび仮想音源は配置しないこととする。図33に示すXY平面上におけるXYの座標は次のようにして求められる。
<C: Third Embodiment>
Next, a third embodiment of the present disclosure will be described with reference to FIGS. 32 to 36. In the first embodiment, as shown in FIG. 11, the center of the terminal device 10 is the coordinate origin, the length in the X-axis direction is 2, the length in the Y-axis direction is 2, and the length in the Z-axis direction is The coordinates of the target sound source and the virtual sound source were obtained in the two-dimensional coordinate space. However, the present disclosure is not limited to this example. For example, as illustrated in FIG. 32, the center of the terminal device 10 is a coordinate origin, the radius is 1, and the length in the Z-axis direction is 2. The coordinates of the target sound source and the virtual sound source may be obtained by projecting onto the figure. Also in this case, a speaker and a virtual sound source are not arranged on the ceiling surface and the bottom surface. The coordinates of XY on the XY plane shown in FIG. 33 are obtained as follows.
 (数3)x=sin(yaw)y=cos(yaw)また、Zの座標については、第1実施形態と同様に、pitchに基づいて求めればよい。 (Equation 3) x = sin (yaw) y = cos (yaw) The coordinates of Z may be obtained based on the pitch as in the first embodiment.
 図11に示す第1実施形態および図32に示す第3実施形態のいずれの場合も、天井面および底面にスピーカおよび仮想音源を配置する場合には、pitchが+45°~+90°または-45°~-90°の時に、上述のようにして求めたXY平面上のXY座標に対して、(90-pitch)/45を掛けることにより、3次元座標空間の天井または底面上の位置(X,Y,Z)を求めることができる。 In both the first embodiment shown in FIG. 11 and the third embodiment shown in FIG. 32, when the speaker and the virtual sound source are arranged on the ceiling surface and the bottom surface, the pitch is + 45 ° to + 90 ° or −45 °. By multiplying the XY coordinates on the XY plane obtained as described above by (90-pitch) / 45 at the time of ˜−90 °, the position on the ceiling or bottom of the three-dimensional coordinate space (X, Y, Z) can be determined.
 さらに、図34に示すように、端末装置10によって指示された位置を、半径rの球上の極座標として求めてよい。この場合には、X、Y、Zの座標はそれぞれ次のように求めることができる。 Furthermore, as shown in FIG. 34, the position indicated by the terminal device 10 may be obtained as polar coordinates on a sphere having a radius r. In this case, the coordinates of X, Y, and Z can be obtained as follows.
(数4)x=rcos(pitch)sin(yaw)y=rcos(pitch)cos(yaw)z=rsin(pitch) (Equation 4) x = rcos (pitch) sin (yaw) y = rcos (pitch) cos (yaw) z = rsin (pitch)
 この場合には、テーブルに記憶された極座標のうち、端末装置10の角度から算出された極座標と最も近い極座標の仮想音源等をユーザが特定したい音源と推定すればよい。また、仮想音源等の設定位置を指定する場合には、端末装置10の角度から算出された極座標をテーブルに記憶すればよい。 In this case, of the polar coordinates stored in the table, a virtual sound source or the like having the polar coordinates closest to the polar coordinates calculated from the angle of the terminal device 10 may be estimated as the sound source that the user wants to specify. Moreover, when designating the setting position of a virtual sound source or the like, polar coordinates calculated from the angle of the terminal device 10 may be stored in a table.
 また、図35および図36に示すように、XY平面およびYZ平面またはXZ平面において、所定の角度ごとに閾値を設け、スピーカおよび仮想音源がどの領域に属しているかを位置情報として記憶するようにしてもよい。図35および図36の例では、XY平面をA1~A16の領域に分け、YZ平面をB1~B16の領域に分けている。各領域の角度の間隔は均等である必要はなく、この例よりも更に細分化してもよいし、あるいは、大まかに区分するようにしてもよい。この場合には、端末装置10の角度から算出された領域に属する仮想音源等をユーザが特定したい音源と推定すればよい。また、仮想音源等の設定位置を指定する場合には、その指定位置の属する領域を位置状態としてテーブルに記憶すればよい。 Further, as shown in FIGS. 35 and 36, a threshold value is provided for each predetermined angle in the XY plane, the YZ plane, or the XZ plane, and the region to which the speaker and the virtual sound source belong is stored as position information. May be. In the example of FIGS. 35 and 36, the XY plane is divided into areas A1 to A16, and the YZ plane is divided into areas B1 to B16. The intervals between the angles of the regions do not need to be equal, and may be further subdivided than in this example, or may be roughly divided. In this case, a virtual sound source or the like belonging to an area calculated from the angle of the terminal device 10 may be estimated as a sound source that the user wants to specify. When a set position of a virtual sound source or the like is designated, an area to which the designated position belongs may be stored in the table as a position state.
 さらに、スピーカや仮想音源の位置情報を、奥行きを考慮せずに、yawおよびpitchの角度で記憶しておくようにしてもよい。この場合には、端末装置10の角度と最も近いスピーカや仮想音源を制御対象とすればよい。あるいは、端末装置10の角度が、スピーカや仮想音源の角度に近づいた際に制御対象としてもよい。 Further, the position information of the speaker and the virtual sound source may be stored at the angles of yaw and pitch without considering the depth. In this case, the control target may be a speaker or a virtual sound source that is closest to the angle of the terminal device 10. Or it is good also as a control object, when the angle of the terminal device 10 approaches the angle of a speaker or a virtual sound source.
<D:第4実施形態>
 次に、図4を参照しつつ、本開示の第4実施形態について説明する。上述した実施形態においては、端末装置10の表示部130に、制御対象や操作の確認メッセージを表示する例について説明した。つまり、上述した実施形態においては、CPU100および表示部130が、制御対象が特定されたことを報知する報知部として構成されていた。しかし、本開示のこの例に限定されるものではなく、例えば、図4に示す端末装置10のバイブレーション発生部160によるバイブレーション機能あるいはサウンド発生部161によるサウンド機能を用いて、ユーザに報知するようにしてもよい。つまり、CPU100およびバイブレーション発生部160またはサウンド発生部161を、制御対象が特定されたことを報知する報知部として構成してもよい。
<D: Fourth Embodiment>
Next, a fourth embodiment of the present disclosure will be described with reference to FIG. In the above-described embodiment, the example in which the control unit and the operation confirmation message are displayed on the display unit 130 of the terminal device 10 has been described. That is, in the above-described embodiment, the CPU 100 and the display unit 130 are configured as a notification unit that notifies that a control target has been specified. However, the present disclosure is not limited to this example. For example, the vibration function by the vibration generation unit 160 or the sound function by the sound generation unit 161 of the terminal device 10 illustrated in FIG. May be. That is, you may comprise CPU100 and the vibration generation part 160 or the sound generation part 161 as an alerting | reporting part which alert | reports that the control object was specified.
 例えば、対象音源を特定しようとしてユーザが端末装置10を音源の方向に向けた際、端末装置10のyawおよびpitchの角度に近い位置情報を有する対象音源が存在した場合には、1度短くバイブレーションを発生させたり、予め設定しておいた音を発生させるようにしてもよい。また、バイブレーションを発生する回数や、音を発生させる回数を、制御対象ごとに変えるようにしてもよい。例えば、制御対象として、左フロントチャネルが特定可能な場合には1回、センタチャネルが特定可能な場合には2回、右フロントチャネルが特定可能な場合には3回というように、バイブレーションを発生する回数や、音を発生させる回数を、制御対象ごとに変えることも可能である。このように構成した場合には、ユーザが端末装置10の表示部130を見なくても制御対象が特定されたことを知ることができ、利便性を高めることができる。 For example, when the user directs the terminal device 10 in the direction of the sound source in order to specify the target sound source, if there is a target sound source having position information close to the angle of yaw and pitch of the terminal device 10, vibration is shortened once. Or a preset sound may be generated. In addition, the number of times that vibration is generated and the number of times that sound is generated may be changed for each control target. For example, when the left front channel can be specified as a control target, vibration is generated once, when the center channel can be specified twice, and when the right front channel can be specified three times, vibration is generated. It is also possible to change the frequency | count of performing and the frequency | count of generating a sound for every control object. When configured in this manner, the user can know that the control target has been specified without looking at the display unit 130 of the terminal device 10, and convenience can be improved.
<F:変形例>
 以上本開示の各実施形態について説明したが、これら実施形態に以下の変形を加えても勿論良い。(1)上記各実施形態では、端末装置10において角度情報を取得すると共に、座標の算出と制御対象の特定も端末装置10において行った。しかし、端末装置10において角度情報をオーディオ信号処理装置20に送信し、オーディオ信号処理装置20において座標の算出と制御対象の特定を行うようにしてもよい。
<F: Modification>
Although the embodiments of the present disclosure have been described above, the following modifications may of course be added to these embodiments. (1) In each of the above embodiments, the terminal device 10 obtains angle information, and also calculates coordinates and specifies a control target in the terminal device 10. However, the angle information may be transmitted from the terminal device 10 to the audio signal processing device 20, and the audio signal processing device 20 may calculate the coordinates and specify the control target.
 (2)上記各実施形態では、1種類の制御対象についてのみ処理を行った。しかし、上述したように、制御対象は、各チャネルによる音像、複数のチャネルのミキシングによる音像、仮想スピーカ、およびスピーカ等、複数存在する。そこで、端末装置10の表示部130に、制御対象をリスト表示させ、ユーザにどの制御対象について処理を行うかを選択させるようにしてもよい。また、制御対象のリスト表示画面と、制御対象を選択する画面とを分けてもよい。 (2) In each of the above-described embodiments, only one type of control target is processed. However, as described above, there are a plurality of objects to be controlled, such as a sound image by each channel, a sound image by mixing a plurality of channels, a virtual speaker, and a speaker. Therefore, a list of control targets may be displayed on the display unit 130 of the terminal device 10 and the user may be allowed to select which control target is to be processed. In addition, the list display screen for the control target and the screen for selecting the control target may be separated.
 (3)上記各実施形態では、制御対象を特定した後に、制御対象の設定位置を指定する処理を行う例について説明した。しかし、制御対象を特定した後に、音量や音質を調整する等の編集処理を行うようにしてもよい。この場合には、端末装置10の表示部130に、音量や音質の調整表示を行ったり、端末装置10の姿勢の変化によって調整するようにしてもよい。なお、編集の内容は、制御対象によっても異なるので、制御対象に応じて、編集の内容が異なる画面を表示させるようにしてもよい。 (3) In each of the above-described embodiments, an example has been described in which processing for specifying a set position of a control target is performed after the control target is specified. However, editing processing such as adjusting the volume and sound quality may be performed after specifying the control target. In this case, the display unit 130 of the terminal device 10 may perform adjustment display of volume and sound quality, or may be adjusted by changing the attitude of the terminal device 10. Note that the content of editing varies depending on the control target, and accordingly, a screen with different content of editing may be displayed depending on the control target.
 (4)上記各実施形態では、常に全てのチャネルの音を再生する場合について説明した。しかし、制御対象を特定した時に、制御対象の音を強調して再生するようにしてもよい。この場合、他の音をミュートするようにしてもよいし、制御対象の音のみの音量を大きくするようにしてもよい。また、制御対象を特定処理が開始されるときに全ての音を消して、端末装置10の向きが制御対象に近づいたときだけその場所から音を出すようにしてもよい。音は、現在再生されている音でもよいし、ビープ音などの固定音でもよい。さらに、上述した第2実施形態のように距離の調整が可能な構成においては、端末装置10が指し示す位置が、目標位置に近づくほど、制御対象の音を大きくする等、強調して再生するようにしてもよい。 (4) In each of the above embodiments, the case where the sound of all the channels is always reproduced has been described. However, when the control target is specified, the control target sound may be emphasized and reproduced. In this case, other sounds may be muted, or the volume of only the sound to be controlled may be increased. Alternatively, all the sounds may be erased when the process for specifying the control target is started, and the sound may be emitted from that location only when the orientation of the terminal device 10 approaches the control target. The sound may be a currently played sound or a fixed sound such as a beep sound. Furthermore, in the configuration in which the distance can be adjusted as in the second embodiment described above, reproduction is performed with emphasis, for example, by increasing the sound of the control target as the position indicated by the terminal device 10 approaches the target position. It may be.
 (5)上記各実施形態および各変形例においては、1台の端末装置10を用いる場合について説明したが、複数台の端末装置10を用いるようにしてもよい。複数台の端末装置10を用いて、各端末装置10において仮想音源等の特定処理を行う場合には、オーディオ信号処理装置20において更新される仮想音源管理テーブルTBL2の仮想音源の位置情報を、複数台の端末装置10が常に取得するように構成し、オーディオ信号処理装置20と複数台の端末装置10とにおいて、仮想音源管理テーブルTBL2の内容を同期するようにしてもよい。また、各端末装置10において仮想音源等の特定処理を行う直前に、オーディオ信号処理装置20から仮想音源管理テーブルTBL2の内容を取得して、各端末装置10のメモリ110に格納させた仮想音源管理テーブルTBL2を更新するようにしてもよい。 (5) In each of the above-described embodiments and modifications, the case of using one terminal device 10 has been described. However, a plurality of terminal devices 10 may be used. When a plurality of terminal devices 10 are used to perform a specific process such as a virtual sound source in each terminal device 10, a plurality of pieces of virtual sound source position information in the virtual sound source management table TBL 2 updated in the audio signal processing device 20 are stored. The terminal device 10 may be configured to always acquire the content, and the contents of the virtual sound source management table TBL2 may be synchronized between the audio signal processing device 20 and the plurality of terminal devices 10. Further, immediately before performing the specific processing of the virtual sound source or the like in each terminal device 10, the content of the virtual sound source management table TBL 2 is acquired from the audio signal processing device 20 and stored in the memory 110 of each terminal device 10. The table TBL2 may be updated.
 (6)上記各実施形態および各変形例においては、端末装置10とオーディオ信号処理装置20とを備えたオーディオ信号処理システム1Aに本開示を適用したが、本開示は、ポータブルオーディオプレイヤやスマートフォン等のように単体で音声や楽音などの様々な音響を再生する音響再生装置にも適用可能である。図37は、本開示の変形例に係る音響再生装置の外観図である。音響再生装置30は、音声や楽音などの様々な音響を再生する可搬型の機器(ポータブルオーディオプレイヤ)であり、本体部312と放音体314とを具備する。本体部312は、ステレオ形式の2系統の音響信号SOUT(SOUT_R,SOUT_L)を生成および出力する。放音体314は、本体部312が出力する各音響信号SOUTに応じた再生音を放射する機器(ヘッドホンやイヤホン)であり、再生音を聴取する利用者(以下「受聴者」という)の頭部に装着される。放音体314は、受聴者の右耳に装着されて音響信号SOUT_Rに応じた再生音を放射する放音部314Rと、受聴者の左耳に装着されて音響信号SOUT_Lに応じた再生音を放射する放音部314Lとで構成される。受聴者は、本体部312を胴体に携持する(例えば衣服のポケットに収容する)とともに放音体314を頭部に装着したうえで移動することが可能である。 (6) In the above embodiments and modifications, the present disclosure is applied to the audio signal processing system 1A including the terminal device 10 and the audio signal processing device 20, but the present disclosure is not limited to a portable audio player, a smartphone, or the like. As described above, the present invention can also be applied to a sound reproducing apparatus that reproduces various sounds such as voice and musical tone. FIG. 37 is an external view of a sound reproducing device according to a modified example of the present disclosure. The sound reproducing device 30 is a portable device (portable audio player) that reproduces various sounds such as voice and musical sound, and includes a main body 312 and a sound emitting body 314. The main body 312 generates and outputs two stereo audio signals SOUT (SOUT_R, SOUT_L). The sound emitting body 314 is a device (headphone or earphone) that emits reproduced sound corresponding to each acoustic signal SOUT output from the main body 312 and is the head of a user who listens to the reproduced sound (hereinafter referred to as “listener”). It is attached to the part. The sound emitter 314 is attached to the listener's right ear and emits a reproduced sound corresponding to the acoustic signal SOUT_R, and the sound emitter 314 is attached to the listener's left ear and reproduces the reproduced sound corresponding to the acoustic signal SOUT_L. The sound emission part 314L to radiate is comprised. The listener can carry the main body 312 in the body (for example, in a pocket of clothes) and move the sound emitting body 314 on the head.
 図38は、本体部312のブロック図である。図38に示すように、本体部312は、演算処理装置380と記憶装置382と入力装置384と表示装置386と信号処理装置340とを具備するコンピュータシステムで実現される。入力装置384と表示装置386とが配置された筐体350(図37)の内部に演算処理装置380と記憶装置382と信号処理装置340とが収容される。演算処理装置380は、記憶装置382が記憶するプログラムを実行することで複数の機能を実現する。 FIG. 38 is a block diagram of the main body 312. As shown in FIG. 38, the main body 312 is realized by a computer system including an arithmetic processing device 380, a storage device 382, an input device 384, a display device 386, and a signal processing device 340. An arithmetic processing device 380, a storage device 382, and a signal processing device 340 are accommodated in a housing 350 (FIG. 37) in which the input device 384 and the display device 386 are arranged. The arithmetic processing device 380 realizes a plurality of functions by executing a program stored in the storage device 382.
 記憶装置382は、演算処理装置380が実行するプログラムや演算処理装置380が使用するデータを記憶する。半導体記録媒体や磁気記録媒体など公知の記録媒体が記憶装置382として任意に採用される。記憶装置382は、音響の波形を表す音響信号S0(サンプル系列)を例えば楽曲毎に記憶する。また、記憶装置382は、音響信号S0に付与される伝達特性(頭部伝達関数)を表す複数の伝達特性データDを記憶する。さらに、記憶装置382は、上記各実施形態で説明した仮想音源管理テーブルTBL2を記憶する。 The storage device 382 stores a program executed by the arithmetic processing device 380 and data used by the arithmetic processing device 380. A known recording medium such as a semiconductor recording medium or a magnetic recording medium is arbitrarily employed as the storage device 382. The storage device 382 stores an acoustic signal S0 (sample series) representing an acoustic waveform for each piece of music, for example. Further, the storage device 382 stores a plurality of transfer characteristic data D representing transfer characteristics (head related transfer function) given to the acoustic signal S0. Furthermore, the storage device 382 stores the virtual sound source management table TBL2 described in the above embodiments.
 信号処理装置340は、音響信号S0を処理して音響信号SOUT(SOUT_R,SOUT_L)を生成する電子回路(DSP)である。図38に示すように、信号処理装置340は、音像定位部342とD/A変換部344とを含んで構成される。音像定位部342は、放音体314からの再生音を聴取したときに受聴者が知覚する音像を特定の位置の仮想的な発音点(以下「仮想発音点」という)に定位させる、すなわち、仮想音源を仮想発音点に定位させるための音像定位処理を音響信号S0に対して実行することで音響信号Q(Q_R,Q_L)を生成する。D/A変換部344は、音像定位部342が生成したデジタルの音響信号Q(Q_R,Q_L)をアナログの音響信号SOUT(SOUT_R,SOUT_L)に変換して放音体314に出力する。なお、仮想発音点の位置情報は、仮想音源管理テーブルTBL2に記憶される。 The signal processing device 340 is an electronic circuit (DSP) that processes the acoustic signal S0 and generates acoustic signals SOUT (SOUT_R, SOUT_L). As illustrated in FIG. 38, the signal processing device 340 includes a sound image localization unit 342 and a D / A conversion unit 344. The sound image localization unit 342 localizes the sound image perceived by the listener when listening to the reproduced sound from the sound emitting body 314 to a virtual sounding point (hereinafter referred to as “virtual sounding point”) at a specific position. The sound signal Q (Q_R, Q_L) is generated by performing sound image localization processing for localizing the virtual sound source to the virtual sounding point on the sound signal S0. The D / A converter 344 converts the digital acoustic signal Q (Q_R, Q_L) generated by the sound image localization unit 342 into an analog acoustic signal SOUT (SOUT_R, SOUT_L) and outputs the analog acoustic signal SOUT to the sound emitter 314. Note that the position information of the virtual pronunciation point is stored in the virtual sound source management table TBL2.
 図39は、音像定位部342のブロック図である。図39に示すように、音像定位部342は、信号分離部372と畳込演算部374と信号合成部376とを含んで構成される。信号分離部(サラウンドコーデック)372は、記憶装置382に記憶された音響信号S0から複数の系統(5.1ch)の音響信号S(Sd_L,Sd_R,Sd_C,Sd_LS,Sd_RS,SLF)を生成する。音響信号SLF以外の5系統の音響信号Sd(Sd_L,Sd_R,Sd_C,Sd_LS,Sd_RS)の各々は、受聴者であるユーザに対して特定の方向(以下「受音方向」と表記する)から到来する音響に相当する。さらに詳述すると、音響信号Sd_Lおよび音響信号Sd_Rは、受聴者に対して前方の左右から到来する音響に相当する。また、音響信号Sd_Cは、受聴者の正面から到来する音響に相当し、音響信号Sd_LSおよび音響信号Sd_RSは、受聴者であるユーザに対して後方の左右から到来する音響に相当する。一方、音響信号SLFは低音域の音響に相当する。 FIG. 39 is a block diagram of the sound image localization unit 342. As shown in FIG. 39, the sound image localization unit 342 includes a signal separation unit 372, a convolution operation unit 374, and a signal synthesis unit 376. The signal separation unit (surround codec) 372 generates a plurality of systems (5.1ch) of acoustic signals S (Sd_L, Sd_R, Sd_C, Sd_LS, Sd_RS, SLF) from the acoustic signal S0 stored in the storage device 382. Each of the five systems of acoustic signals Sd (Sd_L, Sd_R, Sd_C, Sd_LS, Sd_RS) other than the acoustic signal SLF comes from a specific direction (hereinafter referred to as “sound receiving direction”) with respect to the user who is the listener. It corresponds to the sound to be. More specifically, the sound signal Sd_L and the sound signal Sd_R correspond to sound coming from the left and right in front of the listener. The acoustic signal Sd_C corresponds to the sound coming from the front of the listener, and the acoustic signal Sd_LS and the acoustic signal Sd_RS correspond to the sound coming from the left and right behind the user who is the listener. On the other hand, the acoustic signal SLF corresponds to low-frequency sound.
 畳込演算部374は、信号分離部372による処理後の各音響信号Sdに伝達特性(頭部伝達関数)Hを付加する。図39に示すように、畳込演算部374は、音響信号SLF以外の各音響信号Sd(Sd_L,Sd_R,Sd_C,Sd_LS,Sd_RS)が供給される5個のフィルタ処理部378で構成される。各フィルタ処理部378は、右耳用のフィルタ378Rと左耳用のフィルタ378Lとで構成される。フィルタ378Lおよびフィルタ378Rの各々は、信号分離部372から供給される音響信号Sdに対して伝達特性Hの畳込み演算を実行するFIR(Finite Impulse Response)フィルタである。伝達特性Hは、例えばインパルス応答の時間軸上の波形を表す係数列であり、再生音の音像が仮想発音点に定位するように、すなわち、仮想音源が仮想発音点に定位するように各フィルタ処理部378のフィルタ378Rとフィルタ378Lとについて演算処理装置380が個別に設定する。 The convolution operation unit 374 adds a transfer characteristic (head-related transfer function) H to each acoustic signal Sd processed by the signal separation unit 372. As shown in FIG. 39, the convolution operation unit 374 includes five filter processing units 378 to which the respective acoustic signals Sd (Sd_L, Sd_R, Sd_C, Sd_LS, Sd_RS) other than the acoustic signal SLF are supplied. Each filter processing unit 378 includes a right ear filter 378R and a left ear filter 378L. Each of the filter 378L and the filter 378R is an FIR (Finite Impulse フ ィ ル タ Response) filter that performs a convolution operation of the transfer characteristic H on the acoustic signal Sd supplied from the signal separation unit 372. The transfer characteristic H is a coefficient sequence representing, for example, a waveform on the time axis of the impulse response, and each filter so that the sound image of the reproduced sound is localized at the virtual sounding point, that is, so that the virtual sound source is localized at the virtual sounding point. The arithmetic processing unit 380 individually sets the filter 378R and the filter 378L of the processing unit 378.
 信号合成部376は、各フィルタ処理部378のフィルタ378Lによる処理後の音響信号Sd(Sd_L,Sd_R,Sd_C,Sd_LS,Sd_RS)と信号分離部372が生成する音響信号SLFとを加算することで音響信号Q_Lを生成する。同様に、信号合成部376は、各フィルタ処理部378のフィルタ378Rによる処理後の音響信号Sd(Sd_L,Sd_R,Sd_C,Sd_LS,Sd_RS)と音響信号SLFとを加算することで音響信号Q_Rを生成する。信号合成部76が生成した音響信号Q_Lおよび音響信号Q_Rは、D/A変換部344にて音響信号SOUT_Lおよび音響信号SOUT_Rに変換されたうえで放音体314に出力される。 The signal synthesis unit 376 adds the acoustic signal Sd (Sd_L, Sd_R, Sd_C, Sd_LS, Sd_RS) processed by the filter 378L of each filter processing unit 378 and the acoustic signal SLF generated by the signal separation unit 372 to add the acoustic signal. A signal Q_L is generated. Similarly, the signal synthesis unit 376 generates the acoustic signal Q_R by adding the acoustic signal Sd (Sd_L, Sd_R, Sd_C, Sd_LS, Sd_RS) and the acoustic signal SLF after processing by the filter 378R of each filter processing unit 378. To do. The acoustic signal Q_L and the acoustic signal Q_R generated by the signal synthesis unit 76 are converted into the acoustic signal SOUT_L and the acoustic signal SOUT_R by the D / A conversion unit 344, and then output to the sound emitting body 314.
 図38の入力装置384は、音響再生装置30に対する指示のためにユーザが操作する操作子で構成される。例えば、ユーザは、入力装置384を適宜に操作することで、音響再生装置30が再生する楽曲(音響信号S0)の選択や仮想音源の仮想発音点の初期的な位置の指定を実行する。表示装置386は、例えば、ユーザによる選択の候補となる複数の楽曲の名称や受聴者と仮想発音点との関係を表す画像、あるいは映画やアニメなどの動画像を表示する。また、表示装置386は、上記各実施形態と同様に、仮想音源の特定処理および仮想音源の設定位置の指定処理を行う際にユーザに対して操作を促す表示、確認を求める表示等を行う。 The input device 384 in FIG. 38 is configured by an operator operated by the user for an instruction to the sound reproduction device 30. For example, by appropriately operating the input device 384, the user executes selection of music (sound signal S0) to be played back by the sound playback device 30 and designation of the initial position of the virtual sound source of the virtual sound source. The display device 386 displays, for example, names of a plurality of songs that are candidates for selection by the user, images representing the relationship between the listener and the virtual pronunciation point, or moving images such as movies and animations. Further, as in the above embodiments, the display device 386 performs display for prompting the user for operation, display for requesting confirmation, and the like when performing processing for specifying a virtual sound source and specifying processing for setting a virtual sound source.
 図38に示すように、音響再生装置30は、ジャイロセンサ361と加速度センサ362とを具備する。ジャイロセンサ361と加速度センサ362の各々は、自身の方位を検出するセンサである。 As shown in FIG. 38, the sound reproducing device 30 includes a gyro sensor 361 and an acceleration sensor 362. Each of the gyro sensor 361 and the acceleration sensor 362 is a sensor that detects its own direction.
 以上のような音響再生装置30において、仮想音源を仮想発音点に定位させた状態で、仮想音源の位置の指定を行うプログラムを起動させることにより、上記各実施形態と同様に、仮想音源の特定処理と、仮想音源の設定位置の指定処理を行うことができる。つまり、仮想発音点の方向に音響再生装置30を向けることにより、仮想発音点の仮想音源を特定することができ、移動ボタンを押下しながら音響再生装置30を所望の方向に向けることにより、仮想音源の仮想発音点を所望の方向に移動させることができる。なお、この変形の例においては、yawのリセット処理を行う場合のリセットの方向は、ユーザの正面となる。上記音像定位部342相当の機能を図3のレシーバーにも持たせることで、複数のスピーカーではなくイヤホンでユーザーが聞くようにしても良い。 In the sound reproduction apparatus 30 as described above, the virtual sound source is specified in the state where the virtual sound source is localized at the virtual sounding point, and the virtual sound source is specified as in the above-described embodiments by starting the program for specifying the position of the virtual sound source. It is possible to perform processing and designation processing of the setting position of the virtual sound source. That is, by directing the sound reproducing device 30 in the direction of the virtual sounding point, the virtual sound source of the virtual sounding point can be specified, and the sound reproducing device 30 is pointed in the desired direction while pressing the movement button. The virtual sounding point of the sound source can be moved in a desired direction. In this modification example, the reset direction when the yaw reset process is performed is the front of the user. By providing the receiver of FIG. 3 with a function corresponding to the sound image localization unit 342, the user may listen with earphones instead of a plurality of speakers.
 ここで、本開示の実施形態を以下のようにまとめる。
 本開示の端末装置は、端末装置が所定の方向に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力する角度情報出力部と、複数の制御対象の位置情報を記憶する対象位置情報記憶部と、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報と、前記対象位置情報記憶部に記憶された前記複数の制御対象の位置情報との比較を行い、制御対象の特定を行う制御対象特定部と、を備えることを特徴とする。
Here, the embodiments of the present disclosure are summarized as follows.
The terminal device according to the present disclosure includes a rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis when the terminal device is oriented in a predetermined direction, and an inclination around the axis orthogonal to the vertical axis. An angle information output unit that detects an angle and outputs the rotation angle and the tilt angle as angle information, a target position information storage unit that stores position information of a plurality of control targets, and an output from the angle information output unit A control object specifying unit that compares the position information calculated based on the angle information and the position information of the plurality of control objects stored in the target position information storage unit, and specifies a control object; It is characterized by providing.
 本開示の端末装置によれば、端末装置を所定の方向に向けると、角度情報出力部により、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とが、角度情報として出力される。制御対象特定部は、角度情報に基づいて位置情報を算出し、算出された位置情報と、対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、制御対象の特定を行う。したがって、ユーザは、特定したい音が聞こえる方向に端末装置を向けるという直観的で判りやすい操作をすることにより、制御対象の特定を行うことが可能となる。なお、本開示において、「制御対象」とは、スピーカ、仮想スピーカ、仮想音源等を含む概念である。 According to the terminal device of the present disclosure, when the terminal device is oriented in a predetermined direction, the angle information output unit causes the rotation angle around the vertical axis with respect to the axis orthogonal to the vertical axis to be orthogonal to the vertical axis. The tilt angle around the axis is output as angle information. The control target specifying unit calculates position information based on the angle information, compares the calculated position information with the position information of a plurality of control targets stored in the target position information storage unit, and specifies the control target. I do. Therefore, the user can specify the control target by performing an intuitive and easy-to-understand operation of directing the terminal device in a direction in which the sound to be specified can be heard. In the present disclosure, the “control target” is a concept including a speaker, a virtual speaker, a virtual sound source, and the like.
 例えば、前記制御対象特定部による前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けられた際に、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として前記対象位置情報記憶部の記憶内容を更新する位置情報更新部を備えるようにすればよい。この場合には、特定した制御対象を設置したい位置に端末装置を向けるという直観的で判りやすい操作をすることにより、その位置の位置情報が算出され、特定した制御対象の新たな位置情報として対象位置情報記憶部の記憶内容が更新される。したがって、直観的で判りやすい操作により、特定した制御対象を所望の設置位置に移動することができる。 For example, it is calculated based on the angle information output from the angle information output unit when the terminal device is directed to a desired position after the control target is specified by the control target specifying unit. A position information updating unit that updates the stored contents of the target position information storage unit as new position information of the control target may be provided. In this case, by performing an intuitive and easy-to-understand operation that directs the terminal device to the position where the specified control target is to be installed, the position information of the position is calculated, and the target position is the new position information of the specified control target. The stored contents of the position information storage unit are updated. Therefore, the specified control object can be moved to a desired installation position by an intuitive and easy-to-understand operation.
 例えば、前記制御対象特定部による前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けられた際に、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として、前記制御対象に対応するオーディオ信号を出力する外部のオーディオ信号処理装置に送信する送信部を備えるようにすればよい。この場合には、特定した制御対象を設置したい位置に端末装置を向けるという直観的で判りやすい操作をすることにより、その位置の位置情報が算出され、特定した制御対象の新たな位置情報として、制御対象に対応するオーディオ信号を出力する外部のオーディオ信号処理装置に送信される。したがって、直観的で判りやすい操作により、制御対象に対応するオーディオ信号を聞きながら、特定した制御対象を所望の設置位置に移動することができる。 For example, it is calculated based on the angle information output from the angle information output unit when the terminal device is directed to a desired position after the control target is specified by the control target specifying unit. It is sufficient to provide a transmission unit that transmits the position information to the external audio signal processing apparatus that outputs the audio signal corresponding to the control target as new position information of the control target. In this case, by performing an intuitive and easy-to-understand operation of directing the terminal device to the position where the specified control target is to be installed, the position information of the position is calculated, and as the new position information of the specified control target, It is transmitted to an external audio signal processing apparatus that outputs an audio signal corresponding to the control target. Therefore, the identified control object can be moved to a desired installation position while listening to an audio signal corresponding to the control object by an intuitive and easy-to-understand operation.
 例えば、前記端末装置と目標位置との距離の調整を指示する距離調整指示部を備え、前記位置情報として、前記距離調整指示部からの指示に基づいて増減させた距離と、前記角度情報出力部から出力される前記角度情報とに基づいて算出される位置情報を用いるようにしてもよい。この場合には、ユーザが距離調整指示部を操作することにより端末装置と目標位置との距離の調整が指示されると、指示に基づいて増減させた距離と、角度情報出力部から出力される角度情報とに基づいて位置情報を算出が算出される。したがって、端末装置から遠い位置にある制御対象であっても、また、端末装置から近い位置にある制御対象であっても、直観的で判りやすい操作により、的確に制御対象の位置を調整することができる。 For example, a distance adjustment instruction unit that instructs adjustment of the distance between the terminal device and a target position, and the position information includes a distance increased or decreased based on an instruction from the distance adjustment instruction unit, and the angle information output unit Position information calculated on the basis of the angle information output from may be used. In this case, when the user operates the distance adjustment instruction unit to instruct the adjustment of the distance between the terminal device and the target position, the distance increased or decreased based on the instruction and the angle information output unit are output. Calculation of position information is calculated based on the angle information. Therefore, regardless of whether the control target is far from the terminal device or the control target close to the terminal device, the position of the control target can be accurately adjusted by an intuitive and easy-to-understand operation. Can do.
 例えば、前記制御対象特定部により前記制御対象の特定を行う際に、前記算出される位置情報と前記対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、互いの位置情報のずれが所定範囲内である場合に報知する報知部を備えてもよい。この場合には、報知部により、制御対象が特定されたことが報知されるので、ユーザは制御対象が特定されたこと直観的に理解することができる。なお、本開示において「報知」とは、表示部における制御対象の表示、端末装置の振動、端末装置からの発音等を含む概念である。 For example, when the control target is specified by the control target specifying unit, the calculated position information is compared with the position information of a plurality of control targets stored in the target position information storage unit. You may provide the alerting | reporting part alert | reported when the shift | offset | difference of position information is in a predetermined range. In this case, since the notification unit notifies that the control target has been specified, the user can intuitively understand that the control target has been specified. In the present disclosure, “notification” is a concept including display of a controlled object on the display unit, vibration of the terminal device, pronunciation from the terminal device, and the like.
 本開示の制御対象特定方法は、端末装置が所定の方向に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力し、前記角度情報に基づいて算出される位置情報と、対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、制御対象の特定を行う、ことを特徴とする。 The control target specifying method of the present disclosure includes a rotation angle about the vertical axis with respect to an axis orthogonal to the vertical axis when the terminal device is directed in a predetermined direction, and a rotation about the axis orthogonal to the vertical axis. And the rotation angle and the inclination angle are output as angle information, the position information calculated based on the angle information, and the positions of a plurality of control targets stored in the target position information storage unit The control object is identified by comparing with information.
 例えば、前記制御対象特定方法では、前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けられた際に、前記出力された角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として前記対象位置情報記憶部の記憶内容を更新する、ことを特徴とする。 For example, in the control target specifying method, after the control target is specified, the position information calculated based on the output angle information when the terminal device is directed to a desired position is The content stored in the target position information storage unit is updated as new position information of the control target.
 例えば、前記制御対象特定方法では、前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けれた際に、前記出力される角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として、前記制御対象に対応するオーディオ信号を出力する外部のオーディオ信号処理装置に送信する、ことを特徴とする。 For example, in the control target specifying method, after the control target is specified, position information calculated based on the output angle information when the terminal device is directed to a desired position is controlled. The new position information of the target is transmitted to an external audio signal processing apparatus that outputs an audio signal corresponding to the control target.
 例えば、前記制御対象特定方法では、前記端末装置と前記制御対象の目標位置との距離の調整を指示し、前記位置情報として、前記距離の調整の指示に基づいて増減させた距離と、前記出力された角度情報とに基づいて算出される位置情報を用いて前記制御対象の特定を行う、ことを特徴とする。 For example, in the control target specifying method, an instruction for adjusting the distance between the terminal device and the target position of the control target is given, and the position information is a distance increased or decreased based on the instruction for adjusting the distance, and the output The control object is specified using position information calculated based on the angle information.
 例えば、前記制御対象特定方法では、前記制御対象の特定を行う際に、前記算出される位置情報と前記対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、互いの位置情報のずれが所定範囲内である場合に報知する、ことを特徴とする。 For example, in the control target specifying method, when the control target is specified, the calculated position information is compared with position information of a plurality of control targets stored in the target position information storage unit, and Notification is made when the position information shift is within a predetermined range.
 本開示のオーディオ信号処理システムは、端末装置と、位置情報に基づいて入力信号に所定の処理を施すとともに、複数のスピーカのそれぞれに対応したチャンネルの信号を出力するオーディオ信号処理装置とを有するオーディオ信号処理システムであって、前記端末装置は、端末装置が所定の位置に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力する角度情報出力部と、複数の制御対象の位置情報を記憶する少なくとも一つの対象位置情報記憶部と、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報と、前記対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、制御対象の特定を行う制御対象特定部とを備える、ことを特徴とする。 An audio signal processing system of the present disclosure includes an audio signal processing apparatus that performs a predetermined process on an input signal based on position information and outputs a signal of a channel corresponding to each of a plurality of speakers. In the signal processing system, the terminal device is orthogonal to the rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis when the terminal device is directed to a predetermined position. An angle information output unit that detects an inclination angle around an axis and outputs the rotation angle and the inclination angle as angle information; and at least one target position information storage unit that stores position information of a plurality of control targets; Position information calculated based on the angle information output from the angle information output unit, and positions of a plurality of control targets stored in the target position information storage unit Compares the broadcast, and a control target specifying unit that performs a specific control object, it is characterized.
 本開示のオーディオ信号処理システムによれば、したがって、ユーザは、特定したい音が聞こえる方向に端末装置を向けるという直観的で判りやすい操作をすることにより、制御対象の特定を行うことが可能となる。なお、本開示において、「制御対象」とは、スピーカ、仮想スピーカ、仮想音源等を含む概念である。 According to the audio signal processing system of the present disclosure, therefore, the user can specify the control target by performing an intuitive and easy-to-understand operation of directing the terminal device in a direction in which the desired sound can be heard. . In the present disclosure, the “control target” is a concept including a speaker, a virtual speaker, a virtual sound source, and the like.
 例えば、前記制御対象特定部により特定された前記制御対象を強調して再生させる再生制御部を備えるようにしてもよい。この場合には、制御対象が特定できたことを直観的に知ることができる。
 例えば、前記端末装置と目標位置との距離の調整を指示する距離調整指示部を備え、前記位置情報として、前記距離調整指示部からの指示に基づいて増減させた距離と、前記角度情報出力部から出力される前記角度情報とに基づいて算出される位置情報を用い、前記位置情報と前記目標位置との差が近いほど前記制御対象を強調して再生させる再生制御部を備えるようにしてもよい。この場合には、距離の調整を直観的に行うことができる。
 本開示は、端末装置のみならず、プロセッサを備えた端末装置のプログラムとしても概念することができる。上記プログラムは記録媒体に格納されても良い。
For example, a reproduction control unit that emphasizes and reproduces the control target specified by the control target specifying unit may be provided. In this case, it can be intuitively known that the control target can be specified.
For example, a distance adjustment instruction unit that instructs adjustment of the distance between the terminal device and a target position, and the position information includes a distance increased or decreased based on an instruction from the distance adjustment instruction unit, and the angle information output unit The position information calculated based on the angle information output from the position information is used, and a reproduction control unit that emphasizes and reproduces the control object as the difference between the position information and the target position is closer is provided. Good. In this case, the distance can be adjusted intuitively.
The present disclosure can be conceptualized not only as a terminal device but also as a program for a terminal device including a processor. The program may be stored in a recording medium.
 請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。 As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.
 本出願は、2014年11月19日に出願された日本特許出願(特願2014-234833)に基づくものであり、ここに参照として取り込まれる。 This application is based on a Japanese patent application (Japanese Patent Application No. 2014-234833) filed on November 19, 2014, and is incorporated herein by reference.
 本開示によれば、複数のスピーカと各スピーカにオーディオ信号を供給するオーディオアンプとを含むオーディオシステムにおける仮想音源等の特定、または仮想音源等の所望の位置への移動を直観的で判りやすい操作で実現するため有用である。 According to the present disclosure, an intuitive and easy-to-understand operation for specifying a virtual sound source or moving a virtual sound source to a desired position in an audio system including a plurality of speakers and an audio amplifier that supplies an audio signal to each speaker. It is useful for realizing.
 1A…オーディオ信号処理システム、10…端末装置、20…オーディオ信号処理装置、30…音響再生装置、100…CPU、110…メモリ、151…ジャイロセンサ、152…加速度センサ、153…方位センサ、210…CPU、230…メモリ、301…ミキサ、310…周波数補正部、320…ゲイン分配部、IN1~IN9…入力オーディオ信号、OUT1~OUT9…出力オーディオ信号、Pref…基準位置、SP1…センタスピーカ、SP2…右フロントスピーカ、SP3…右サラウンドスピーカ、SP4…左サラウンドスピーカ、SP5…左フロントスピーカ、SP6…右フロントプレゼンススピーカ、SP7…右リアプレゼンススピーカ、SP8…左リアプレゼンススピーカ、SP9…左フロントプレゼンススピーカ、TBL1…スピーカ管理テーブル、TBL2…仮想音源管理テーブル。 DESCRIPTION OF SYMBOLS 1A ... Audio signal processing system, 10 ... Terminal device, 20 ... Audio signal processing device, 30 ... Sound reproduction device, 100 ... CPU, 110 ... Memory, 151 ... Gyro sensor, 152 ... Acceleration sensor, 153 ... Direction sensor, 210 ... CPU, 230 ... memory, 301 ... mixer, 310 ... frequency correction unit, 320 ... gain distribution unit, IN1 to IN9 ... input audio signal, OUT1 to OUT9 ... output audio signal, Pref ... reference position, SP1 ... center speaker, SP2 ... Right front speaker, SP3 ... Right surround speaker, SP4 ... Left surround speaker, SP5 ... Left front speaker, SP6 ... Right front presence speaker, SP7 ... Right rear presence speaker, SP8 ... Left rear presence speaker, SP9 ... Left front presence speaker Mosquito, TBL1 ... speaker management table, TBL2 ... virtual sound source management table.

Claims (14)

  1.  端末装置が所定の方向に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力する角度情報出力部と、
     複数の制御対象の位置情報を記憶する対象位置情報記憶部と、
     前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報と、前記対象位置情報記憶部に記憶された前記複数の制御対象の位置情報との比較を行い、制御対象の特定を行う制御対象特定部と、
     を備えることを特徴とする端末装置。
    Detecting a rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis and an inclination angle around an axis orthogonal to the vertical axis when the terminal device is directed in a predetermined direction; An angle information output unit that outputs the rotation angle and the tilt angle as angle information;
    A target position information storage unit that stores position information of a plurality of control targets;
    The position information calculated based on the angle information output from the angle information output unit is compared with the position information of the plurality of control objects stored in the target position information storage unit, and the control object is specified. A control target specifying unit for performing
    A terminal device comprising:
  2.  前記制御対象特定部による前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けられた際に、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として前記対象位置情報記憶部の記憶内容を更新する位置情報更新部を備える、
     ことを特徴とする請求項1に記載の端末装置。
    A position calculated based on the angle information output from the angle information output unit when the terminal device is directed to a desired position after the control target specifying unit has specified the control target. A position information update unit that updates information stored in the target position information storage unit as new position information of the control target;
    The terminal device according to claim 1.
  3.  前記制御対象特定部による前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けられた際に、前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として、前記制御対象に対応するオーディオ信号を出力する外部のオーディオ信号処理装置に送信する送信部を備える、
     ことを特徴とする請求項1に記載の端末装置。
    A position calculated based on the angle information output from the angle information output unit when the terminal device is directed to a desired position after the control target specifying unit has specified the control target. A transmission unit for transmitting information to the external audio signal processing apparatus that outputs an audio signal corresponding to the control target as new position information of the control target;
    The terminal device according to claim 1.
  4.  前記端末装置と前記制御対象の目標位置との距離の調整を指示する距離調整指示部を備え、
     前記制御対象特定部は、前記位置情報として、前記距離調整指示部からの指示に基づいて増減させた距離と、前記角度情報出力部から出力される前記角度情報とに基づいて算出される位置情報を用いる、
     ことを特徴とする請求項1ないし請求項3のいずれか1項に記載の端末装置。
    A distance adjustment instruction unit for instructing adjustment of a distance between the terminal device and the target position of the control target;
    The control target specifying unit calculates, as the position information, position information calculated based on a distance increased or decreased based on an instruction from the distance adjustment instruction unit and the angle information output from the angle information output unit. Use
    The terminal device according to claim 1, wherein the terminal device is a terminal device.
  5.  前記制御対象特定部により前記制御対象の特定を行う際に、前記算出される位置情報と前記対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、互いの位置情報のずれが所定範囲内である場合に報知する報知部を備える、
     ことを特徴とする請求項1ないし請求項4のいずれか1項に記載の端末装置。
    When the control target is specified by the control target specifying unit, the calculated position information is compared with the position information of a plurality of control targets stored in the target position information storage unit, and the position information of each other An informing unit for informing when the deviation is within a predetermined range;
    The terminal device according to claim 1, wherein the terminal device is a terminal device.
  6.  制御対象特定方法であって、
     端末装置が所定の方向に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、
     前記回転角度と前記傾斜角度を角度情報として出力し、
     前記角度情報に基づいて算出される位置情報と、対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、制御対象の特定を行う、
    ことを特徴とする制御対象特定方法。
    A control object identification method,
    Detecting a rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis and an inclination angle around an axis orthogonal to the vertical axis when the terminal device is directed in a predetermined direction;
    Outputting the rotation angle and the tilt angle as angle information;
    The position information calculated based on the angle information is compared with the position information of a plurality of control objects stored in the target position information storage unit, and the control object is specified.
    A control object specifying method characterized by the above.
  7.  前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けられた際に、前記出力された角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として前記対象位置情報記憶部の記憶内容を更新する、
     ことを特徴とする請求項6に記載の制御対象特定方法。
    When the terminal device is directed to a desired position after the control object is specified, the position information calculated based on the output angle information is used as the new position information of the control object. Update the stored contents of the target position information storage unit,
    The control object specifying method according to claim 6.
  8.  前記制御対象の特定が行われた後に、前記端末装置が所望の位置に向けれた際に、前記出力される角度情報に基づいて算出される位置情報を前記制御対象の新たな位置情報として、前記制御対象に対応するオーディオ信号を出力する外部のオーディオ信号処理装置に送信する、
     ことを特徴とする請求項6に記載の制御対象特定方法。
    When the terminal device is directed to a desired position after the control target is specified, the position information calculated based on the output angle information is used as the new position information of the control target. Send to an external audio signal processing device that outputs an audio signal corresponding to the controlled object,
    The control object specifying method according to claim 6.
  9.  前記端末装置と前記制御対象の目標位置との距離の調整を指示し、
     前記位置情報として、前記距離の調整の指示に基づいて増減させた距離と、前記出力された角度情報とに基づいて算出される位置情報を用いて前記制御対象の特定を行う、
     ことを特徴とする請求項6ないし請求項8のいずれか1項に記載の制御対象特定方法。
    Instructing the adjustment of the distance between the terminal device and the target position to be controlled,
    As the position information, the control target is specified using position information calculated based on the distance increased or decreased based on the distance adjustment instruction and the output angle information.
    The method for specifying a control object according to any one of claims 6 to 8, wherein:
  10.  前記制御対象の特定を行う際に、前記算出される位置情報と前記対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、互いの位置情報のずれが所定範囲内である場合に報知する、
     ことを特徴とする請求項6ないし請求項9のいずれか1項に記載の制御対象特定方法。
    When specifying the control object, the calculated position information is compared with the position information of the plurality of control objects stored in the target position information storage unit, and the positional information is within a predetermined range. To notify you if
    The control object specifying method according to any one of claims 6 to 9, wherein:
  11.  端末装置と、位置情報に基づいて入力信号に所定の処理を施すとともに、複数のスピーカのそれぞれに対応したチャンネルの信号を出力するオーディオ信号処理装置と、を有するオーディオ信号処理システムであって、
     端末装置が所定の方向に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力する角度情報出力部と、
     複数の制御対象の位置情報を記憶する少なくとも一つの対象位置情報記憶部と、
     前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報と、前記対象位置情報記憶部に記憶された複数の制御対象の位置情報との比較を行い、制御対象の特定を行う制御対象特定部と、
     を備えることを特徴とするオーディオ信号処理システム。
    An audio signal processing system having a terminal device and an audio signal processing device that performs predetermined processing on an input signal based on position information and outputs a signal of a channel corresponding to each of a plurality of speakers,
    Detecting a rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis and an inclination angle around an axis orthogonal to the vertical axis when the terminal device is directed in a predetermined direction; An angle information output unit that outputs the rotation angle and the tilt angle as angle information;
    At least one target position information storage unit that stores position information of a plurality of control targets;
    The position information calculated based on the angle information output from the angle information output unit is compared with the position information of a plurality of control targets stored in the target position information storage unit, and the control target is specified. A control target specifying unit to perform,
    An audio signal processing system comprising:
  12.  前記制御対象特定部により特定された前記制御対象を強調して再生させる再生制御部を備える、
     ことを特徴とする請求項11に記載のオーディオ信号処理システム。
    A reproduction control unit that emphasizes and reproduces the control target specified by the control target specifying unit;
    The audio signal processing system according to claim 11.
  13.  前記端末装置と前記制御対象の目標位置との距離の調整を指示する距離調整指示部を備え、
     前記制御対象特定部は、前記位置情報として、前記距離調整指示部からの指示に基づいて増減させた距離と、前記角度情報出力部から出力される前記角度情報とに基づいて算出される位置情報を用い、
     前記位置情報と前記目標位置との差が近いほど前記制御対象を強調して再生させる再生制御部を備える、
     ことを特徴とする請求項11または請求項12に記載のオーディオ信号処理システム。
    A distance adjustment instruction unit for instructing adjustment of a distance between the terminal device and the target position of the control target;
    The control target specifying unit calculates, as the position information, position information calculated based on a distance increased or decreased based on an instruction from the distance adjustment instruction unit and the angle information output from the angle information output unit. Use
    A reproduction control unit that emphasizes and reproduces the control target as the difference between the position information and the target position is closer,
    The audio signal processing system according to claim 11 or 12, wherein the system is an audio signal processing system.
  14.  プロセッサを備えた端末装置のプログラムであって、
     前記プロセッサを、
     端末装置が所定の位置に向けられた際の、鉛直軸に直交する軸を基準とした前記鉛直軸回りの回転角度と、前記鉛直軸と直交する軸の回りの傾斜角度とを検出し、前記回転角度と前記傾斜角度を角度情報として出力する角度情報出力部、
     制御対象の位置情報を記憶する対象位置情報記憶部、
     前記端末装置が前記所定の位置に向けられた際に前記角度情報出力部から出力される前記角度情報に基づいて算出される位置情報と、前記対象位置情報記憶部に記憶された前記制御対象の位置情報との比較を行い、前記制御対象の特定を行う制御対象特定部、
     として機能させることを特徴とする端末装置のプログラム。 
    A program for a terminal device having a processor,
    The processor;
    Detecting a rotation angle around the vertical axis with respect to an axis orthogonal to the vertical axis and an inclination angle around an axis orthogonal to the vertical axis when the terminal device is directed to a predetermined position; An angle information output unit for outputting the rotation angle and the tilt angle as angle information;
    A target position information storage unit for storing position information of a control target;
    Position information calculated based on the angle information output from the angle information output unit when the terminal device is directed to the predetermined position, and the control target stored in the target position information storage unit A control target specifying unit for performing comparison with position information and specifying the control target;
    A program for a terminal device, which is made to function as:
PCT/JP2015/082615 2014-11-19 2015-11-19 Terminal device, control target specification method, audio signal processing system, and program for terminal device WO2016080504A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014234833A JP2016100688A (en) 2014-11-19 2014-11-19 Terminal device, audio signal processing system and program for terminal device
JP2014-234833 2014-11-19

Publications (1)

Publication Number Publication Date
WO2016080504A1 true WO2016080504A1 (en) 2016-05-26

Family

ID=56014036

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/082615 WO2016080504A1 (en) 2014-11-19 2015-11-19 Terminal device, control target specification method, audio signal processing system, and program for terminal device

Country Status (2)

Country Link
JP (1) JP2016100688A (en)
WO (1) WO2016080504A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014103456A (en) * 2012-11-16 2014-06-05 Yamaha Corp Audio amplifier
JP2014212400A (en) * 2013-04-17 2014-11-13 ヤマハ株式会社 Device and system for audio signal processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014103456A (en) * 2012-11-16 2014-06-05 Yamaha Corp Audio amplifier
JP2014212400A (en) * 2013-04-17 2014-11-13 ヤマハ株式会社 Device and system for audio signal processing

Also Published As

Publication number Publication date
JP2016100688A (en) 2016-05-30

Similar Documents

Publication Publication Date Title
WO2014077374A1 (en) Audio signal processing device, position information acquisition device, and audio signal processing system
JP6385389B2 (en) System and method for providing personalized audio
JP2019097204A (en) Systems and methods for providing three-dimensional audio
JP6111611B2 (en) Audio amplifier
JP2019535216A (en) Gain control in spatial audio systems
US11272312B2 (en) Non-transitory computer-readable medium having computer-readable instructions and system
JP6255703B2 (en) Audio signal processing apparatus and audio signal processing system
US10708679B2 (en) Distributed audio capture and mixing
JP2014093698A (en) Acoustic reproduction system
JP6201431B2 (en) Terminal device program and audio signal processing system
WO2016080504A1 (en) Terminal device, control target specification method, audio signal processing system, and program for terminal device
WO2016080507A1 (en) Terminal device, movement trajectory acquisition method, and audio signal processing system
JP2014107764A (en) Position information acquisition apparatus and audio system
WO2022113288A1 (en) Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method
WO2022113289A1 (en) Live data delivery method, live data delivery system, live data delivery device, live data reproduction device, and live data reproduction method
JP2022128177A (en) Sound generation device, sound reproduction device, sound reproduction method, and sound signal processing program
JP2023508901A (en) A System and Method for Virtual Sound Effects with Invisible Speakers

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15861685

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15861685

Country of ref document: EP

Kind code of ref document: A1