JP6287191B2 - Speaker device - Google Patents

Speaker device Download PDF

Info

Publication number
JP6287191B2
JP6287191B2 JP2013269163A JP2013269163A JP6287191B2 JP 6287191 B2 JP6287191 B2 JP 6287191B2 JP 2013269163 A JP2013269163 A JP 2013269163A JP 2013269163 A JP2013269163 A JP 2013269163A JP 6287191 B2 JP6287191 B2 JP 6287191B2
Authority
JP
Japan
Prior art keywords
channel
sound
unit
sound source
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013269163A
Other languages
Japanese (ja)
Other versions
JP2015126359A (en
Inventor
進 澤米
進 澤米
真樹 片山
真樹 片山
啓一 今岡
啓一 今岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013269163A priority Critical patent/JP6287191B2/en
Priority to EP14838464.7A priority patent/EP3038385B1/en
Priority to US14/428,227 priority patent/US9674609B2/en
Priority to CN201480002397.6A priority patent/CN104641659B/en
Priority to PCT/JP2014/071686 priority patent/WO2015025858A1/en
Publication of JP2015126359A publication Critical patent/JP2015126359A/en
Priority to US15/472,591 priority patent/US10038963B2/en
Application granted granted Critical
Publication of JP6287191B2 publication Critical patent/JP6287191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、指向性を有する音声ビームを出力するスピーカ装置に関する。   The present invention relates to a speaker device that outputs a sound beam having directivity.

従来、オーディオ信号をそれぞれ遅延させて複数のスピーカユニットに分配することで指向性を有する音声ビームを出力するアレイスピーカ装置が知られている(例えば、特許文献1,2を参照)。   2. Description of the Related Art Conventionally, there is known an array speaker device that outputs a sound beam having directivity by delaying an audio signal and distributing it to a plurality of speaker units (see, for example, Patent Documents 1 and 2).

特許文献1のアレイスピーカ装置は、Cチャンネルの音声ビームと、壁に反射させて聴者に到達する音声ビームと、を用いて、同じ信号を所定の比率で出力することにより、ファントム音源を定位させるものである。ファントム音源とは、同じチャンネルの音を聴者の左右の異なる方向から到達させた場合に、これら異なる方向の中間の方向に定位される仮想的な音源である。   The array speaker device of Patent Document 1 uses a C channel sound beam and a sound beam reflected on a wall to reach the listener, and outputs the same signal at a predetermined ratio to localize the phantom sound source. Is. A phantom sound source is a virtual sound source that is localized in the middle of these different directions when the sound of the same channel is reached from different directions on the left and right sides of the listener.

また、特許文献2のアレイスピーカ装置は、聴者の左右の壁で1回反射した音声ビームと、左右および後方の壁で2回反射した音声ビームと、を用いて、フロントチャンネルの定位方向とサラウンドチャンネルの定位方向との間にファントム音源を定位させるものである。   In addition, the array speaker device of Patent Document 2 uses the sound beam reflected once by the left and right walls of the listener and the sound beam reflected twice by the left and right and rear walls, and the localization direction and surround of the front channel. The phantom sound source is localized between the channel localization direction.

特開2005−159518号公報JP 2005-159518 A 特開2010−213031号公報JP 2010-213031 A

しかし、聴取環境によっては、壁からの反射が良好ではない場合(例えば音響反射率の低い壁素材からなる環境)がある。また、各音声ビームは、チャンネル毎に壁面で反射するビームの音量または周波数特性が完全に一致するものではない。したがって、音声ビームによるファントム音源では、意図する方向に明瞭に音源を定位させることが難しい。   However, depending on the listening environment, there are cases where reflection from the wall is not good (for example, an environment made of a wall material having low acoustic reflectivity). In addition, the sound volume or the frequency characteristic of the beam reflected from the wall surface for each channel does not completely match each sound beam. Therefore, with a phantom sound source using an audio beam, it is difficult to clearly localize the sound source in the intended direction.

そこで、本発明は、音声ビームを用いる場合であっても、意図する方向に明瞭に音源を定位させることができるスピーカ装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a speaker device capable of clearly localizing a sound source in an intended direction even when an audio beam is used.

本発明のスピーカ装置は、複数チャンネルのオーディオ信号が入力される入力部と、複数のスピーカと、前記入力部に入力された複数チャンネルのオーディオ信号をそれぞれ遅延して前記複数のスピーカに分配することにより、前記複数のスピーカに音声ビームを出力させる指向性制御部と、前記入力部に入力された複数チャンネルのオーディオ信号にそれぞれ頭部伝達関数に基づくフィルタ処理を行って前記複数のスピーカに入力する定位付加部と、を備えている。   The speaker device of the present invention delays and distributes the audio signals of a plurality of channels input to the input unit, the plurality of speakers, and the input unit to which the audio signals of a plurality of channels are input to the plurality of speakers. And a directivity control unit that outputs sound beams to the plurality of speakers, and a filtering process based on a head-related transfer function is performed on each of the plurality of channels of audio signals input to the input unit and input to the plurality of speakers. A localization addition unit.

そして、スピーカ装置の定位付加部は、聴取位置から見て、複数の音声ビームの到達方向の間に、前記頭部伝達関数に基づく仮想音源の方向を設定することを特徴とする。すなわち、ファントム音源のように複数のビーム間の方向に頭部伝達関数に基づく仮想音源の方向を設定する。   And the localization addition part of a speaker apparatus sets the direction of the virtual sound source based on the said head-related transfer function between the arrival directions of a several sound beam seeing from a listening position. That is, the direction of the virtual sound source based on the head-related transfer function is set in the direction between a plurality of beams like a phantom sound source.

これにより、本発明のスピーカ装置は、音声ビームによる定位感を用いながら、壁の音響反射率等の聴取環境に依存しない頭部伝達関数による仮想音源によって、意図する方向に明瞭に音源を定位させることができる。   As a result, the speaker device of the present invention clearly locates the sound source in the intended direction using the virtual sound source based on the head-related transfer function that does not depend on the listening environment such as the acoustic reflectivity of the wall while using the sense of localization by the sound beam. be able to.

なお、頭部伝達関数による仮想音源の方向は、例えば、複数のビームにより生成されるファントム音源と同じ方向に設定する。これにより、音声ビームによるファントム音源の定位感を補い、より明瞭に音源を定位させることができる。   Note that the direction of the virtual sound source by the head-related transfer function is set to the same direction as the phantom sound source generated by a plurality of beams, for example. As a result, the localization of the phantom sound source due to the sound beam can be compensated and the sound source can be localized more clearly.

また、前記定位付加部は、前記音声ビームのうち、少なくとも1つの到達方向に対し、前記聴取位置を中心軸として左右対称となる方向に、前記頭部伝達関数に基づく仮想音源の方向を設定する態様としてもよい。この場合、聴取位置から見て左右対称の方向に音源が定位する。   The localization adding unit sets a direction of a virtual sound source based on the head-related transfer function in a direction that is symmetrical with respect to the listening position as a central axis with respect to at least one arrival direction of the sound beam. It is good also as an aspect. In this case, the sound source is localized in a symmetrical direction when viewed from the listening position.

また、本発明のスピーカ装置は、聴取位置に設置されるマイクと、前記指向性制御部にテスト信号を入力して前記複数のスピーカにテスト音声ビームを出力させ、当該テスト音声ビームが前記マイクに入力されるレベルを測定する検出手段と、前記検出手段が測定したレベルのピークに基づいて音声ビームの出力角度を設定するビーム角度設定手段と、をさらに備えていてもよい。この場合、前記定位付加部は、前記検出手段が測定したレベルのピークに基づいて前記頭部伝達関数に基づく仮想音源の方向を設定する。これにより、聴取位置にマイクを設置して測定を行うだけで各チャンネルの音声ビームの出力角度とともに、仮想音源の方向も自動設定される。   The speaker device according to the present invention includes a microphone installed at a listening position, a test signal input to the directivity control unit, and a test audio beam output to the plurality of speakers, the test audio beam being transmitted to the microphone. The apparatus may further comprise detection means for measuring an input level and beam angle setting means for setting an output angle of the sound beam based on a peak of the level measured by the detection means. In this case, the localization adding unit sets the direction of the virtual sound source based on the head-related transfer function based on the level peak measured by the detection means. Thereby, the direction of the virtual sound source is automatically set together with the output angle of the sound beam of each channel simply by installing the microphone at the listening position and performing the measurement.

本発明のスピーカ装置は、音声ビームを用いる場合であっても、意図する方向に明瞭に音源を定位させることができる。   The speaker device of the present invention can clearly localize a sound source in an intended direction even when an audio beam is used.

AVシステムの構成を示す概略図である。It is the schematic which shows the structure of AV system. アレイスピーカ装置の構成を示すブロック図である。It is a block diagram which shows the structure of an array speaker apparatus. フィルタ処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a filter process part. ビーム化処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a beamization process part. 音声ビームとチャンネル設定の関係を示した図である。It is the figure which showed the relationship between an audio beam and channel setting. バーチャル処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a virtual processing part. 定位付加部および補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a localization addition part and a correction | amendment part. アレイスピーカ装置2が生成する音場について説明する図である。It is a figure explaining the sound field which the array speaker apparatus 2 produces | generates. アレイスピーカ装置2が生成する音場について説明する図である。It is a figure explaining the sound field which the array speaker apparatus 2 produces | generates. ファントム音源を併用する場合のアレイスピーカ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the array speaker apparatus in the case of using a phantom sound source together. 図11(A)は、ファントム処理部の構成を示すブロック図である。図11(B)は、指定角度とゲイン比率との対応付けテーブルを示す図である。図11(C)は、指定角度と頭部伝達関数との対応付けテーブルを示す図である。ファントム処理部の構成を示すブロック図である。FIG. 11A is a block diagram illustrating a configuration of the phantom processing unit. FIG. 11B is a diagram showing a correspondence table between designated angles and gain ratios. FIG. 11C is a diagram showing a correspondence table between the designated angle and the head-related transfer function. It is a block diagram which shows the structure of a phantom process part. アレイスピーカ装置2Aが生成する音場について説明する図である。It is a figure explaining the sound field which array speaker device 2A generates. アレイスピーカ装置2Aが生成する音場について説明する図である。It is a figure explaining the sound field which array speaker device 2A generates. 変形例に係るアレイスピーカ装置を示す図である。It is a figure which shows the array speaker apparatus which concerns on a modification.

図1は、本実施形態に係るアレイスピーカ装置2を備えたAVシステム1の概略図である。AVシステム1は、アレイスピーカ装置2、サブウーファ3、テレビ4、およびマイク7を備えている。アレイスピーカ装置2は、サブウーファ3およびテレビ4に接続される。アレイスピーカ装置2には、テレビ4で再生される映像に応じたオーディオ信号や不図示のコンテンツプレーヤからのオーディオ信号が入力される。   FIG. 1 is a schematic diagram of an AV system 1 including an array speaker device 2 according to the present embodiment. The AV system 1 includes an array speaker device 2, a subwoofer 3, a television 4, and a microphone 7. The array speaker device 2 is connected to the subwoofer 3 and the television 4. The array speaker device 2 receives an audio signal corresponding to an image reproduced on the television 4 and an audio signal from a content player (not shown).

アレイスピーカ装置2は、図1に示すように、例えば、直方体形状の筐体を備え、テレビ4の近傍(テレビ4の表示画面の下部)に設置される。アレイスピーカ装置2は、前面(聴者に対向する面)に、例えば16個のスピーカユニット21A〜21P、ウーファ33L、およびウーファ33Rを備えている。   As shown in FIG. 1, the array speaker device 2 includes, for example, a rectangular parallelepiped housing and is installed in the vicinity of the television 4 (lower portion of the display screen of the television 4). The array speaker device 2 includes, for example, 16 speaker units 21A to 21P, a woofer 33L, and a woofer 33R on the front surface (the surface facing the listener).

スピーカユニット21A〜21Pは、聴者から見て横方向に沿って一列に配置されている。スピーカユニット21Aは、聴者から見て最も左側に配置され、スピーカユニット21Pは、聴者から見て最も右側に配置されている。ウーファ33Lは、スピーカユニット21Aのさらに左側に配置されている。ウーファ33Rは、スピーカユニット21Pのさらに右側に配置されている。この例では、スピーカユニット21A〜21P、ウーファ33L、およびウーファ33Rが本発明の「複数のスピーカ」に相当する。   The speaker units 21A to 21P are arranged in a line along the horizontal direction when viewed from the listener. The speaker unit 21A is disposed on the leftmost side when viewed from the listener, and the speaker unit 21P is disposed on the rightmost side when viewed from the listener. The woofer 33L is disposed further to the left of the speaker unit 21A. The woofer 33R is disposed on the right side of the speaker unit 21P. In this example, the speaker units 21A to 21P, the woofer 33L, and the woofer 33R correspond to “a plurality of speakers” of the present invention.

なお、スピーカユニットの数は、16個に限らず、例えば8個等であってもよい。また、配置態様も横方向に沿って1列に配置する例に限らず、例えば横方向に沿って3列に配置する等であってもよい。   Note that the number of speaker units is not limited to 16, and may be, for example, 8 or the like. Also, the arrangement is not limited to the example in which the arrangement is arranged in one row along the horizontal direction, and for example, the arrangement may be arranged in three rows along the horizontal direction.

サブウーファ3は、アレイスピーカ装置2の近傍に設置される。図1の例では、アレイスピーカ装置2の左側に配置されているが、設置位置はこの例に限るものではない。   The subwoofer 3 is installed in the vicinity of the array speaker device 2. In the example of FIG. 1, it is arranged on the left side of the array speaker device 2, but the installation position is not limited to this example.

また、アレイスピーカ装置2には、聴取環境測定用のマイク7が接続されている。マイク7は、聴取位置に設置されている。マイク7は、聴取環境を測定する場合に用いられ、実際にコンテンツを視聴する際には設置する必要はない。   The array speaker device 2 is connected to a microphone 7 for measuring listening environment. The microphone 7 is installed at the listening position. The microphone 7 is used when measuring the listening environment, and does not need to be installed when actually viewing the content.

図2は、アレイスピーカ装置2の構成を示すブロック図である。アレイスピーカ装置2は、入力部11、デコーダ10、フィルタ処理部14、フィルタ処理部15、ビーム化処理部20、加算処理部32、加算処理部70、バーチャル処理部40、制御部35、およびユーザI/F36を備えている。   FIG. 2 is a block diagram showing a configuration of the array speaker device 2. The array speaker device 2 includes an input unit 11, a decoder 10, a filter processing unit 14, a filter processing unit 15, a beamization processing unit 20, an addition processing unit 32, an addition processing unit 70, a virtual processing unit 40, a control unit 35, and a user. An I / F 36 is provided.

入力部11は、HDMIレシーバ111、DIR112、およびA/D変換部113を備えている。HDMIレシーバ111は、HDMI規格に適合したHDMI信号を入力し、デコーダ10に出力する。DIR112は、デジタルオーディオ信号(SPDIF)を入力し、デコーダ10に出力する。A/D変換部113は、アナログオーディオ信号を入力し、デジタルオーディオ信号に変換してデコーダ10に出力する。   The input unit 11 includes an HDMI receiver 111, a DIR 112, and an A / D conversion unit 113. The HDMI receiver 111 inputs an HDMI signal conforming to the HDMI standard and outputs it to the decoder 10. The DIR 112 receives a digital audio signal (SPDIF) and outputs it to the decoder 10. The A / D converter 113 receives an analog audio signal, converts it into a digital audio signal, and outputs it to the decoder 10.

デコーダ10は、DSPからなり、入力された信号をデコードする。デコーダ10は、例えば、AAC(登録商標)、Dolby Digital(登録商標)、DTS(登録商標)、MPEG−1/2、MPEG−2マルチチャンネル、MP3等の各種フォーマットの信号を入力し、マルチチャンネルオーディオ信号(FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号。以下、単にオーディオ信号と称す場合は、デジタルオーディオ信号を示すものとする。)に変換して出力する。図2に示す太い実線は、マルチチャンネルオーディオ信号を示すものである。なお、デコーダ10は、例えばステレオチャンネルのオーディオ信号をマルチチャンネルオーディオ信号に拡張する機能も有する。   The decoder 10 is a DSP and decodes an input signal. The decoder 10 inputs signals in various formats such as AAC (registered trademark), Dolby Digital (registered trademark), DTS (registered trademark), MPEG-1 / 2, MPEG-2 multichannel, MP3, etc. It is converted into an audio signal (digital audio signal of FL channel, FR channel, C channel, SL channel, and SR channel. Hereinafter, when simply referred to as an audio signal, the digital audio signal is indicated) and output. A thick solid line shown in FIG. 2 indicates a multi-channel audio signal. The decoder 10 also has a function of expanding, for example, a stereo channel audio signal to a multi-channel audio signal.

デコーダ10から出力されたマルチチャンネルオーディオ信号は、フィルタ処理部14およびフィルタ処理部15に入力される。フィルタ処理部14は、デコーダ10から出力されたマルチチャンネルオーディオ信号について、各スピーカユニットに適した帯域を抽出して出力する。   The multi-channel audio signal output from the decoder 10 is input to the filter processing unit 14 and the filter processing unit 15. The filter processing unit 14 extracts and outputs a band suitable for each speaker unit from the multi-channel audio signal output from the decoder 10.

図3(A)は、フィルタ処理部14の構成を示すブロック図であり、図3(B)は、フィルタ処理部15の構成を示すブロック図である。   FIG. 3A is a block diagram illustrating the configuration of the filter processing unit 14, and FIG. 3B is a block diagram illustrating the configuration of the filter processing unit 15.

フィルタ処理部14は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するHPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRを備えている。また、フィルタ処理部14は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するLPF15FL、LPF15FR、LPF15C、LPF15SL、およびLPF15SRを備えている。   The filter processing unit 14 includes an HPF 14FL, an HPF 14FR, an HPF 14C, an HPF 14SL, and an HPF 14SR that input digital audio signals of the FL channel, the FR channel, the C channel, the SL channel, and the SR channel, respectively. Further, the filter processing unit 14 includes LPF 15FL, LPF 15FR, LPF 15C, LPF 15SL, and LPF 15SR for inputting digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel, respectively.

HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRは、それぞれ入力された各チャンネルのオーディオ信号の高域を抽出して出力する。HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRのカットオフ周波数は、スピーカユニット21A〜21Pの再生周波数の下限(例えば200Hz)に合うように設定されている。HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRの出力信号は、ビーム化処理部20に出力される。   The HPF 14FL, HPF 14FR, HPF 14C, HPF 14SL, and HPF 14SR extract and output the high frequencies of the input audio signals of the respective channels. The cut-off frequencies of HPF 14FL, HPF 14FR, HPF 14C, HPF 14SL, and HPF 14SR are set to match the lower limit (eg, 200 Hz) of the reproduction frequency of speaker units 21A to 21P. The output signals of HPF 14 FL, HPF 14 FR, HPF 14 C, HPF 14 SL, and HPF 14 SR are output to beam forming processing unit 20.

LPF15FL、LPF15FR、LPF15C、LPF15SL、およびLPF15SRは、それぞれ入力された各チャンネルのオーディオ信号の低域(例えば200Hz未満)を抽出して出力する。LPF15FL、LPF15FR、LPF15C、LPF15SL、およびLPF15SRのカットオフ周波数は、上記HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRのカットオフ周波数に対応している(例えば200Hzである)。   LPF15FL, LPF15FR, LPF15C, LPF15SL, and LPF15SR each extract and output a low frequency (for example, less than 200 Hz) of an audio signal of each input channel. The cut-off frequencies of the LPF 15FL, LPF 15FR, LPF 15C, LPF 15SL, and LPF 15SR correspond to the cut-off frequencies of the HPF 14FL, HPF 14FR, HPF 14C, HPF 14SL, and HPF 14SR (for example, 200 Hz).

LPF15FL、LPF15C、およびLPF15SLの出力信号は、加算部16で加算され、Lチャンネルオーディオ信号となる。Lチャンネルオーディオ信号は、さらにHPF30LおよびLPF31Lに入力される。   The output signals of the LPF 15FL, LPF 15C, and LPF 15SL are added by the adder 16 to become an L channel audio signal. The L channel audio signal is further input to the HPF 30L and the LPF 31L.

HPF30Lは、入力されたオーディオ信号の高域を抽出して出力する。LPF31Lは、入力されたオーディオ信号の低域を抽出して出力する。HPF30LおよびLPF31Lのカットオフ周波数は、ウーファ33Lとサブウーファ3とのクロスオーバ周波数(例えば100Hz)に対応する。なお、当該クロスオーバ周波数は、ユーザI/F36を介して聴者により変更できるようにしてもよい。   The HPF 30L extracts and outputs a high frequency of the input audio signal. The LPF 31L extracts and outputs the low frequency range of the input audio signal. The cutoff frequencies of the HPF 30L and the LPF 31L correspond to the crossover frequency (for example, 100 Hz) between the woofer 33L and the subwoofer 3. The crossover frequency may be changed by the listener via the user I / F 36.

LPF15FR、LPF15C、およびLPF15SRの出力信号は、加算部17で加算され、Rチャンネルオーディオ信号となる。Rチャンネルオーディオ信号は、さらにHPF30RおよびLPF31Rに入力される。   The output signals of the LPF 15FR, LPF 15C, and LPF 15SR are added by the adder 17 to become an R channel audio signal. The R channel audio signal is further input to the HPF 30R and the LPF 31R.

HPF30Rは、入力されたオーディオ信号の高域を抽出して出力する。LPF31Rは、入力されたオーディオ信号の低域を抽出して出力する。HPF30Rのカットオフ周波数は、ウーファ33Rとサブウーファ3とのクロスオーバ周波数(例えば100Hz)に対応する。上述のように、クロスオーバ周波数は、ユーザI/F36を介して聴者により変更できるようにしてもよい。   The HPF 30R extracts and outputs the high range of the input audio signal. The LPF 31R extracts and outputs the low frequency range of the input audio signal. The cutoff frequency of the HPF 30R corresponds to the crossover frequency (for example, 100 Hz) between the woofer 33R and the subwoofer 3. As described above, the crossover frequency may be changed by the listener via the user I / F 36.

HPF30Lから出力されたオーディオ信号は、加算処理部32を介してウーファ33Lに入力される。同様に、HPF30Rから出力されたオーディオ信号は、加算処理部32を介してウーファ33Rに入力される。   The audio signal output from the HPF 30L is input to the woofer 33L via the addition processing unit 32. Similarly, the audio signal output from the HPF 30R is input to the woofer 33R via the addition processing unit 32.

LPF31Lから出力されたオーディオ信号およびLPF31Rから出力されたオーディオ信号は、加算処理部70で加算されてモノラル化され、サブウーファ3に入力される。なお、図示は省略するが、加算処理部70には、LFEチャンネルも入力され、LPF31Lから出力されたオーディオ信号およびLPF31Rから出力されたオーディオ信号と加算されてサブウーファ3に出力される。   The audio signal output from the LPF 31 </ b> L and the audio signal output from the LPF 31 </ b> R are added to a monaural signal by the addition processing unit 70 and input to the subwoofer 3. Although not shown, the addition processing unit 70 also receives the LFE channel, adds the audio signal output from the LPF 31L and the audio signal output from the LPF 31R, and outputs the result to the subwoofer 3.

一方、フィルタ処理部15は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するHPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRを備えている。また、フィルタ処理部15は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するLPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRを備えている。   On the other hand, the filter processing unit 15 includes HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR for inputting digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel, respectively. The filter processing unit 15 includes LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR that input digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel, respectively.

HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRは、それぞれ入力された各チャンネルのオーディオ信号の高域を抽出して出力する。HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのカットオフ周波数は、ウーファ33Rおよびウーファ33Lとサブウーファ3とのクロスオーバ周波数(例えば100Hz)に対応する。上述のように、クロスオーバ周波数は、ユーザI/F36を介して聴者により変更できるようにしてもよい。また、HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのカットオフ周波数は、HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRのカットオフ周波数と同一にしてもよい。また、フィルタ処理部15においては、HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのみ備える態様として、低域をサブウーファ3に出力させないようにしてもよい。HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRから出力されたオーディオ信号は、バーチャル処理部40に出力される。   The HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR extract and output the high frequencies of the input audio signals of the respective channels. The cutoff frequency of HPF40FL, HPF40FR, HPF40C, HPF40SL, and HPF40SR corresponds to the crossover frequency (for example, 100 Hz) between the woofer 33R and the woofer 33L and the subwoofer 3. As described above, the crossover frequency may be changed by the listener via the user I / F 36. Further, the cutoff frequency of HPF40FL, HPF40FR, HPF40C, HPF40SL, and HPF40SR may be the same as the cutoff frequency of HPF14FL, HPF14FR, HPF14C, HPF14SL, and HPF14SR. Further, the filter processing unit 15 may be configured not to output the low frequency to the subwoofer 3 as an aspect including only the HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR. Audio signals output from the HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR are output to the virtual processing unit 40.

LPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRは、それぞれ入力された各チャンネルのオーディオ信号の低域を抽出して出力する。LPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRのカットオフ周波数は、上記クロスオーバ周波数に対応している(例えば100Hzである)。LPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRから出力されたオーディオ信号は、加算器171で加算されたてモノラル化された後、加算処理部70を介しサブウーファ3に入力される。加算処理部70では、LPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRから出力されたオーディオ信号と、LPF31RおよびLPF31Lから出力されたオーディオ信号と、上述のLFEチャンネルのオーディオ信号と、が加算される。なお、加算処理部70は、これら信号の加算比率を変更するゲイン調整部を備えていてもよい。   The LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR extract and output the low frequencies of the input audio signals of the respective channels. The cut-off frequencies of LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR correspond to the crossover frequency (for example, 100 Hz). The audio signals output from the LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR are added to a monaural signal by the adder 171 and then input to the subwoofer 3 via the addition processing unit 70. In the addition processing unit 70, the audio signal output from the LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR, the audio signal output from the LPF 31R and LPF 31L, and the audio signal of the LFE channel described above are added. The addition processing unit 70 may include a gain adjustment unit that changes the addition ratio of these signals.

次に、ビーム化処理部20について説明する。図4は、ビーム化処理部20の構成を示すブロック図である。ビーム化処理部20は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するゲイン調整部18FL、ゲイン調整部18FR、ゲイン調整部18C、ゲイン調整部18SL、およびゲイン調整部18SRを備えている。   Next, the beamization processing unit 20 will be described. FIG. 4 is a block diagram illustrating a configuration of the beam processing unit 20. The beamization processing unit 20 includes a gain adjustment unit 18FL, a gain adjustment unit 18FR, a gain adjustment unit 18C, a gain adjustment unit 18SL, which input digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel, respectively. And a gain adjusting unit 18SR.

ゲイン調整部18FL、ゲイン調整部18FR、ゲイン調整部18C、ゲイン調整部18SL、およびゲイン調整部18SRは、各チャンネルのオーディオ信号のゲインを調整する。ゲイン調整された各チャンネルのオーディオ信号は、それぞれ指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRに入力される。指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、各チャンネルのオーディオ信号をスピーカユニット21A〜21Pに分配する。分配されたスピーカユニット21A〜21Pに対するオーディオ信号は、合成部92で合成されてスピーカユニット21A〜21Pに供給される。このとき、指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、各スピーカユニットに供給するオーディオ信号の遅延量を調整する。   The gain adjusting unit 18FL, the gain adjusting unit 18FR, the gain adjusting unit 18C, the gain adjusting unit 18SL, and the gain adjusting unit 18SR adjust the gain of the audio signal of each channel. The gain-adjusted audio signals of the respective channels are input to the directivity control unit 91FL, directivity control unit 91FR, directivity control unit 91C, directivity control unit 91SL, and directivity control unit 91SR, respectively. Directivity control unit 91FL, directivity control unit 91FR, directivity control unit 91C, directivity control unit 91SL, and directivity control unit 91SR distribute the audio signals of the respective channels to speaker units 21A to 21P. Audio signals for the distributed speaker units 21A to 21P are combined by the combining unit 92 and supplied to the speaker units 21A to 21P. At this time, the directivity controller 91FL, the directivity controller 91FR, the directivity controller 91C, the directivity controller 91SL, and the directivity controller 91SR adjust the delay amount of the audio signal supplied to each speaker unit.

スピーカユニット21A〜21Pから出力される音は、位相が揃う箇所において互いに強められ、指向性を有した音声ビームとして出力される。例えば、全スピーカから同じタイミングで音が出力されると、アレイスピーカ装置2の前方に指向性を有する音声ビームが出力される。指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、各オーディオ信号に付与する遅延量を変更することで、音声ビームの出力方向を変更することができる。   The sounds output from the speaker units 21A to 21P are strengthened with respect to each other at the same phase and are output as sound beams having directivity. For example, when sound is output from all the speakers at the same timing, a sound beam having directivity is output in front of the array speaker device 2. The directivity control unit 91FL, the directivity control unit 91FR, the directivity control unit 91C, the directivity control unit 91SL, and the directivity control unit 91SR change the delay amount added to each audio signal, thereby outputting the sound beam. The direction can be changed.

また、指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、スピーカユニット21A〜21Pから出力される各音の位相が所定位置でそろうように遅延量を付与し、当該所定位置で焦点を結ぶ音声ビームを形成することもできる。   In addition, the directivity control unit 91FL, the directivity control unit 91FR, the directivity control unit 91C, the directivity control unit 91SL, and the directivity control unit 91SR are configured so that the phase of each sound output from the speaker units 21A to 21P is a predetermined position. It is also possible to provide a delay amount so that the sound beam is focused and to form an audio beam that focuses at the predetermined position.

音声ビームは、アレイスピーカ装置2から直接、または室内の壁等に反射して聴取位置に到達させることができる。例えば、図5(C)に示すように、Cチャンネルオーディオ信号の音声ビームは、正面方向に出力させて、Cチャンネルの音声ビームが聴取位置の正面から到達させることができる。また、FLチャンネルオーディオ信号およびFRチャンネルオーディオ信号の音声ビームは、アレイスピーカ装置2の左右方向に出力させ、聴取位置の左右に存在する壁に反射させて、それぞれ聴取位置の左方向および右方向から到達させることができる。また、SLチャンネルオーディオ信号およびSRチャンネルオーディオ信号の音声ビームを左右方向に出力させ、聴取位置の左右に存在する壁および後方に存在する壁に2回反射させて、それぞれ聴取位置の左後方方向および右後方方向から到達させることができる。   The sound beam can reach the listening position directly from the array speaker device 2 or reflected on the wall of the room. For example, as shown in FIG. 5C, the sound beam of the C channel audio signal can be output in the front direction, and the sound beam of the C channel can reach from the front of the listening position. Also, the sound beams of the FL channel audio signal and the FR channel audio signal are output in the left-right direction of the array speaker device 2 and reflected on the walls existing on the left and right of the listening position, respectively, from the left direction and the right direction of the listening position. Can be reached. In addition, the sound beams of the SL channel audio signal and the SR channel audio signal are output in the left-right direction and reflected twice on the wall existing on the left and right of the listening position and on the wall existing on the rear side, respectively. It can be reached from the right rear direction.

このような音声ビームの出力方向の設定は、マイク7を用いて聴取環境を測定することにより、自動的に行うことができる。図5(A)に示すように、聴者が聴取位置にマイク7を設置し、ユーザI/F36(または不図示のリモコン)を操作して、音声ビームの設定を指示すると、制御部35は、テスト信号(例えばホワイトノイズ)からなる音声ビームをビーム化処理部20に出力させる。   Such setting of the output direction of the sound beam can be automatically performed by measuring the listening environment using the microphone 7. As shown in FIG. 5A, when the listener places the microphone 7 at the listening position and operates the user I / F 36 (or a remote controller (not shown)) to instruct the setting of the sound beam, the control unit 35 An audio beam composed of a test signal (for example, white noise) is output to the beam processing unit 20.

制御部35は、アレイスピーカ装置2の前面と平行な左方向(−90度方向と称する。)から、アレイスピーカ装置2の前面と垂直な方向(0度方向と称する、)を経てアレイスピーカ装置2の前面と平行な右方向(90度方向と称する。)まで、音声ビームを旋回させる。アレイスピーカ装置2の前面において音声ビームを旋回させると、音声ビームの旋回角θに応じて、部屋Rの壁に音声ビームが反射して、所定の角度でマイク7に音声ビームが収音される。   The control unit 35 passes from the left direction parallel to the front surface of the array speaker device 2 (referred to as a -90 degree direction) to the array speaker device 2 through a direction perpendicular to the front surface of the array speaker device 2 (referred to as a 0 degree direction). The sound beam is turned to the right direction (referred to as 90 degree direction) parallel to the front surface of No. 2. When the sound beam is turned on the front surface of the array speaker device 2, the sound beam is reflected on the wall of the room R according to the turning angle θ of the sound beam, and the sound beam is picked up by the microphone 7 at a predetermined angle. .

制御部35は、マイク7から入力されたオーディオ信号のレベルを音声ビームの出力角度と対応付けてメモリ(不図示)に記憶する。そして、制御部35は、オーディオ信号のレベルのピーク成分に基づいて、マルチチャンネルオーディオ信号の各チャンネルと音声ビームの出力角度を割り当てる。例えば、制御部35は、収音データ中に所定の閾値以上のピークを検出する。制御部35は、これらピークの中で、最も高レベルである時の音声ビームの出力角度を、Cチャンネルの音声ビームの出力角度として割り当てる。例えば、図5(B)では、最も高レベルである時の角度θ3aをCチャンネルの音声ビームの出力角度として割り当てる。また、制御部35は、Cチャンネルに設定したピークを挟んで近接するピークについて、SLチャンネルおよびSRチャンネルの音声ビームの出力角度を割り当てる。例えば、図5(B)では、Cチャンネルに近接し、−90度方向に近い角度θ2aをSLチャンネルの音声ビームとして割り当て、Cチャンネルに近接し、90度方向に近い角度θ4aをSRチャンネルの音声ビームの出力角度として割り当てる。さらに、制御部35は、最も外側のピークについて、FLチャンネルおよびFRチャンネルの音声ビームの出力角度を割り当てる。例えば、図5(B)の例では、最も−90度方向に近い角度θ1aをFLチャンネルの音声ビームとして割り当て、最も90度方向に近い角度θ5aをFRチャンネルの音声ビームの出力角度として割り当てる。このようにして、制御部35は、各チャンネルの音声ビームが聴取位置に到達するレベルを検出する検出手段、および検出手段が測定したレベルのピークに基づいて音声ビームの出力角度を設定するビーム角度設定手段を実現する。   The control unit 35 stores the level of the audio signal input from the microphone 7 in a memory (not shown) in association with the output angle of the audio beam. And the control part 35 allocates the output angle of each channel and audio | voice beam of a multichannel audio signal based on the peak component of the level of an audio signal. For example, the control unit 35 detects a peak not less than a predetermined threshold in the collected sound data. The control unit 35 assigns the output angle of the sound beam at the highest level among these peaks as the output angle of the C channel sound beam. For example, in FIG. 5B, the angle θ3a at the highest level is assigned as the output angle of the sound beam of the C channel. In addition, the control unit 35 assigns the output angles of the sound beams of the SL channel and the SR channel for the peaks that are close to each other with the peak set for the C channel. For example, in FIG. 5B, an angle θ2a close to the C channel and close to the −90 degree direction is assigned as an SL channel sound beam, and an angle θ4a close to the C channel and close to the 90 degree direction is assigned to the SR channel sound. Assign as the beam output angle. Further, the control unit 35 assigns the output angles of the sound beams of the FL channel and the FR channel for the outermost peak. For example, in the example of FIG. 5B, the angle θ1a closest to the −90 degrees direction is assigned as the FL channel sound beam, and the angle θ5a closest to the 90 degrees direction is assigned as the output angle of the FR channel sound beam. In this way, the control unit 35 detects the level at which the sound beam of each channel reaches the listening position, and the beam angle that sets the output angle of the sound beam based on the level peak measured by the detection unit. Implement setting means.

以上のようにして、図5(C)に示すように、聴者(マイク7)の位置において、周囲から音声ビームが到達するような設定を行う。   As described above, as shown in FIG. 5C, setting is performed such that the sound beam reaches from the surroundings at the position of the listener (microphone 7).

次に、バーチャル処理部40について説明する。図6は、バーチャル処理部40の構成を示すブロック図である。バーチャル処理部40は、レベル調整部43、定位付加部42、補正部51、遅延処理部60L、および遅延処理部60Rを備えている。   Next, the virtual processing unit 40 will be described. FIG. 6 is a block diagram illustrating a configuration of the virtual processing unit 40. The virtual processing unit 40 includes a level adjusting unit 43, a localization adding unit 42, a correcting unit 51, a delay processing unit 60L, and a delay processing unit 60R.

レベル調整部43は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するゲイン調整部43FL、ゲイン調整部43FR、ゲイン調整部43C、ゲイン調整部43SL、およびゲイン調整部43SRを備えている。   The level adjustment unit 43 includes a gain adjustment unit 43FL, a gain adjustment unit 43FR, a gain adjustment unit 43C, a gain adjustment unit 43SL, which input digital audio signals of the FL channel, the FR channel, the C channel, the SL channel, and the SR channel. A gain adjustment unit 43SR is provided.

ゲイン調整部43FL、ゲイン調整部43FR、ゲイン調整部43C、ゲイン調整部43SL、およびゲイン調整部43SRは、各チャンネルのオーディオ信号のゲインを調整する。各ゲイン調整部のゲインは、例えば、制御部35によりテスト音声ビームの検出結果に基づいて設定される。例えば、図5(B)に示すように、Cチャンネルの音声ビームは、直接音であるため、最も高レベルである。したがって、ゲイン調整部43Cのゲインは最も低く設定される。また、Cチャンネルの音声ビームは、直接音であり、部屋の環境に依存する可能性が低いため、例えば固定値としてもよい。そして、他のゲイン調整部は、Cチャンネルとのレベル差に応じたゲインが設定される。例えば、Cチャンネルの検出レベルG1=1.0としてゲイン調整部43Cのゲイン0.1を設定する場合、FRチャンネルの検出レベルG3=0.6であればゲイン調整部43FRのゲインを0.4とし、SRチャンネルの検出レベルG2=0.4であれば、ゲイン調整部43SRのゲインを0.6とする。このようにして、各チャンネルのゲインが調整される。なお、図5(A)、図5(B)、および図5(C)の例では、制御部35がテスト信号の音声ビームを旋回させて各チャンネルの音声ビームが聴取位置に到達するレベルを検出する例を示したが、聴者がユーザI/F36を用いて、制御部35に対して手動で音声ビームを出力させる指示を行い、ゲイン調整部43FL、ゲイン調整部43FR、ゲイン調整部43C、ゲイン調整部43SL、およびゲイン調整部43SRのレベルを手動で設定するようにしてもよい。また、ゲイン調整部43FL、ゲイン調整部43FR、ゲイン調整部43C、ゲイン調整部43SL、およびゲイン調整部43SRの設定は、テスト音声ビームをスイープさせて検出したレベルとは別に、それぞれチャンネルごとにレベルを測定してもよい。具体的には、各チャンネルについてテスト音声ビームのスイープにより決定した方向にテスト音声ビームを出力し、聴取位置においてマイク7で収音した音を解析することにより行うことができる。   The gain adjustment unit 43FL, the gain adjustment unit 43FR, the gain adjustment unit 43C, the gain adjustment unit 43SL, and the gain adjustment unit 43SR adjust the gain of the audio signal of each channel. The gain of each gain adjustment unit is set by the control unit 35 based on the detection result of the test sound beam, for example. For example, as shown in FIG. 5B, the C-channel sound beam is the highest level because it is a direct sound. Therefore, the gain of the gain adjusting unit 43C is set to the lowest. Further, the C-channel sound beam is a direct sound and is less likely to depend on the room environment, so may be a fixed value, for example. In the other gain adjustment unit, a gain corresponding to the level difference from the C channel is set. For example, when the gain 0.1 of the gain adjustment unit 43C is set with the C channel detection level G1 = 1.0, and the FR channel detection level G3 = 0.6, the gain of the gain adjustment unit 43FR is set to 0.4. If the SR channel detection level G2 = 0.4, the gain of the gain adjustment unit 43SR is set to 0.6. In this way, the gain of each channel is adjusted. In the examples of FIGS. 5A, 5B, and 5C, the control unit 35 turns the sound beam of the test signal so that the sound beam of each channel reaches the listening position. Although an example of detection is shown, the listener uses the user I / F 36 to manually instruct the control unit 35 to output an audio beam, and the gain adjustment unit 43FL, the gain adjustment unit 43FR, the gain adjustment unit 43C, The levels of the gain adjustment unit 43SL and the gain adjustment unit 43SR may be set manually. The gain adjustment unit 43FL, gain adjustment unit 43FR, gain adjustment unit 43C, gain adjustment unit 43SL, and gain adjustment unit 43SR are set for each channel separately from the level detected by sweeping the test audio beam. May be measured. Specifically, the test sound beam can be output for each channel in the direction determined by the sweep of the test sound beam, and the sound collected by the microphone 7 at the listening position can be analyzed.

ゲイン調整された各チャンネルのオーディオ信号は、定位付加部42に入力される。定位付加部42は、入力された各チャンネルのオーディオ信号を所定の位置に仮想音源として定位させる処理を行う。仮想音源として定位させるためには、所定位置と聴者の耳との間の伝達関数を示す頭部伝達関数(以下、HRTFと称す。)を用いる。   The gain-adjusted audio signal of each channel is input to the localization adding unit 42. The localization adding unit 42 performs a process of localizing the input audio signal of each channel as a virtual sound source at a predetermined position. In order to localize as a virtual sound source, a head-related transfer function (hereinafter referred to as HRTF) indicating a transfer function between a predetermined position and a listener's ear is used.

HRTFは、ある位置に設置した仮想スピーカからそれぞれ左右の耳に至る音の大きさ、到達時間、および周波数特性等を表現したインパルス応答である。定位付加部42は、入力された各チャンネルのオーディオ信号にHRTFを付与して、ウーファ33Lまたはウーファ33Rから放音させることにより、聴者に仮想音源を定位させることができる。   The HRTF is an impulse response that expresses the volume, arrival time, frequency characteristics, and the like of the sound from the virtual speaker installed at a certain position to the left and right ears. The localization adding unit 42 can cause the listener to localize the virtual sound source by adding HRTF to the input audio signal of each channel and emitting sound from the woofer 33L or the woofer 33R.

図7(A)は、定位付加部42の構成を示すブロック図である。定位付加部42は、各チャンネルのオーディオ信号にHRTFのインパルス応答を畳み込むためのFLフィルタ421L、FRフィルタ422L、Cフィルタ423L、SLフィルタ424L、およびSRフィルタ425Lと、FLフィルタ421R、FRフィルタ422R、Cフィルタ423R、SLフィルタ424R、およびSRフィルタ425Rと、を備えている。   FIG. 7A is a block diagram illustrating a configuration of the localization adding unit 42. The localization adding unit 42 includes an FL filter 421L, an FR filter 422L, a C filter 423L, an SL filter 424L, and an SR filter 425L for convolving an HRTF impulse response with the audio signal of each channel, an FL filter 421R, an FR filter 422R, A C filter 423R, an SL filter 424R, and an SR filter 425R.

例えば、FLチャンネルのオーディオ信号は、FLフィルタ421LおよびFLフィルタ421Rに入力される。FLフィルタ421Lは、FLチャンネルのオーディオ信号に、聴者の左前方の仮想音源VSFL(図8(A)を参照。)の位置から左耳に至る経路のHRTFを付与する。FLフィルタ421Rは、FLチャンネルのオーディオ信号に、仮想音源VSFLの位置から右耳に至る経路のHRTFを付与する。同様にして、各チャンネルについて、聴者の周囲の仮想音源の位置から各耳に至るHRTFが付与される。   For example, an audio signal of the FL channel is input to the FL filter 421L and the FL filter 421R. The FL filter 421L adds an HRTF of the path from the position of the virtual sound source VSFL (see FIG. 8A) in front of the listener to the left ear to the FL channel audio signal. The FL filter 421R adds an HRTF of a path from the position of the virtual sound source VSFL to the right ear to the audio signal of the FL channel. Similarly, for each channel, an HRTF from the position of the virtual sound source around the listener to each ear is given.

加算部426Lは、FLフィルタ421L、FRフィルタ422L、Cフィルタ423L、SLフィルタ424L、およびSRフィルタ425LでそれぞれHRTFが付与されたオーディオ信号を合成して、オーディオ信号VLとして補正部51に出力する。加算部426Rは、FLフィルタ421R、FRフィルタ422R、Cフィルタ423R、SLフィルタ424R、およびSRフィルタ425RでそれぞれHRTFが付与されたオーディオ信号を合成して、オーディオ信号VRとして補正部51に出力する。   The adder 426L synthesizes the audio signals to which the HRTF has been added by the FL filter 421L, the FR filter 422L, the C filter 423L, the SL filter 424L, and the SR filter 425L, and outputs the synthesized audio signal to the correcting unit 51. The adder 426R synthesizes the audio signals to which the HRTF has been added by the FL filter 421R, the FR filter 422R, the C filter 423R, the SL filter 424R, and the SR filter 425R, and outputs the synthesized audio signal VR to the correcting unit 51.

補正部51は、クロストークキャンセル処理を行う。図7(B)は、補正部51の構成を示すブロック図である。補正部51は、ダイレクト補正部511L、ダイレクト補正部511R、クロス補正部512L、およびクロス補正部512Rを備えている。   The correction unit 51 performs a crosstalk cancellation process. FIG. 7B is a block diagram illustrating a configuration of the correction unit 51. The correction unit 51 includes a direct correction unit 511L, a direct correction unit 511R, a cross correction unit 512L, and a cross correction unit 512R.

オーディオ信号VLは、ダイレクト補正部511Lおよびクロス補正部512Lに入力される。オーディオ信号VRは、ダイレクト補正部511Rおよびクロス補正部512Rに入力される。   The audio signal VL is input to the direct correction unit 511L and the cross correction unit 512L. The audio signal VR is input to the direct correction unit 511R and the cross correction unit 512R.

ダイレクト補正部511Lは、ウーファ33Lから出力された音が左耳付近で放音されたように聴者に知覚させる処理を行う。ダイレクト補正部511Lは、ウーファ33Lから出力された音の周波数特性が左耳の位置でフラットになるようなフィルタ係数が設定されている。ダイレクト補正部511Lは、入力されたオーディオ信号VLを当該フィルタで処理して、オーディオ信号VLDを出力する。ダイレクト補正部511Rは、ウーファ33Rから出力された音の周波数特性が右耳の位置でフラットになるようなフィルタ係数が設定されている。ダイレクト補正部511Rは、入力されたオーディオ信号VLを当該フィルタで処理して、オーディオ信号VRDを出力する。   The direct correction unit 511L performs a process of making the listener perceive that the sound output from the woofer 33L is emitted near the left ear. In the direct correction unit 511L, a filter coefficient is set such that the frequency characteristic of the sound output from the woofer 33L is flat at the position of the left ear. The direct correction unit 511L processes the input audio signal VL with the filter and outputs an audio signal VLD. In the direct correction unit 511R, a filter coefficient is set such that the frequency characteristic of the sound output from the woofer 33R is flat at the position of the right ear. The direct correction unit 511R processes the input audio signal VL with the filter and outputs the audio signal VRD.

クロス補正部512Lは、ウーファ33Lから右耳に回り込む音の周波数特性を付与するためのフィルタ係数が設定されている。このウーファ33Lから右耳に回り込む音(VLC)を合成部52Rで逆相にしてウーファ33Rから放音させることにより、ウーファ33Lの音が右耳に聞こえるのを抑制する。これにより、ウーファ33Rから放音される音が右耳付近で放音されたように聴者に知覚させる。   The cross correction unit 512L is set with a filter coefficient for providing a frequency characteristic of a sound that circulates from the woofer 33L to the right ear. The sound (VLC) that circulates from the woofer 33L to the right ear is reversed in phase by the synthesizer 52R and emitted from the woofer 33R, thereby suppressing the sound of the woofer 33L from being heard by the right ear. This makes the listener perceive that the sound emitted from the woofer 33R is emitted near the right ear.

クロス補正部512Rは、ウーファ33Rから左耳に回り込む音の周波数特性を付与するためのフィルタ係数が設定されている。このウーファ33Rから左耳に回り込む音(VRC)を合成部52Lで逆相にしてウーファ33Lから放音させることにより、ウーファ33Rの音が左耳に聞こえるのを抑制する。これにより、ウーファ33Lから放音される音が左耳付近で放音されたように聴者に知覚させる。   The cross correction unit 512R is set with a filter coefficient for imparting frequency characteristics of sound that circulates from the woofer 33R to the left ear. The sound (VRC) that circulates from the woofer 33R to the left ear is reversed in phase by the synthesizer 52L and emitted from the woofer 33L, thereby suppressing the sound of the woofer 33R from being heard by the left ear. This makes the listener perceive that the sound emitted from the woofer 33L is emitted near the left ear.

合成部52Lから出力されたオーディオ信号は、遅延処理部60Lに入力される。遅延処理部60Lによって所定時間遅延されたオーディオ信号は、加算処理部32に入力される。また、合成部52Rから出力されたオーディオ信号は、遅延処理部60Rに入力される。遅延処理部60Rによって所定時間遅延されたオーディオ信号は、加算処理部32に入力される。   The audio signal output from the synthesis unit 52L is input to the delay processing unit 60L. The audio signal delayed by a predetermined time by the delay processing unit 60L is input to the addition processing unit 32. The audio signal output from the synthesis unit 52R is input to the delay processing unit 60R. The audio signal delayed by a predetermined time by the delay processing unit 60R is input to the addition processing unit 32.

遅延処理部60Lおよび遅延処理部60Rによる遅延時間は、例えば、ビーム化処理部20の指向性制御部で与えられる遅延時間のうち、最長の遅延時間よりも長く設定される。これにより、仮想音源を知覚させる音が、音声ビームの形成を阻害することがない。なお、ビーム化処理部20の後段に遅延処理部を設け、音声ビーム側に遅延を加えて、音声ビームが仮想音像を定位させる音を阻害しないようにする態様であってもよい。   The delay time by the delay processing unit 60L and the delay processing unit 60R is set longer than the longest delay time among the delay times given by the directivity control unit of the beamization processing unit 20, for example. Thereby, the sound that perceives the virtual sound source does not hinder the formation of the sound beam. Alternatively, a delay processing unit may be provided after the beam forming processing unit 20 so as to add a delay to the sound beam side so that the sound beam does not hinder the sound that localizes the virtual sound image.

遅延処理部60Lから出力されたオーディオ信号は、加算処理部32を介してウーファ33Lに入力される。加算処理部32では、遅延処理部60Lから出力されたオーディオ信号とHPF30Lから出力されたオーディオ信号とが加算される。なお、加算処理部32は、これらオーディオ信号の加算比率を変更するゲイン調整部の構成を備えていてもよい。同様に、遅延処理部60Rから出力されたオーディオ信号は、加算処理部32を介してウーファ33Rに入力される。加算処理部32では、遅延処理部60Rから出力されたオーディオ信号とHPF30Rから出力されたオーディオ信号とが加算される。加算処理部32は、これらオーディオ信号の加算比率を変更するゲイン調整部の構成を備えていてもよい。   The audio signal output from the delay processing unit 60L is input to the woofer 33L via the addition processing unit 32. In the addition processing unit 32, the audio signal output from the delay processing unit 60L and the audio signal output from the HPF 30L are added. Note that the addition processing unit 32 may include a configuration of a gain adjustment unit that changes the addition ratio of these audio signals. Similarly, the audio signal output from the delay processing unit 60R is input to the woofer 33R via the addition processing unit 32. In the addition processing unit 32, the audio signal output from the delay processing unit 60R and the audio signal output from the HPF 30R are added. The addition processing unit 32 may include a gain adjustment unit that changes the addition ratio of these audio signals.

次に、アレイスピーカ装置2が生成する音場について図8(A)を用いて説明する。図8(A)において、実線矢印は、アレイスピーカ装置2から出力される音声ビームの経路を示す。図8(A)において、白い星印は、音声ビームが生成する音源の位置を示し、黒い星印は、仮想音源の位置を示す。   Next, the sound field generated by the array speaker device 2 will be described with reference to FIG. In FIG. 8A, the solid line arrow indicates the path of the sound beam output from the array speaker device 2. In FIG. 8A, a white star indicates the position of the sound source generated by the sound beam, and a black star indicates the position of the virtual sound source.

図8(A)の例では、アレイスピーカ装置2は、音声ビームを5本出力する。Cチャンネルのオーディオ信号は、アレイスピーカ装置2の後方の位置に焦点を結ぶ音声ビームが設定される。これにより、聴者は、音源SCが聴者の前方にあると知覚する。   In the example of FIG. 8A, the array speaker device 2 outputs five sound beams. The C-channel audio signal is set to an audio beam that is focused at a position behind the array speaker device 2. Thus, the listener perceives that the sound source SC is in front of the listener.

同様に、FLチャンネルのオーディオ信号は、部屋Rの左前方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SFLが聴者の左前方の壁にあると知覚する。FRチャンネルのオーディオ信号は、部屋Rの右前方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SFRが聴者の右前方の壁にあると知覚する。SLチャンネルのオーディオ信号は、部屋Rの左後方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SSLが聴者の左後方の壁にあると知覚する。SRチャンネルのオーディオ信号は、部屋Rの右後方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SSRが聴者の左後方の壁にあると知覚する。   Similarly, in the audio signal of the FL channel, an audio beam focused on the position of the left front wall of the room R is set, and the listener perceives that the sound source SFL is on the left front wall of the listener. The audio signal of the FR channel is set with a sound beam that focuses on the position of the right front wall of the room R, and the listener perceives that the sound source SFR is on the right front wall of the listener. The audio signal of the SL channel is set with an audio beam focused on the position of the left rear wall of the room R, and the listener perceives that the sound source SSL is on the left rear wall of the listener. The audio signal of the SR channel is set with a sound beam that focuses on the position of the right rear wall of the room R, and the listener perceives that the sound source SSR is on the left rear wall of the listener.

しかし、図8(A)の例では、右前方の壁と聴取位置との距離が左前方の壁と聴取位置との距離よりも遠くなっている。したがって、音源SFRは、音源SFLよりも後方寄りに知覚されることになる。そこで、定位付加部42は、Cチャンネルの音声ビームとFRチャンネルの音声ビームとの間に設定する。この例では、定位付加部42は、仮想音源VSFRの方向を、FLチャンネルの音声ビームの到達方向に対して左右対称(聴取位置を中心軸として左右対称)となる方向に設定する。この設定は、聴者がユーザI/F36を用いて手動で設定してもよいが、例えば以下の様に自動設定することも可能である。   However, in the example of FIG. 8A, the distance between the right front wall and the listening position is longer than the distance between the left front wall and the listening position. Therefore, the sound source SFR is perceived closer to the rear than the sound source SFL. Therefore, the localization adding unit 42 is set between the C channel sound beam and the FR channel sound beam. In this example, the localization adding unit 42 sets the direction of the virtual sound source VSFR to be symmetrical with respect to the arrival direction of the sound beam of the FL channel (symmetric with respect to the listening position as the central axis). This setting may be set manually by the listener using the user I / F 36, but can be automatically set as follows, for example.

制御部35は、図8(B)に示すように、Cチャンネルに設定したピークの角度θa3を挟んで両側の領域に存在するピークの対称性について判定する。   As shown in FIG. 8B, the control unit 35 determines the symmetry of the peaks existing in the regions on both sides across the peak angle θa3 set for the C channel.

制御部35は、例えば、許容誤差を±10度として、−10度≦θa2+θa4≦10度であればSLチャンネルとSRチャンネルの音声ビームの到達方向が左右対称であると判定する。同様に、制御部35は、−10度≦θa1+θa5≦10度であればFLチャンネルとFRチャンネルの音声ビームの到達方向が左右対称であると判定する。   For example, if the allowable error is ± 10 degrees and the control section 35 is −10 degrees ≦ θa2 + θa4 ≦ 10 degrees, the arrival directions of the sound beams of the SL channel and the SR channel are determined to be symmetrical. Similarly, the control unit 35 determines that the arrival directions of the audio beams of the FL channel and the FR channel are symmetrical if −10 degrees ≦ θa1 + θa5 ≦ 10 degrees.

図8(B)では、θa1+θa5の値が許容誤差を超えている例を示している。したがって、制御部35は、定位付加部42に対して、仮想音源の方向を、2本の音声ビーム(Cチャンネルの音声ビームとFRチャンネルの音声ビーム)の到達方向の間に設定するように指示する。仮想音源の方向は、理想的な到達方向(例えば聴取位置から見て左右約30度)に近い側の音声ビームと対称となるように設定することが好ましい。   FIG. 8B shows an example in which the value of θa1 + θa5 exceeds the allowable error. Therefore, the control unit 35 instructs the localization adding unit 42 to set the direction of the virtual sound source between the arrival directions of the two sound beams (the C channel sound beam and the FR channel sound beam). To do. The direction of the virtual sound source is preferably set so as to be symmetric with the sound beam on the side close to the ideal arrival direction (for example, about 30 degrees left and right as viewed from the listening position).

図8(B)の例では、中心軸(ここではθa3=0度)を挟んでθa1と対称となるθa5’に仮想音源VSFRの方向を設定する。他のチャンネルは、上記音源SFL,SC,SSL,およびSSRの位置と略同じ位置に仮想音源の位置が設定される。したがって、聴者は、仮想音源VSC,VSFL,VSSL,およびVSSRを音源SC,SFL,SSL,およびSSRの位置と略同じ位置に知覚する。   In the example of FIG. 8B, the direction of the virtual sound source VSFR is set to θa5 ′ that is symmetrical to θa1 across the central axis (here, θa3 = 0 degree). In the other channels, the positions of the virtual sound sources are set at substantially the same positions as the positions of the sound sources SFL, SC, SSL, and SSR. Therefore, the listener perceives the virtual sound sources VSC, VSFL, VSSL, and VSSR at substantially the same positions as the positions of the sound sources SC, SFL, SSL, and SSR.

これにより、アレイスピーカ装置2は、音声ビームによる定位感を用いながらも、壁の音響反射率等の聴取環境に依存しない頭部伝達関数による仮想音源によって、意図する方向に明瞭に音源を定位させることができる。また、図8(A)および図8(B)の例では、聴取位置から見て左右対称の方向に音源が定位するため、より理想的な聴取態様となる。   As a result, the array speaker device 2 clearly locates the sound source in the intended direction using the virtual sound source based on the head-related transfer function that does not depend on the listening environment such as the acoustic reflectance of the wall, while using the sense of localization by the sound beam. be able to. Further, in the examples of FIGS. 8A and 8B, since the sound source is localized in a bilaterally symmetric direction when viewed from the listening position, a more ideal listening mode is obtained.

次に、図9(A)は、SRチャンネルがSLチャンネルよりも前方寄りに到達する場合の例を示す図である。この場合、右側の壁と聴取位置との距離が左側の壁と聴取位置との距離よりも遠くなっている。サラウンドチャンネルは、2回反射であるため、右側の壁面が遠い場合、音源SSRは、音源SSLよりも前方寄りに知覚されることになる。上述と同様に、制御部35は、例えば、許容誤差を±10度として、−10度≦θa2+θa4≦10度であるか否かを判断する。図9(B)では、θa2+θa4の値が許容誤差を超えている例を示している。したがって、制御部35は、定位付加部42に対して、仮想音源の方向を、2本の音声ビームの到達方向の間に設定するように指示する。   Next, FIG. 9A is a diagram illustrating an example in the case where the SR channel reaches further forward than the SL channel. In this case, the distance between the right wall and the listening position is longer than the distance between the left wall and the listening position. Since the surround channel is reflected twice, the sound source SSR is perceived closer to the front than the sound source SSL when the right wall surface is far. Similarly to the above, the control unit 35 determines whether or not −10 degrees ≦ θa2 + θa4 ≦ 10 degrees, for example, with an allowable error of ± 10 degrees. FIG. 9B shows an example in which the value of θa2 + θa4 exceeds the allowable error. Therefore, the control unit 35 instructs the localization adding unit 42 to set the direction of the virtual sound source between the arrival directions of the two sound beams.

ここでも、仮想音源の方向は、理想的な到達方向(例えば聴取位置から見て左右約110度)に近い側の音声ビームと対称となるように設定することが好ましい。サラウンドチャンネルは、フロントチャンネルに比べて前方左右方向寄りに理想的な到達方向が存在するため、中心軸との角度差が大きいピーク(左右寄りに到達する音声ビーム)側に仮想音源の方向を設定する。図9(B)の例では、中心軸(ここではθa3と)を挟んでθa4と対称となるθa2’に仮想音源VSSLの方向を設定する。他のチャンネルは、上記音源SFL,SFR,SC,およびSSRの位置と略同じ位置に仮想音源の位置が設定される。したがって、聴者は、仮想音源VSC,VSFR,VSSL,およびVSSRを音源SC,SFR,SSL,およびSSRの位置と略同じ位置に知覚する。   Also in this case, the direction of the virtual sound source is preferably set so as to be symmetric with the sound beam on the side close to the ideal arrival direction (for example, about 110 degrees left and right as viewed from the listening position). The surround channel has an ideal arrival direction closer to the front left / right direction than the front channel, so the direction of the virtual sound source is set to the peak (audio beam reaching the left / right side) with a large angle difference from the central axis. To do. In the example of FIG. 9B, the direction of the virtual sound source VSSL is set to θa2 ′ that is symmetrical to θa4 across the central axis (here, θa3). In other channels, the positions of the virtual sound sources are set at substantially the same positions as the positions of the sound sources SFL, SFR, SC, and SSR. Therefore, the listener perceives the virtual sound sources VSC, VSFR, VSSL, and VSSR at substantially the same positions as the positions of the sound sources SC, SFR, SSL, and SSR.

これにより、サラウンドチャンネルについても、聴取位置から見て左右対称の方向に音源が定位するため、より理想的な聴取態様となる。   As a result, the sound source is localized in a bilaterally symmetric direction as viewed from the listening position for the surround channel, which is a more ideal listening mode.

特に、音源SSLおよび音源SSRは、音声ビームが壁に2度反射することにより生成されるため、フロント側のチャンネルに比べて明瞭な定位感が得られない場合がある。しかし、アレイスピーカ装置2は、ウーファ33Lおよびウーファ33Rにより聴者の耳に直接届く音で生成される仮想音源VSSLおよび仮想音源VSSRで定位感を補うことができ、より理想的な方向に明瞭に音源を定位させることができる。   In particular, since the sound source SSL and the sound source SSR are generated by reflecting the sound beam twice on the wall, there may be a case where a clear localization feeling cannot be obtained as compared with the channel on the front side. However, the array speaker device 2 can supplement the sense of localization with the virtual sound source VSSL and the virtual sound source VSSR generated by the sound that directly reaches the ears of the listener by the woofer 33L and the woofer 33R, and the sound source can be clearly heard in a more ideal direction. Can be localized.

次に、図10は、ファントム音源を併用する場合のアレイスピーカ装置2Aの構成を示すブロック図である。図2のアレイスピーカ装置2と共通する構成については、同一の符号を付し、説明を省略する。   Next, FIG. 10 is a block diagram showing a configuration of the array speaker device 2A when the phantom sound source is used together. The components common to the array speaker device 2 in FIG. 2 are denoted by the same reference numerals and description thereof is omitted.

アレイスピーカ装置2Aは、ファントム処理部90を備えた点でアレイスピーカ装置2と異なる。ファントム処理部90は、フィルタ処理部14から入力したオーディオ信号のうち、各チャンネルのオーディオ信号を、自身のチャンネルおよび他チャンネルに分配することにより、特定のチャンネルをファントム定位させる(ファントム音源を生成する)ものである。   The array speaker device 2A differs from the array speaker device 2 in that a phantom processing unit 90 is provided. The phantom processing unit 90 distributes the audio signal of each channel among the audio signals input from the filter processing unit 14 to its own channel and other channels, thereby localizing a specific channel (generating a phantom sound source). )

図11(A)は、ファントム処理部90の構成を示すブロック図である。図11(B)は、指定角度とゲイン比率との対応付けテーブルを示す図である。図11(C)は、指定角度とフィルタ係数(定位付加部42が付与する頭部伝達関数)との対応付けテーブルを示す図である。ファントム処理部90は、ゲイン調整部95FL、ゲイン調整部96FL、ゲイン調整部95FR、ゲイン調整部96FR、ゲイン調整部95SL、ゲイン調整部96SL、ゲイン調整部95SR、ゲイン調整部96SR、加算部900、加算部901、および加算部902を備えている。   FIG. 11A is a block diagram illustrating a configuration of the phantom processing unit 90. FIG. 11B is a diagram showing a correspondence table between designated angles and gain ratios. FIG. 11C is a diagram showing a correspondence table between designated angles and filter coefficients (head-related transfer functions provided by the localization adding unit 42). The phantom processing unit 90 includes a gain adjusting unit 95FL, a gain adjusting unit 96FL, a gain adjusting unit 95FR, a gain adjusting unit 96FR, a gain adjusting unit 95SL, a gain adjusting unit 96SL, a gain adjusting unit 95SR, a gain adjusting unit 96SR, an adding unit 900, An adder 901 and an adder 902 are provided.

ゲイン調整部95FLおよびゲイン調整部96FLには、FLチャンネルのオーディオ信号が入力される。ゲイン調整部95FRおよびゲイン調整部96FRには、FRチャンネルのオーディオ信号が入力される。ゲイン調整部95SLおよびゲイン調整部96SLには、SLチャンネルのオーディオ信号が入力される。ゲイン調整部95SRおよびゲイン調整部96SRには、SRチャンネルのオーディオ信号が入力される。   An audio signal of the FL channel is input to the gain adjustment unit 95FL and the gain adjustment unit 96FL. The FR channel audio signal is input to the gain adjustment unit 95FR and the gain adjustment unit 96FR. The SL channel audio signal is input to the gain adjustment unit 95SL and the gain adjustment unit 96SL. The SR channel audio signal is input to gain adjustment unit 95SR and gain adjustment unit 96SR.

FLチャンネルのオーディオ信号は、ゲイン調整部95FLおよびゲイン調整部96FLでゲイン比率が調整され、それぞれ加算部901および加算部900に入力される。FRチャンネルのオーディオ信号は、ゲイン調整部95FRおよびゲイン調整部96FRでゲイン比率が調整され、それぞれ加算部902および加算部900に入力される。SLチャンネルのオーディオ信号は、ゲイン調整部95SLおよびゲイン調整部96SLでゲイン比率が調整され、それぞれビーム化処理部20および加算部901に入力される。SRチャンネルのオーディオ信号は、ゲイン調整部95SRおよびゲイン調整部96SRでゲイン比率が調整され、それぞれビーム化処理部20および加算部902に入力される。   The gain ratio of the FL channel audio signal is adjusted by the gain adjusting unit 95FL and the gain adjusting unit 96FL, and then input to the adding unit 901 and the adding unit 900, respectively. The gain ratio of the audio signal of the FR channel is adjusted by the gain adjusting unit 95FR and the gain adjusting unit 96FR and input to the adding unit 902 and the adding unit 900, respectively. The gain ratio of the SL channel audio signal is adjusted by the gain adjusting unit 95SL and the gain adjusting unit 96SL, and the signals are input to the beam forming processing unit 20 and the adding unit 901, respectively. The gain ratio of the SR channel audio signal is adjusted by the gain adjustment unit 95SR and the gain adjustment unit 96SR, and is input to the beam forming processing unit 20 and the addition unit 902, respectively.

各ゲイン調整部のゲインは、制御部35により設定される。制御部35は、図11(B)に示すように、メモリ(不図示)に記憶されている対応付けテーブルを読み出し、指定された角度に対応付けられているゲイン比率を読み出す。この例では、制御部35は、聴取位置の右前方から到達するFRチャンネルの音声ビームと、聴取位置の前方から到達するCチャンネルの音声ビームと、のゲイン比率を制御することで、FRチャンネルのファントム音源の方向を制御する。   The gain of each gain adjustment unit is set by the control unit 35. As shown in FIG. 11B, the control unit 35 reads the association table stored in the memory (not shown), and reads the gain ratio associated with the designated angle. In this example, the control unit 35 controls the gain ratio between the sound beam of the FR channel arriving from the front right of the listening position and the sound beam of the C channel arriving from the front of the listening position. Control the direction of the phantom sound source.

図12を参照して、ファントム音源と仮想音源を併用する例について説明する。この例では、FRチャンネルの音声ビームの到達方向θa5が80度(聴取位置から見て右80度)であった場合において、指定角度が40度(聴取位置から見て右40度)の方向にFRチャンネルのファントム音源を定位させる場合を説明する。   An example in which a phantom sound source and a virtual sound source are used together will be described with reference to FIG. In this example, when the arrival direction θa5 of the sound beam of the FR channel is 80 degrees (80 degrees to the right when viewed from the listening position), the designated angle is in the direction of 40 degrees (40 degrees to the right when viewed from the listening position). A case where the FR channel phantom sound source is localized will be described.

制御部35は、指定角度が40度であり、FRチャンネルの音声ビームの到達方向θa5(FR角度)が80度、Cチャンネルの音声ビームの到達方向θa3(C角度)が0度であるため、ゲイン比率100*(40/80)=50に対応するゲイン調整部95FRおよびゲイン調整部96FRのゲインを読み出す。この場合、制御部35は、ゲイン調整部95FRのゲインを0.5、ゲイン調整部96FRのゲインを0.5に設定する。これにより、図12に示すように、FRチャンネルの音声ビームと、聴取位置の前方から到達するCチャンネルの音声ビームと、の間の右40度の方向にファントム音源を定位させることができる。なお、ここでは、ゲイン調整部95FRのゲイン(0.5)+ゲイン調整部96FRのゲイン(0.5)=1.0となるように(ゲインが一定となるように)ゲイン比率を設定する例を示したが、パワーが一定になるようにゲインを設定してもよい。この例では、ゲイン調整部95FRのゲインおよびゲイン調整部96FRのゲインは−3dB(約0.707)となる。   The control unit 35 has a designated angle of 40 degrees, an FR channel audio beam arrival direction θa5 (FR angle) of 80 degrees, and a C channel audio beam arrival direction θa3 (C angle) of 0 degrees. The gains of the gain adjustment unit 95FR and the gain adjustment unit 96FR corresponding to the gain ratio 100 * (40/80) = 50 are read out. In this case, the control unit 35 sets the gain of the gain adjustment unit 95FR to 0.5 and the gain of the gain adjustment unit 96FR to 0.5. As a result, as shown in FIG. 12, the phantom sound source can be localized in the direction of 40 degrees to the right between the FR channel audio beam and the C channel audio beam reaching from the front of the listening position. Here, the gain ratio is set so that the gain (0.5) of the gain adjusting unit 95FR + the gain (0.5) of the gain adjusting unit 96FR = 1.0 (so that the gain is constant). Although an example is shown, the gain may be set so that the power is constant. In this example, the gain of the gain adjustment unit 95FR and the gain of the gain adjustment unit 96FR are −3 dB (about 0.707).

そして、制御部35は、指定角度である40度の方向に仮想音源が定位するフィルタ係数を図11(C)に示すテーブルから読み出し、定位付加部42に設定する。これにより、ファントム音源SFRと同じ方向に仮想音源VSFRが定位する。   Then, the control unit 35 reads out from the table shown in FIG. 11C the filter coefficient at which the virtual sound source is localized in the direction of the designated angle of 40 degrees, and sets it in the localization adding unit 42. Thereby, the virtual sound source VSFR is localized in the same direction as the phantom sound source SFR.

なお、指定角度は、聴者がユーザI/F36を介して手動で入力することも可能であるが、上述したテスト音声ビームの測定結果を用いて自動設定することも可能である。例えば、FLチャンネルの音声ビームの到達方向θa1が−60度(聴取位置から見て左60度)であり、FLチャンネルの音声ビームの到達方向と対称の方向にFRチャンネルのファントム音源を定位させる場合、指定角度が右60度となる。この場合、FR角度が80度、C角度が0度であれば、ゲイン比率100*(60/80)=75に対応するゲイン調整部95FRおよびゲイン調整部96FRのゲインを読み出す。したがって、制御部35は、ゲイン調整部95FRのゲインを0.75、ゲイン調整部96FRのゲインを0.25に設定する。   The designated angle can be manually input by the listener via the user I / F 36, but can also be automatically set using the measurement result of the test sound beam described above. For example, the arrival direction θa1 of the FL channel audio beam is −60 degrees (60 degrees to the left when viewed from the listening position), and the FR channel phantom sound source is localized in a direction symmetrical to the arrival direction of the FL channel audio beam. The specified angle is 60 degrees to the right. In this case, if the FR angle is 80 degrees and the C angle is 0 degrees, the gains of the gain adjustment unit 95FR and the gain adjustment unit 96FR corresponding to the gain ratio 100 * (60/80) = 75 are read. Therefore, the control unit 35 sets the gain of the gain adjustment unit 95FR to 0.75 and the gain of the gain adjustment unit 96FR to 0.25.

このようにして、アレイスピーカ装置2Aは、音声ビームによるファントム音源の定位感を壁の音響反射率等の聴取環境に依存しない頭部伝達関数による仮想音源によって補い、より明瞭にファントム音源を定位させることができる。   In this way, the array speaker device 2A supplements the sense of localization of the phantom sound source by the sound beam with the virtual sound source by the head related transfer function that does not depend on the listening environment such as the acoustic reflectivity of the wall, and more clearly localizes the phantom sound source. be able to.

特に、サラウンドチャンネルは、音声ビーム同士(例えばFLチャンネルの音声ビームおよびSLチャンネルの音声ビーム)を用いてファントム音源を定位させるため、フロント側のチャンネルをファントム音源として定位させる場合に比べて明瞭な定位感が得られない場合がある。しかし、アレイスピーカ装置2Aは、ウーファ33Lおよびウーファ33Rにより聴者の耳に直接届く音で生成される仮想音源VSSLおよび仮想音源VSSRで定位感を補うことができ、より明瞭にファントム音源を定位させることができる。   In particular, since the surround channel uses the sound beams (for example, FL channel sound beam and SL channel sound beam) to localize the phantom sound source, the localization is clearer than when the front channel is localized as the phantom sound source. A feeling may not be obtained. However, the array speaker device 2A can supplement the sense of localization with the virtual sound source VSSL and the virtual sound source VSSR that are generated by the sound directly reaching the ears of the listener by the woofer 33L and the woofer 33R, and can localize the phantom sound source more clearly. Can do.

なお、アレイスピーカ装置2Aは、さらに多数チャンネルのオーディオ信号を、少ない音声ビームで定位させる場合に好適である。図13は、7.1チャンネルのオーディオ信号を5本の音声ビームで定位させる例を示す図である。7.1チャンネルサラウンドは、5.1チャンネルサラウンド(C、FL、FR、SL、SR、LFE)に加えて、聴者の後方から再生させる2チャンネル(SBL、SBR)が含まれている。この例では、アレイスピーカ装置2Aは、SBLチャンネルを部屋Rの左後方の壁の位置に焦点を結ぶ音声ビームに設定し、SBRチャンネルを部屋Rの右左後方の壁の位置に焦点を結ぶ音声ビームに設定する。   The array speaker device 2A is suitable for a case where an audio signal of a larger number of channels is localized with a smaller number of sound beams. FIG. 13 is a diagram showing an example in which a 7.1-channel audio signal is localized using five sound beams. In addition to 5.1 channel surround (C, FL, FR, SL, SR, LFE), 7.1 channel surround includes 2 channels (SBL, SBR) to be played from behind the listener. In this example, the array speaker device 2A sets the SBL channel to an audio beam that focuses on the left rear wall position of the room R, and the audio beam that focuses the SBR channel on the right left rear wall position of the room R. Set to.

また、アレイスピーカ装置2Aは、SBLチャンネルおよびFLチャンネルの音声ビームを用いて、その間の位置(聴取位置の左−90度)にSLチャンネルのファントム音源SSLを設定する。同様に、SBRチャンネルおよびFRチャンネルの音声ビームを用いて、その間の位置(聴取位置の右90度)にSRチャンネルのファントム音源SSRを設定する。   Further, the array speaker apparatus 2A uses the SBL channel and FL channel sound beams to set the SL channel phantom sound source SSL at a position between them (−90 degrees to the left of the listening position). Similarly, the phantom sound source SSR of the SR channel is set at a position between the sound beams of the SBR channel and the FR channel (90 degrees to the right of the listening position) between them.

そして、アレイスピーカ装置2Aは、ファントム音源SSLの位置に仮想音源VSSLを設定し、ファントム音源SSRの位置に仮想音源VSSRを設定する。   Then, the array speaker device 2A sets the virtual sound source VSSL at the position of the phantom sound source SSL and sets the virtual sound source VSSR at the position of the phantom sound source SSR.

このように、少ない音声ビームで多数のチャンネルを定位させる場合でも、アレイスピーカ装置2Aは、ウーファ33Lおよびウーファ33Rにより聴者の耳に直接届く音で生成される仮想音源で定位感を補うことができ、より明瞭に多数のチャンネルを定位させることができる。   Thus, even when a large number of channels are localized with a small number of sound beams, the array speaker device 2A can supplement the sense of localization with a virtual sound source generated by sound that reaches the listener's ear directly by the woofer 33L and the woofer 33R. A large number of channels can be localized more clearly.

次に、図14(A)は、変形例に係るアレイスピーカ装置2Bを示す図である。アレイスピーカ装置2と重複する構成の説明は省略する。   Next, FIG. 14A is a diagram showing an array speaker device 2B according to a modification. A description of the same configuration as that of the array speaker device 2 is omitted.

アレイスピーカ装置2Bは、ウーファ33Lおよびウーファ33Rから出力する音をそれぞれスピーカユニット21Aおよびスピーカユニット21Pから出力する点において、アレイスピーカ装置2と相違する。   Array speaker device 2B differs from array speaker device 2 in that sounds output from woofer 33L and woofer 33R are output from speaker unit 21A and speaker unit 21P, respectively.

アレイスピーカ装置2Bは、仮想音源を知覚させる音をスピーカユニット21A〜21Pのうち、両端のスピーカユニット21Aおよびスピーカユニット21Pから出力する。   The array speaker device 2B outputs sound that makes a virtual sound source perceived from the speaker units 21A and 21P at both ends of the speaker units 21A to 21P.

スピーカユニット21Aおよびスピーカユニット21Pは、アレイスピーカにおける最も端部に配置されたスピーカユニットであり、聴者から見てそれぞれ最も左側および右側に配置されている。したがって、スピーカユニット21Aおよびスピーカユニット21Pは、それぞれLチャンネルおよびRチャンネルの音を出力する場合に好適であり、仮想音源を知覚させる音を出力するスピーカユニットとして好適である。   The speaker unit 21 </ b> A and the speaker unit 21 </ b> P are the speaker units arranged at the extreme ends of the array speaker, and are arranged on the left and right sides as viewed from the listener. Therefore, the speaker unit 21A and the speaker unit 21P are suitable for outputting the sound of the L channel and the R channel, respectively, and are suitable as the speaker unit for outputting the sound that makes the virtual sound source perceived.

また、アレイスピーカ装置2は、一つの筐体にスピーカユニット21A〜21P、ウーファ33Lおよびウーファ33Rを全て備える必要はない。例えば、図14(B)に示すスピーカセット2Cのように、各スピーカユニットを個別の筐体に設けて、各筐体を並べて配置する態様であってもよい。   Further, the array speaker device 2 does not have to include all the speaker units 21A to 21P, the woofer 33L, and the woofer 33R in one housing. For example, as in a speaker set 2C shown in FIG. 14B, each speaker unit may be provided in an individual casing, and the casings may be arranged side by side.

1…AVシステム
2…アレイスピーカ装置
2A…アレイスピーカ装置
2A…スピーカ装置
3…サブウーファ
4…テレビ
7…マイク
10…デコーダ
11…入力部
14,15…フィルタ処理部
20…ビーム化処理部
32…加算処理部
33L,33R…ウーファ
35…制御部
36…ユーザI/F
40…バーチャル処理部
DESCRIPTION OF SYMBOLS 1 ... AV system 2 ... Array speaker apparatus 2A ... Array speaker apparatus 2A ... Speaker apparatus 3 ... Subwoofer 4 ... Television 7 ... Microphone 10 ... Decoder 11 ... Input part 14, 15 ... Filter processing part 20 ... Beam processing part 32 ... Addition Processing unit 33L, 33R ... Woofer 35 ... Control unit 36 ... User I / F
40 ... Virtual processing section

Claims (4)

複数チャンネルのオーディオ信号が入力される入力部と、
複数のスピーカと、
前記入力部に入力された複数チャンネルのオーディオ信号をそれぞれ遅延して前記複数のスピーカに分配することにより、前記複数のスピーカに音声ビームを出力させる指向性制御部と、
前記入力部に入力された複数チャンネルのオーディオ信号にそれぞれ頭部伝達関数に基づくフィルタ処理を行って前記複数のスピーカに入力する定位付加部と、
を備えたスピーカ装置であって、
前記定位付加部は、聴取位置から見て、複数の音声ビームの到達方向の間に、前記頭部伝達関数に基づく仮想音源の方向を設定することを特徴とするスピーカ装置。
An input unit for inputting multi-channel audio signals;
Multiple speakers,
A directivity control unit that outputs audio beams to the plurality of speakers by delaying and distributing the plurality of channels of audio signals input to the input unit to the plurality of speakers;
A localization adding unit that performs filtering processing based on a head-related transfer function to audio signals of a plurality of channels input to the input unit and inputs the audio signals to the plurality of speakers;
A speaker device comprising:
The speaker apparatus, wherein the localization adding unit sets a direction of a virtual sound source based on the head-related transfer function between arrival directions of a plurality of sound beams as viewed from a listening position.
同一チャンネルのオーディオ信号を複数の音声ビームに出力させ、ファントム音源を定位させるファントム処理部と、
前記定位付加部は、前記ファントム音源の定位方向に対応する方向に、前記頭部伝達関数に基づく仮想音源の方向を設定することを特徴とする請求項1に記載のスピーカ装置。
A phantom processing unit that outputs audio signals of the same channel to a plurality of sound beams and localizes the phantom sound source;
The speaker device according to claim 1, wherein the localization adding unit sets the direction of the virtual sound source based on the head-related transfer function in a direction corresponding to the localization direction of the phantom sound source.
前記定位付加部は、前記音声ビームのうち、少なくとも1つの到達方向に対し、前記聴取位置を中心軸として左右対称となる方向に、前記頭部伝達関数に基づく仮想音源の方向を設定することを特徴とする請求項1または請求項2に記載のスピーカ装置。   The localization adding unit sets the direction of the virtual sound source based on the head-related transfer function in a direction that is symmetrical with respect to the listening position as a central axis with respect to at least one arrival direction of the sound beam. The speaker device according to claim 1, wherein the speaker device is characterized. 聴取位置に設置されるマイクと、
前記指向性制御部にテスト信号を入力して前記複数のスピーカにテスト音声ビームを出力させ、当該テスト音声ビームが前記マイクに入力されるレベルを測定する検出手段と、
前記検出手段が測定したレベルのピークに基づいて音声ビームの出力角度を設定するビーム角度設定手段と、をさらに備え、
前記定位付加部は、前記検出手段が測定したレベルのピークに基づいて前記頭部伝達関数に基づく仮想音源の方向を設定することを特徴とする請求項1乃至請求項3のいずれかに記載のスピーカ装置。
A microphone installed at the listening position;
Detecting means for inputting a test signal to the directivity control unit to output a test sound beam to the plurality of speakers, and measuring a level at which the test sound beam is input to the microphone;
Beam angle setting means for setting the output angle of the sound beam based on the level peak measured by the detection means,
The said localization addition part sets the direction of the virtual sound source based on the said head-related transfer function based on the peak of the level which the said detection means measured, The Claim 1 thru | or 3 characterized by the above-mentioned. Speaker device.
JP2013269163A 2013-08-19 2013-12-26 Speaker device Active JP6287191B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013269163A JP6287191B2 (en) 2013-12-26 2013-12-26 Speaker device
EP14838464.7A EP3038385B1 (en) 2013-08-19 2014-08-19 Speaker device and audio signal processing method
US14/428,227 US9674609B2 (en) 2013-08-19 2014-08-19 Speaker device and audio signal processing method
CN201480002397.6A CN104641659B (en) 2013-08-19 2014-08-19 Loudspeaker apparatus and acoustic signal processing method
PCT/JP2014/071686 WO2015025858A1 (en) 2013-08-19 2014-08-19 Speaker device and audio signal processing method
US15/472,591 US10038963B2 (en) 2013-08-19 2017-03-29 Speaker device and audio signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013269163A JP6287191B2 (en) 2013-12-26 2013-12-26 Speaker device

Publications (2)

Publication Number Publication Date
JP2015126359A JP2015126359A (en) 2015-07-06
JP6287191B2 true JP6287191B2 (en) 2018-03-07

Family

ID=53536786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013269163A Active JP6287191B2 (en) 2013-08-19 2013-12-26 Speaker device

Country Status (1)

Country Link
JP (1) JP6287191B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212548A (en) * 2016-05-24 2017-11-30 日本放送協会 Audio signal processing device, audio signal processing method and program
KR20210151792A (en) * 2019-04-11 2021-12-14 소니그룹주식회사 Information processing apparatus and method, reproduction apparatus and method, and program
CN114501295B (en) * 2020-10-26 2022-11-15 深圳Tcl数字技术有限公司 Audio data processing method, device, terminal and computer readable storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4501559B2 (en) * 2004-07-07 2010-07-14 ヤマハ株式会社 Directivity control method of speaker device and audio reproducing device
JP4120663B2 (en) * 2005-06-06 2008-07-16 ヤマハ株式会社 Speaker array device and audio beam setting method for speaker array device
JP2007266967A (en) * 2006-03-28 2007-10-11 Yamaha Corp Sound image localizer and multichannel audio reproduction device
EP2005414B1 (en) * 2006-03-31 2012-02-22 Koninklijke Philips Electronics N.V. A device for and a method of processing data
JP4175420B2 (en) * 2006-11-27 2008-11-05 ヤマハ株式会社 Speaker array device
JP4449998B2 (en) * 2007-03-12 2010-04-14 ヤマハ株式会社 Array speaker device
JP4561785B2 (en) * 2007-07-03 2010-10-13 ヤマハ株式会社 Speaker array device
JP5332243B2 (en) * 2008-03-11 2013-11-06 ヤマハ株式会社 Sound emission system
JP2012235456A (en) * 2012-04-20 2012-11-29 Pioneer Electronic Corp Voice signal processing device, and voice signal processing program

Also Published As

Publication number Publication date
JP2015126359A (en) 2015-07-06

Similar Documents

Publication Publication Date Title
US10038963B2 (en) Speaker device and audio signal processing method
US9560450B2 (en) Speaker array apparatus
US8428268B2 (en) Array speaker apparatus
JP4779381B2 (en) Array speaker device
JP4127156B2 (en) Audio playback device, line array speaker unit, and audio playback method
US20070110268A1 (en) Array speaker apparatus
JP6414459B2 (en) Speaker array device
JP6824192B2 (en) Acoustic system
JP2005223713A (en) Apparatus and method for acoustic reproduction
US10075803B2 (en) Speaker device
JP5776597B2 (en) Sound signal processing device
JP6287203B2 (en) Speaker device
WO2015025858A1 (en) Speaker device and audio signal processing method
JP6287191B2 (en) Speaker device
JP2005287002A (en) Stereophonic acoustic reproducing system and stereophonic acoustic reproducing apparatus
US20140219458A1 (en) Audio signal reproduction device and audio signal reproduction method
JP6405628B2 (en) Speaker device
JP6287202B2 (en) Speaker device
US10313794B2 (en) Speaker system
JP6458340B2 (en) Speaker device
EP3035706B1 (en) Signal processor and signal processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6287191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151