JP2015126527A - Loudspeaker device - Google Patents

Loudspeaker device Download PDF

Info

Publication number
JP2015126527A
JP2015126527A JP2013272351A JP2013272351A JP2015126527A JP 2015126527 A JP2015126527 A JP 2015126527A JP 2013272351 A JP2013272351 A JP 2013272351A JP 2013272351 A JP2013272351 A JP 2013272351A JP 2015126527 A JP2015126527 A JP 2015126527A
Authority
JP
Japan
Prior art keywords
unit
audio signal
sound
band
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013272351A
Other languages
Japanese (ja)
Other versions
JP6458340B2 (en
Inventor
啓一 今岡
Keiichi Imaoka
啓一 今岡
真樹 片山
Maki Katayama
真樹 片山
進 澤米
Susumu Sawagome
進 澤米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013272351A priority Critical patent/JP6458340B2/en
Publication of JP2015126527A publication Critical patent/JP2015126527A/en
Application granted granted Critical
Publication of JP6458340B2 publication Critical patent/JP6458340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a loudspeaker device capable of clearly localizing a sound source while suppressing the variation of sound quality using a sound having directivity and localization by a virtual sound source.SOLUTION: An audio signal subjected to filtering by a head-related transfer function in a virtual processing part 40 is inputted to a woofer 33L and a woofer 33R. A bandwidth processing part 45 inputs only a bandwidth equal to or more than a frequency F1 (for example, 400 Hz) to the virtual processing part 40. Thereby, the variation of sound quality can be suppressed. A frequency bandwidth contributing to a sense of localization in the head-related transfer function is mainly about several hundred kHz, and the sense of localization is almost maintained even when a signal of less than several hundreds Hz is not inputted. Accordingly, an array loudspeaker device 2 can compensate a sense of localization by a sound beam at a sense of localization by a virtual sound source and clearly localizes a sound source while suppressing the variation of sound quality.

Description

本発明は、音源を定位させる音を出力するスピーカ装置に関する。   The present invention relates to a speaker device that outputs sound for localizing a sound source.

従来、オーディオ信号をそれぞれ遅延させて複数のスピーカユニットに分配することで指向性を有する音声ビームを出力するアレイスピーカ装置が知られている(特許文献1を参照)。   2. Description of the Related Art Conventionally, there is known an array speaker device that outputs a sound beam having directivity by delaying an audio signal and distributing it to a plurality of speaker units (see Patent Document 1).

特許文献1のアレイスピーカ装置は、各チャンネルの音声ビームを壁に反射させて聴者の周囲から到達させることで、壁面等に実音源を定位させるものである。   The array speaker device disclosed in Patent Document 1 localizes an actual sound source on a wall surface or the like by reflecting the sound beam of each channel to a wall and reaching it from around the listener.

また、特許文献1のアレイスピーカ装置は、部屋の形状等によって音声ビームを到達させることができないチャンネルについて、頭部伝達関数に基づくフィルタ処理を行うことにより、仮想音源を定位させる処理を行っている。   Further, the array speaker device of Patent Document 1 performs a process of localizing a virtual sound source by performing a filter process based on a head-related transfer function for a channel that cannot reach an audio beam due to the shape of a room or the like. .

特開2008−227803JP2008-227803

仮想音源は、音声ビーム等の実音源に比べると距離感が得られない。また、仮想音源による定位では、聴取位置が規定の位置からずれると定位感が弱くなるため、定位感の得られる領域が狭い。また、頭部伝達関数は、モデルとなる頭部の形状に基づいて設定されているため、定位感に個人差がある。また、頭部伝達関数に基づくフィルタ処理は、元のオーディオ信号の特性を変化させるため、音質の変化がある。   A virtual sound source cannot provide a sense of distance compared to a real sound source such as an audio beam. Further, in the localization using the virtual sound source, if the listening position deviates from the specified position, the localization feeling becomes weak, so that the region where the localization feeling can be obtained is narrow. Further, since the head-related transfer function is set based on the shape of the model head, there is an individual difference in the sense of localization. Further, the filtering process based on the head-related transfer function changes the quality of the original audio signal, so that there is a change in sound quality.

そこで、本発明は、実音源および仮想音源による定位を用いて、音質の変化を抑えながら音源を明瞭に定位させることができるスピーカ装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a speaker device that can clearly localize a sound source while suppressing a change in sound quality by using localization based on a real sound source and a virtual sound source.

本発明のスピーカ装置は、入力されたオーディオ信号に基づく音を出力する第1放音部と、入力されたオーディオ信号に頭部伝達関数に基づくフィルタ処理を行う定位付加部と、前記定位付加部でフィルタ処理されたオーディオ信号に基づく音を出力する第2放音部と、前記定位付加部に入力されるオーディオ信号の周波数帯域を制限する帯域処理部と、を備えたことを特徴とする。   The speaker device of the present invention includes a first sound emitting unit that outputs a sound based on an input audio signal, a localization adding unit that performs a filtering process on the input audio signal based on a head-related transfer function, and the localization adding unit. And a second sound emitting unit that outputs a sound based on the audio signal filtered in step B, and a band processing unit that limits a frequency band of the audio signal input to the localization adding unit.

このように、本発明のスピーカ装置は、音声ビームやサラウンドスピーカ等の実音源による定位感を仮想音源によって補う態様とする。これにより、音声ビーム等の実音源だけで定位させる場合、または仮想音源だけで定位させる場合に比べて、定位感を向上させることができる。そして、本発明のスピーカ装置は、頭部伝達関数によるフィルタ処理が行われる帯域が制限されている。頭部伝達関数に基づくフィルタ処理は、元のオーディオ信号の特性を変化させるため、音質の変化がある。したがって、全帯域で頭部伝達関数によるフィルタ処理を行うと、音質の変化が目立つことになる。しかし、本発明のアレイスピーカ装置は、頭部伝達関数によるフィルタ処理を行う帯域を制限しているため、音質の変化を抑えることができる。特に、頭部伝達関数のうち定位感に寄与する周波数帯域は、主に数kHz程度であり、数百Hz未満の信号が入力されていない場合でも、定位感はほぼ変わらない。したがって、頭部伝達関数によるフィルタ処理を行う帯域を制限することで、音質の変化を抑えながらも実音源による定位感を補うことができ、音源を明瞭に定位させることができる。   As described above, the speaker device according to the present invention has a mode in which a virtual sound source compensates the localization feeling due to a real sound source such as an audio beam or a surround speaker. Thereby, a feeling of localization can be improved as compared with a case where localization is performed using only a real sound source such as an audio beam or a case where localization is performed using only a virtual sound source. In the speaker device of the present invention, the band in which the filtering process using the head-related transfer function is performed is limited. Since the filtering process based on the head-related transfer function changes the characteristics of the original audio signal, there is a change in sound quality. Therefore, if the filtering process using the head-related transfer function is performed in the entire band, the change in sound quality becomes conspicuous. However, since the array speaker device of the present invention limits the band for performing the filter processing by the head-related transfer function, it is possible to suppress the change in sound quality. In particular, the frequency band that contributes to a sense of localization in the head-related transfer function is mainly about several kHz, and even when a signal of less than several hundred Hz is not input, the sense of localization does not change substantially. Therefore, by limiting the band for performing the filter processing by the head-related transfer function, it is possible to supplement the sense of localization by the real sound source while suppressing the change in sound quality, and to clearly localize the sound source.

また、本発明のスピーカ装置は、サブウーファをさらに備え、前記帯域処理部は、オーディオ信号を通過させる帯域の下限周波数が、前記サブウーファの上限周波数よりも高い態様とすることも可能である。サブウーファの上限周波数は、数十Hz〜200Hz程度の非常に低い周波数である。本発明のスピーカ装置は、最低でもサブウーファの上限周波数帯域(数十Hz〜200Hz程度)より高い帯域で頭部伝達関数によるフィルタ処理を行うことで、サブウーファの出力する音とフィルタ処理後の音との帯域が重複することがない。したがって、サブウーファの出力する音とフィルタ処理後の音とが干渉することを防止し、音質の変化を抑えることができる。   The speaker device of the present invention may further include a subwoofer, and the band processing unit may be configured such that a lower limit frequency of a band through which an audio signal passes is higher than an upper limit frequency of the subwoofer. The upper limit frequency of the subwoofer is a very low frequency of about several tens Hz to 200 Hz. The speaker device of the present invention performs the filtering process using the head-related transfer function in a band higher than the upper limit frequency band (about several tens of Hz to 200 Hz) of the subwoofer, so that the sound output from the subwoofer and the sound after filtering There is no overlap in bandwidth. Therefore, it is possible to prevent the sound output from the subwoofer and the filtered sound from interfering with each other, and to suppress a change in sound quality.

なお、前記第2放音部は、前記第1放音部の下限周波数よりも低い下限周波数を有するスピーカユニットからなり、該ウーファに、前記第1放音部の下限周波数よりも低いオーディオ信号が入力される態様としてもよい。すなわち、頭部伝達関数によるフィルタ処理後のオーディオ信号が入力されるスピーカユニットをウーファとして用いることで、第1放音部が出力できない低域を補強する。   The second sound emitting unit includes a speaker unit having a lower limit frequency lower than the lower limit frequency of the first sound emitting unit, and an audio signal lower than the lower limit frequency of the first sound emitting unit is provided to the woofer. It is good also as an aspect inputted. That is, the low frequency range in which the first sound emitting unit cannot be output is reinforced by using a speaker unit to which an audio signal after filtering by the head-related transfer function is input as a woofer.

また、スピーカ装置は、オーディオ信号を入力する入力部を備え、前記入力部に入力されたオーディオ信号の周波数帯域を分割し、高域側のオーディオ信号を当該第1放音部に入力し、低域側のオーディオ信号を前記第2放音部に入力する帯域分割部を備えた態様としてもよい。すなわち、指向性を有する音を出力するために不要な低周波数帯域(数百Hz未満)のオーディオ信号を第1放音部に入力しないようにしつつ、当該低周波数帯域のオーディオ信号を第2放音部側に入力する。これにより、低域側の音を補強しつつ、音源を明瞭に定位させることができる。   The speaker device includes an input unit for inputting an audio signal, divides a frequency band of the audio signal input to the input unit, inputs an audio signal on a high frequency side to the first sound emitting unit, It is good also as an aspect provided with the zone | band division | segmentation part which inputs the audio | voice signal by the side into the said 2nd sound emission part. In other words, an audio signal in a low frequency band (less than several hundred Hz) that is not necessary for outputting a sound having directivity is not input to the first sound emission unit, and the audio signal in the low frequency band is output in the second emission. Input to the sound side. As a result, the sound source can be clearly localized while reinforcing the low-frequency sound.

なお、帯域処理部は、オーディオ信号を通過させる帯域の下限周波数が、帯域分割部が分割する周波数と同一または近接していることが好ましい。   In the band processing unit, the lower limit frequency of the band through which the audio signal passes is preferably the same as or close to the frequency divided by the band dividing unit.

これにより、フィルタ処理後のオーディオ信号の周波数帯域と、元のオーディオ信号のうち分割された低周波数帯域と、は重複することがなくなる。したがって、フィルタ処理後のオーディオ信号の周波数帯域と、元のオーディオ信号のうち分割された低周波数帯域と、が互いに干渉することがなく、音質の変化を抑えることができる。   As a result, the frequency band of the audio signal after the filtering process does not overlap with the divided low frequency band of the original audio signal. Therefore, the frequency band of the filtered audio signal and the divided low frequency band of the original audio signal do not interfere with each other, and a change in sound quality can be suppressed.

なお、第1放音部は、例えば聴取位置の周囲に設置されるサラウンドスピーカにより実現することも可能であるし、複数のスピーカが配列されてなるスピーカアレイを用いて、入力されたオーディオ信号を遅延して複数のスピーカに分配することにより、音声ビームを出力させることにより実現することも可能である。   Note that the first sound emitting unit can be realized by, for example, a surround speaker installed around the listening position, and an input audio signal can be obtained using a speaker array in which a plurality of speakers are arranged. It can also be realized by outputting a sound beam by delaying and distributing to a plurality of speakers.

本発明のスピーカ装置は、実音源による定位および仮想音源による定位を用いて、音質の変化を抑えながら音源を明瞭に定位させることができる。   The speaker device of the present invention can clearly localize a sound source while suppressing a change in sound quality by using localization by a real sound source and localization by a virtual sound source.

AVシステムの構成を示す概略図である。It is the schematic which shows the structure of AV system. アレイスピーカ装置の構成を示すブロック図である。It is a block diagram which shows the structure of an array speaker apparatus. フィルタ処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a filter process part. ビーム化処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a beamization process part. アレイスピーカ装置2が生成する音場について説明する図である。It is a figure explaining the sound field which the array speaker apparatus 2 produces | generates. バーチャル処理部の構成を示すブロック図である。It is a block diagram which shows the structure of a virtual processing part. 定位付加部および補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a localization addition part and a correction | amendment part. 各スピーカユニットに入力されるオーディオ信号の帯域を示した概念図である。It is the conceptual diagram which showed the zone | band of the audio signal input into each speaker unit. 変形例1に係るAVシステムの構成を示す概略図である。It is the schematic which shows the structure of the AV system which concerns on the modification 1. 変形例1に係るアレイスピーカ装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an array speaker device according to Modification 1. 変形例2に係るアレイスピーカ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the array speaker apparatus which concerns on the modification 2. 変形例2に係る帯域処理部および加算処理部の構成を示すブロック図である。10 is a block diagram illustrating configurations of a bandwidth processing unit and an addition processing unit according to Modification 2. FIG. 変形例3に係るアレイスピーカ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the array speaker apparatus which concerns on the modification 3. 変形例3に係る帯域分割部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a band dividing unit according to Modification 3. 各スピーカユニットに入力されるオーディオ信号の帯域を示した概念図である。It is the conceptual diagram which showed the zone | band of the audio signal input into each speaker unit. 変形例4に係るアレイスピーカ装置を示す概略図である。It is the schematic which shows the array speaker apparatus which concerns on the modification 4. サラウンドスピーカで実音源を定位させる例を示す図である。It is a figure which shows the example which localizes a real sound source with a surround speaker.

図1は、本実施形態に係るアレイスピーカ装置2を備えたAVシステム1の概略図である。AVシステム1は、アレイスピーカ装置2、およびテレビ4を備えている。アレイスピーカ装置2は、テレビ4に接続される。アレイスピーカ装置2には、テレビ4で再生される映像に応じたオーディオ信号や不図示のコンテンツプレーヤからのオーディオ信号が入力される。   FIG. 1 is a schematic diagram of an AV system 1 including an array speaker device 2 according to the present embodiment. The AV system 1 includes an array speaker device 2 and a television 4. The array speaker device 2 is connected to the television 4. The array speaker device 2 receives an audio signal corresponding to an image reproduced on the television 4 and an audio signal from a content player (not shown).

アレイスピーカ装置2は、図1に示すように、例えば、直方体形状の筐体を備え、テレビ4の近傍(テレビ4の表示画面の下部)に設置される。アレイスピーカ装置2は、前面(聴者に対向する面)に、例えば16個のスピーカユニット21A〜21P、ウーファ33L、およびウーファ33Rを備えている。   As shown in FIG. 1, the array speaker device 2 includes, for example, a rectangular parallelepiped housing, and is installed in the vicinity of the television 4 (lower portion of the display screen of the television 4). The array speaker device 2 includes, for example, 16 speaker units 21A to 21P, a woofer 33L, and a woofer 33R on the front surface (the surface facing the listener).

スピーカユニット21A〜21Pは、聴者から見て横方向に沿って一列に配置されている。スピーカユニット21Aは、聴者から見て最も左側に配置され、スピーカユニット21Pは、聴者から見て最も右側に配置されている。ウーファ33Lは、スピーカユニット21Aのさらに左側に配置されている。ウーファ33Rは、スピーカユニット21Pのさらに右側に配置されている。   The speaker units 21A to 21P are arranged in a line along the horizontal direction when viewed from the listener. The speaker unit 21A is disposed on the leftmost side when viewed from the listener, and the speaker unit 21P is disposed on the rightmost side when viewed from the listener. The woofer 33L is disposed further to the left of the speaker unit 21A. The woofer 33R is disposed on the right side of the speaker unit 21P.

この例では、スピーカユニット21A〜21Pからなるスピーカアレイが本発明の第1放音部に相当し、ウーファ33Lおよびウーファ33Rが本発明の第2放音部に相当する。   In this example, the speaker array including the speaker units 21A to 21P corresponds to the first sound emitting unit of the present invention, and the woofer 33L and the woofer 33R correspond to the second sound emitting unit of the present invention.

なお、スピーカユニットの数は、16個に限らず、例えば8個等であってもよい。また、配置態様も横方向に沿って1列に配置する例に限らず、例えば横方向に沿って3列に配置する等であってもよい。   Note that the number of speaker units is not limited to 16, and may be, for example, 8 or the like. Also, the arrangement is not limited to the example in which the arrangement is arranged in one row along the horizontal direction, and for example, the arrangement may be arranged in three rows along the horizontal direction.

図2は、アレイスピーカ装置2の構成を示すブロック図である。アレイスピーカ装置2は、入力部11、デコーダ10、帯域分割部14、帯域処理部45、ビーム化処理部20、加算処理部32、およびバーチャル処理部40を備えている。   FIG. 2 is a block diagram showing a configuration of the array speaker device 2. The array speaker device 2 includes an input unit 11, a decoder 10, a band dividing unit 14, a band processing unit 45, a beamization processing unit 20, an addition processing unit 32, and a virtual processing unit 40.

入力部11は、HDMIレシーバ111、DIR112、およびA/D変換部113を備えている。HDMIレシーバ111は、HDMI規格に適合したHDMI信号を入力し、デコーダ10に出力する。DIR112は、デジタルオーディオ信号(SPDIF)を入力し、デコーダ10に出力する。A/D変換部113は、アナログオーディオ信号を入力し、デジタルオーディオ信号に変換してデコーダ10に出力する。   The input unit 11 includes an HDMI receiver 111, a DIR 112, and an A / D conversion unit 113. The HDMI receiver 111 inputs an HDMI signal conforming to the HDMI standard and outputs it to the decoder 10. The DIR 112 receives a digital audio signal (SPDIF) and outputs it to the decoder 10. The A / D converter 113 receives an analog audio signal, converts it into a digital audio signal, and outputs it to the decoder 10.

デコーダ10は、DSPからなり、入力された信号をデコードする。デコーダ10は、例えば、AAC(登録商標)、Dolby Digital(登録商標)、DTS(登録商標)、MPEG−1/2、MPEG−2マルチチャンネル、MP3等の各種フォーマットの信号を入力し、マルチチャンネルオーディオ信号(FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号。以下、単にオーディオ信号と称す場合は、デジタルオーディオ信号を示すものとする。)に変換して出力する。図2に示す太い実線は、マルチチャンネルオーディオ信号を示すものである。なお、デコーダ10は、例えばステレオチャンネルのオーディオ信号をマルチチャンネルオーディオ信号に拡張する機能も有する。   The decoder 10 is a DSP and decodes an input signal. The decoder 10 inputs signals in various formats such as AAC (registered trademark), Dolby Digital (registered trademark), DTS (registered trademark), MPEG-1 / 2, MPEG-2 multichannel, MP3, etc. It is converted into an audio signal (digital audio signal of FL channel, FR channel, C channel, SL channel, and SR channel. Hereinafter, when simply referred to as an audio signal, the digital audio signal is indicated) and output. A thick solid line shown in FIG. 2 indicates a multi-channel audio signal. The decoder 10 also has a function of expanding, for example, a stereo channel audio signal to a multi-channel audio signal.

デコーダ10から出力されたマルチチャンネルオーディオ信号は、帯域分割部14および帯域処理部45に入力される。帯域分割部14は、デコーダ10から出力されたマルチチャンネルオーディオ信号の周波数帯域を分割し、高域側をビーム化処理部20に出力し、低域側を加算処理部32に出力する。帯域処理部45は、デコーダ10から出力されたマルチチャンネルオーディオ信号の所定帯域を制限してバーチャル処理部40に出力する。   The multichannel audio signal output from the decoder 10 is input to the band dividing unit 14 and the band processing unit 45. The band dividing unit 14 divides the frequency band of the multi-channel audio signal output from the decoder 10, outputs the high frequency side to the beam processing unit 20, and outputs the low frequency side to the addition processing unit 32. The band processing unit 45 limits the predetermined band of the multi-channel audio signal output from the decoder 10 and outputs it to the virtual processing unit 40.

図3は、帯域分割部14、帯域処理部45、および加算処理部32の構成を示すブロック図である。   FIG. 3 is a block diagram illustrating configurations of the band dividing unit 14, the band processing unit 45, and the addition processing unit 32.

帯域分割部14は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するHPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRを備えている。また、帯域分割部14は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するLPF15FL、LPF15FR、LPF15C、LPF15SL、およびLPF15SRを備えている。   The band dividing unit 14 includes an HPF 14FL, an HPF 14FR, an HPF 14C, an HPF 14SL, and an HPF 14SR that respectively input digital audio signals of the FL channel, the FR channel, the C channel, the SL channel, and the SR channel. Further, the band dividing unit 14 includes LPF 15FL, LPF 15FR, LPF 15C, LPF 15SL, and LPF 15SR for inputting digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel, respectively.

HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRは、それぞれ入力された各チャンネルのオーディオ信号の高域を抽出して出力する。HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRのカットオフ周波数は、スピーカユニット21A〜21Pの再生周波数の下限(例えば400Hz)に合うように設定されている。HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRの出力信号は、ビーム化処理部20に出力される。   The HPF 14FL, HPF 14FR, HPF 14C, HPF 14SL, and HPF 14SR extract and output the high frequencies of the input audio signals of the respective channels. The cut-off frequency of HPF14FL, HPF14FR, HPF14C, HPF14SL, and HPF14SR is set to match the lower limit (for example, 400 Hz) of the reproduction frequency of the speaker units 21A to 21P. The output signals of HPF 14 FL, HPF 14 FR, HPF 14 C, HPF 14 SL, and HPF 14 SR are output to beam forming processing unit 20.

LPF15FL、LPF15FR、LPF15C、LPF15SL、およびLPF15SRは、それぞれ入力された各チャンネルのオーディオ信号の低域(例えば400Hz未満)を抽出して出力する。LPF15FL、LPF15FR、LPF15C、LPF15SL、およびLPF15SRのカットオフ周波数は、上記HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRのカットオフ周波数に対応している(例えば400Hzである)。   The LPF 15FL, LPF 15FR, LPF 15C, LPF 15SL, and LPF 15SR extract and output the low frequency (for example, less than 400 Hz) of the input audio signal of each channel. The cut-off frequencies of the LPF 15FL, LPF 15FR, LPF 15C, LPF 15SL, and LPF 15SR correspond to the cut-off frequencies of the HPF 14FL, HPF 14FR, HPF 14C, HPF 14SL, and HPF 14SR (for example, 400 Hz).

LPF15FL、LPF15C、およびLPF15SLの出力信号は、加算処理部32における加算部16Lで加算され、Lチャンネルオーディオ信号となる。Lチャンネルオーディオ信号は、ゲイン調整部31Lでゲイン調整された後、加算部32Lを経てウーファ33Lに入力される。   The output signals of the LPF 15FL, LPF 15C, and LPF 15SL are added by the adding unit 16L in the addition processing unit 32 to be an L channel audio signal. The L channel audio signal is subjected to gain adjustment by the gain adjustment unit 31L, and then input to the woofer 33L via the addition unit 32L.

LPF15FR、LPF15C、およびLPF15SRの出力信号は、加算処理部32における加算部16Rで加算され、Rチャンネルオーディオ信号となる。Rチャンネルオーディオ信号は、ゲイン調整部31Rでゲイン調整された後、加算部32Rを経てウーファ33Rに入力される。   The output signals of the LPF 15FR, LPF 15C, and LPF 15SR are added by the adder 16R in the adder 32, and become an R channel audio signal. The R channel audio signal is subjected to gain adjustment by the gain adjustment unit 31R, and then input to the woofer 33R via the addition unit 32R.

一方、帯域処理部45は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するHPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRを備えている。   On the other hand, the band processing unit 45 includes HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR that respectively input digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel.

HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRは、それぞれ入力された各チャンネルのオーディオ信号の高域を抽出して出力する。HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのカットオフ周波数は、例えばビーム化処理部20に入力される各オーディオ信号と同じ周波数(400Hz)に設定される。   The HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR extract and output the high frequencies of the input audio signals of the respective channels. The cutoff frequency of HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR is set to the same frequency (400 Hz) as that of each audio signal input to the beamization processing unit 20, for example.

次に、ビーム化処理部20について説明する。図4は、ビーム化処理部20の構成を示すブロック図である。ビーム化処理部20は、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するゲイン調整部18FL、ゲイン調整部18FR、ゲイン調整部18C、ゲイン調整部18SL、およびゲイン調整部18SRを備えている。   Next, the beamization processing unit 20 will be described. FIG. 4 is a block diagram illustrating a configuration of the beam processing unit 20. The beamization processing unit 20 includes a gain adjustment unit 18FL, a gain adjustment unit 18FR, a gain adjustment unit 18C, a gain adjustment unit 18SL, which input digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel, respectively. And a gain adjusting unit 18SR.

ゲイン調整部18FL、ゲイン調整部18FR、ゲイン調整部18C、ゲイン調整部18SL、およびゲイン調整部18SRは、各チャンネルのオーディオ信号のゲインを調整する。ゲイン調整された各チャンネルのオーディオ信号は、それぞれ指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRに入力される。指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、各チャンネルのオーディオ信号をスピーカユニット21A〜21Pに分配する。分配されたスピーカユニット21A〜21Pに対するオーディオ信号は、合成部92で合成されてスピーカユニット21A〜21Pに供給される。このとき、指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、各スピーカユニットに供給するオーディオ信号の遅延量を調整する。   The gain adjusting unit 18FL, the gain adjusting unit 18FR, the gain adjusting unit 18C, the gain adjusting unit 18SL, and the gain adjusting unit 18SR adjust the gain of the audio signal of each channel. The gain-adjusted audio signals of the respective channels are input to the directivity control unit 91FL, directivity control unit 91FR, directivity control unit 91C, directivity control unit 91SL, and directivity control unit 91SR, respectively. Directivity control unit 91FL, directivity control unit 91FR, directivity control unit 91C, directivity control unit 91SL, and directivity control unit 91SR distribute the audio signals of the respective channels to speaker units 21A to 21P. Audio signals for the distributed speaker units 21A to 21P are combined by the combining unit 92 and supplied to the speaker units 21A to 21P. At this time, the directivity controller 91FL, the directivity controller 91FR, the directivity controller 91C, the directivity controller 91SL, and the directivity controller 91SR adjust the delay amount of the audio signal supplied to each speaker unit.

スピーカユニット21A〜21Pから出力される音は、位相が揃う箇所において互いに強められ、指向性を有した音声ビームとして出力される。例えば、全スピーカから同じタイミングで音が出力されると、アレイスピーカ装置2の前方に指向性を有する音声ビームが出力される。指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、各オーディオ信号に付与する遅延量を変更することで、音声ビームの出力方向を変更することができる。   The sounds output from the speaker units 21A to 21P are strengthened with respect to each other at the same phase and are output as sound beams having directivity. For example, when sound is output from all the speakers at the same timing, a sound beam having directivity is output in front of the array speaker device 2. The directivity control unit 91FL, the directivity control unit 91FR, the directivity control unit 91C, the directivity control unit 91SL, and the directivity control unit 91SR change the delay amount added to each audio signal, thereby outputting the sound beam. The direction can be changed.

また、指向性制御部91FL、指向性制御部91FR、指向性制御部91C、指向性制御部91SL、および指向性制御部91SRは、スピーカユニット21A〜21Pから出力される各音の位相が所定位置でそろうように遅延量を付与し、当該所定位置で焦点を結ぶ音声ビームを形成することもできる。   In addition, the directivity control unit 91FL, the directivity control unit 91FR, the directivity control unit 91C, the directivity control unit 91SL, and the directivity control unit 91SR are configured so that the phase of each sound output from the speaker units 21A to 21P is a predetermined position. It is also possible to provide a delay amount so that the sound beam is focused and to form an audio beam that focuses at the predetermined position.

音声ビームは、アレイスピーカ装置2から直接、または室内の壁等に反射して聴取位置に到達させることができる。例えば、図5に示すように、Cチャンネルオーディオ信号の音声ビームは、正面方向に出力させて、Cチャンネルの音声ビームが聴取位置の正面から到達させることができる。また、FLチャンネルオーディオ信号およびFRチャンネルオーディオ信号の音声ビームは、アレイスピーカ装置2の左右方向に出力させ、聴取位置の左右に存在する壁に反射させて、それぞれ聴取位置の左方向および右方向から到達させることができる。また、SLチャンネルオーディオ信号およびSRチャンネルオーディオ信号の音声ビームを左右方向に出力させ、聴取位置の左右に存在する壁および後方に存在する壁に2回反射させて、それぞれ聴取位置の左後方方向および右後方方向から到達させることができる。   The sound beam can reach the listening position directly from the array speaker device 2 or reflected on the wall of the room. For example, as shown in FIG. 5, the sound beam of the C channel audio signal can be output in the front direction so that the sound beam of the C channel can reach from the front of the listening position. Also, the sound beams of the FL channel audio signal and the FR channel audio signal are output in the left-right direction of the array speaker device 2 and reflected on the walls existing on the left and right of the listening position, respectively, from the left direction and the right direction of the listening position. Can be reached. In addition, the sound beams of the SL channel audio signal and the SR channel audio signal are output in the left-right direction and reflected twice on the wall existing on the left and right of the listening position and on the wall existing on the rear side, respectively. It can be reached from the right rear direction.

次に、バーチャル処理部40について説明する。図6は、バーチャル処理部40の構成を示すブロック図である。バーチャル処理部40は、定位付加部42、補正部51、加算部52L、加算部52R、遅延処理部60L、および遅延処理部60Rを備えている。   Next, the virtual processing unit 40 will be described. FIG. 6 is a block diagram illustrating a configuration of the virtual processing unit 40. The virtual processing unit 40 includes a localization adding unit 42, a correcting unit 51, an adding unit 52L, an adding unit 52R, a delay processing unit 60L, and a delay processing unit 60R.

定位付加部42は、入力されたFLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのオーディオ信号を所定の位置に仮想音源として定位させる処理を行う。仮想音源として定位させるためには、所定位置と聴者の耳との間の伝達関数を示す頭部伝達関数(以下、HRTFと称す。)を用いる。   The localization adding unit 42 performs processing for localizing the input FL channel, FR channel, C channel, SL channel, and SR channel audio signals as virtual sound sources at predetermined positions. In order to localize as a virtual sound source, a head-related transfer function (hereinafter referred to as HRTF) indicating a transfer function between a predetermined position and a listener's ear is used.

HRTFは、ある位置に設置した仮想スピーカからそれぞれ左右の耳に至る音の大きさ、到達時間、および周波数特性等を表現したインパルス応答である。定位付加部42は、入力された各チャンネルのオーディオ信号にHRTFを付与して、ウーファ33Lまたはウーファ33Rから放音させることにより、聴者に仮想音源を定位させることができる。   The HRTF is an impulse response that expresses the volume, arrival time, frequency characteristics, and the like of the sound from the virtual speaker installed at a certain position to the left and right ears. The localization adding unit 42 can cause the listener to localize the virtual sound source by adding HRTF to the input audio signal of each channel and emitting sound from the woofer 33L or the woofer 33R.

図7(A)は、定位付加部42の構成を示すブロック図である。定位付加部42は、各チャンネルのオーディオ信号にHRTFのインパルス応答を畳み込むためのFLフィルタ421L、FRフィルタ422L、Cフィルタ423L、SLフィルタ424L、およびSRフィルタ425Lと、FLフィルタ421R、FRフィルタ422R、Cフィルタ423R、SLフィルタ424R、およびSRフィルタ425Rと、を備えている。   FIG. 7A is a block diagram illustrating a configuration of the localization adding unit 42. The localization adding unit 42 includes an FL filter 421L, an FR filter 422L, a C filter 423L, an SL filter 424L, and an SR filter 425L for convolving an HRTF impulse response with the audio signal of each channel, an FL filter 421R, an FR filter 422R, A C filter 423R, an SL filter 424R, and an SR filter 425R.

例えば、FLチャンネルのオーディオ信号は、FLフィルタ421LおよびFLフィルタ421Rに入力される。FLフィルタ421Lは、FLチャンネルのオーディオ信号に、聴者の左前方の仮想音源VSFL(図5を参照。)の位置から左耳に至る経路のHRTFを付与する。FLフィルタ421Rは、FLチャンネルのオーディオ信号に、仮想音源VSFLの位置から右耳に至る経路のHRTFを付与する。同様にして、各チャンネルについて、聴者の周囲の仮想音源の位置から各耳に至るHRTFが付与される。   For example, an audio signal of the FL channel is input to the FL filter 421L and the FL filter 421R. The FL filter 421L adds an HRTF of the path from the position of the virtual sound source VSFL (see FIG. 5) in front of the listener to the left ear to the FL channel audio signal. The FL filter 421R adds an HRTF of a path from the position of the virtual sound source VSFL to the right ear to the audio signal of the FL channel. Similarly, for each channel, an HRTF from the position of the virtual sound source around the listener to each ear is given.

加算部426Lは、FLフィルタ421L、FRフィルタ422L、Cフィルタ423L、SLフィルタ424L、およびSRフィルタ425LでそれぞれHRTFが付与されたオーディオ信号を合成して、オーディオ信号VLとして補正部51に出力する。加算部426Rは、FLフィルタ421R、FRフィルタ422R、Cフィルタ423R、SLフィルタ424R、およびSRフィルタ425RでそれぞれHRTFが付与されたオーディオ信号を合成して、オーディオ信号VRとして補正部51に出力する。   The adder 426L synthesizes the audio signals to which the HRTF has been added by the FL filter 421L, the FR filter 422L, the C filter 423L, the SL filter 424L, and the SR filter 425L, and outputs the synthesized audio signal to the correcting unit 51. The adder 426R synthesizes the audio signals to which the HRTF has been added by the FL filter 421R, the FR filter 422R, the C filter 423R, the SL filter 424R, and the SR filter 425R, and outputs the synthesized audio signal VR to the correcting unit 51.

補正部51は、クロストークキャンセル処理を行う。図7(B)は、補正部51の構成を示すブロック図である。補正部51は、ダイレクト補正部511L、ダイレクト補正部511R、クロス補正部512L、およびクロス補正部512Rを備えている。   The correction unit 51 performs a crosstalk cancellation process. FIG. 7B is a block diagram illustrating a configuration of the correction unit 51. The correction unit 51 includes a direct correction unit 511L, a direct correction unit 511R, a cross correction unit 512L, and a cross correction unit 512R.

オーディオ信号VLは、ダイレクト補正部511Lおよびクロス補正部512Lに入力される。オーディオ信号VRは、ダイレクト補正部511Rおよびクロス補正部512Rに入力される。   The audio signal VL is input to the direct correction unit 511L and the cross correction unit 512L. The audio signal VR is input to the direct correction unit 511R and the cross correction unit 512R.

ダイレクト補正部511Lは、ウーファ33Lから出力された音が左耳付近で放音されたように聴者に知覚させる処理を行う。ダイレクト補正部511Lは、ウーファ33Lから出力された音の周波数特性が左耳の位置でフラットになるようなフィルタ係数が設定されている。ダイレクト補正部511Lは、入力されたオーディオ信号VLを当該フィルタで処理して、オーディオ信号VLDを出力する。ダイレクト補正部511Rは、ウーファ33Rから出力された音の周波数特性が右耳の位置でフラットになるようなフィルタ係数が設定されている。ダイレクト補正部511Rは、入力されたオーディオ信号VLを当該フィルタで処理して、オーディオ信号VRDを出力する。   The direct correction unit 511L performs a process of making the listener perceive that the sound output from the woofer 33L is emitted near the left ear. In the direct correction unit 511L, a filter coefficient is set such that the frequency characteristic of the sound output from the woofer 33L is flat at the position of the left ear. The direct correction unit 511L processes the input audio signal VL with the filter and outputs an audio signal VLD. In the direct correction unit 511R, a filter coefficient is set such that the frequency characteristic of the sound output from the woofer 33R is flat at the position of the right ear. The direct correction unit 511R processes the input audio signal VL with the filter and outputs the audio signal VRD.

クロス補正部512Lは、ウーファ33Lから右耳に回り込む音の周波数特性を付与するためのフィルタ係数が設定されている。このウーファ33Lから右耳に回り込む音(VLC)を合成部52Rで逆相にしてウーファ33Rから放音させることにより、ウーファ33Lの音が右耳に聞こえるのを抑制する。これにより、ウーファ33Rから放音される音が右耳付近で放音されたように聴者に知覚させる。   The cross correction unit 512L is set with a filter coefficient for providing a frequency characteristic of a sound that circulates from the woofer 33L to the right ear. The sound (VLC) that circulates from the woofer 33L to the right ear is reversed in phase by the synthesizer 52R and emitted from the woofer 33R, thereby suppressing the sound of the woofer 33L from being heard by the right ear. This makes the listener perceive that the sound emitted from the woofer 33R is emitted near the right ear.

クロス補正部512Rは、ウーファ33Rから左耳に回り込む音の周波数特性を付与するためのフィルタ係数が設定されている。このウーファ33Rから左耳に回り込む音(VRC)を合成部52Lで逆相にしてウーファ33Lから放音させることにより、ウーファ33Rの音が左耳に聞こえるのを抑制する。これにより、ウーファ33Lから放音される音が左耳付近で放音されたように聴者に知覚させる。   The cross correction unit 512R is set with a filter coefficient for imparting frequency characteristics of sound that circulates from the woofer 33R to the left ear. The sound (VRC) that circulates from the woofer 33R to the left ear is reversed in phase by the synthesizer 52L and emitted from the woofer 33L, thereby suppressing the sound of the woofer 33R from being heard by the left ear. This makes the listener perceive that the sound emitted from the woofer 33L is emitted near the left ear.

合成部52Lから出力されたオーディオ信号は、遅延処理部60Lに入力される。遅延処理部60Lによって所定時間遅延されたオーディオ信号は、加算処理部32に入力される。また、合成部52Rから出力されたオーディオ信号は、遅延処理部60Rに入力される。遅延処理部60Rによって所定時間遅延されたオーディオ信号は、加算処理部32に入力される。   The audio signal output from the synthesis unit 52L is input to the delay processing unit 60L. The audio signal delayed by a predetermined time by the delay processing unit 60L is input to the addition processing unit 32. The audio signal output from the synthesis unit 52R is input to the delay processing unit 60R. The audio signal delayed by a predetermined time by the delay processing unit 60R is input to the addition processing unit 32.

遅延処理部60Lおよび遅延処理部60Rによる遅延時間は、例えば、ビーム化処理部20の指向性制御部で与えられる遅延時間のうち、最長の遅延時間よりも長く設定される。これにより、仮想音源を知覚させる音が、音声ビームの形成を阻害することがない。なお、ビーム化処理部20の後段に遅延処理部を設け、音声ビーム側に遅延を加えて、音声ビームが仮想音像を定位させる音を阻害しないようにする態様であってもよい。   The delay time by the delay processing unit 60L and the delay processing unit 60R is set longer than the longest delay time among the delay times given by the directivity control unit of the beamization processing unit 20, for example. Thereby, the sound that perceives the virtual sound source does not hinder the formation of the sound beam. Alternatively, a delay processing unit may be provided after the beam forming processing unit 20 so as to add a delay to the sound beam side so that the sound beam does not hinder the sound that localizes the virtual sound image.

遅延処理部60Lから出力されたオーディオ信号は、加算処理部32のゲイン調整部61Lでゲイン調整される。ゲイン調整部61Lでゲイン調整されたオーディオ信号は、加算部32Lにおいて、ゲイン調整部31Lから出力されたオーディオ信号(原信号のLチャンネルの低域成分)と加算される。ゲイン調整部32Lおよびゲイン調整部61Lにより、原信号の低域成分とバーチャル処理部40の出力信号の加算比率が変更される。   The gain of the audio signal output from the delay processing unit 60L is adjusted by the gain adjustment unit 61L of the addition processing unit 32. The audio signal whose gain has been adjusted by the gain adjusting unit 61L is added to the audio signal (the low-frequency component of the L channel of the original signal) output from the gain adjusting unit 31L in the adding unit 32L. The addition ratio of the low frequency component of the original signal and the output signal of the virtual processing unit 40 is changed by the gain adjusting unit 32L and the gain adjusting unit 61L.

同様に、遅延処理部60Rから出力されたオーディオ信号は、加算処理部32のゲイン調整部61Rでゲイン調整される。ゲイン調整部61Rでゲイン調整されたオーディオ信号は、加算部32Rにおいて、ゲイン調整部31Rから出力されたオーディオ信号(原信号のRチャンネルの低域成分)と加算される。ゲイン調整部32Rおよびゲイン調整部61Rにより、原信号とバーチャル処理部40の出力信号の加算比率が変更される。   Similarly, the gain of the audio signal output from the delay processing unit 60R is adjusted by the gain adjusting unit 61R of the addition processing unit 32. The audio signal whose gain has been adjusted by the gain adjusting unit 61R is added to the audio signal (the low-frequency component of the R channel of the original signal) output from the gain adjusting unit 31R in the adding unit 32R. The addition ratio of the original signal and the output signal of the virtual processing unit 40 is changed by the gain adjusting unit 32R and the gain adjusting unit 61R.

なお、アレイスピーカ装置2は、上述したビーム化処理部20におけるゲイン調整部18FL、ゲイン調整部18FR、ゲイン調整部18C、ゲイン調整部18SL、およびゲイン調整部18SRのゲインを調整することで、バーチャル処理部40の出力信号と、原信号の低域成分と、音声ビームと、のレベル比率を調整することができる。   The array speaker device 2 adjusts the gains of the gain adjusting unit 18FL, the gain adjusting unit 18FR, the gain adjusting unit 18C, the gain adjusting unit 18SL, and the gain adjusting unit 18SR in the above-described beam forming processing unit 20 so as to be virtual. The level ratio of the output signal of the processing unit 40, the low frequency component of the original signal, and the sound beam can be adjusted.

次に、アレイスピーカ装置2が生成する音場について図5を用いて説明する。図5において、実線矢印は、アレイスピーカ装置2から出力される音声ビームの経路を示す。図5において、白い星印は、音声ビームが生成する実音源の位置を示し、黒い星印は、仮想音源の位置を示す。   Next, the sound field generated by the array speaker device 2 will be described with reference to FIG. In FIG. 5, the solid arrow indicates the path of the sound beam output from the array speaker device 2. In FIG. 5, a white star indicates the position of the real sound source generated by the sound beam, and a black star indicates the position of the virtual sound source.

図5の例では、アレイスピーカ装置2は、音声ビームを5本出力する。Cチャンネルのオーディオ信号は、アレイスピーカ装置2の後方の位置に焦点を結ぶ音声ビームが設定される。これにより、聴者は、音源SCが聴者の前方にあると知覚する。   In the example of FIG. 5, the array speaker device 2 outputs five sound beams. The C-channel audio signal is set to an audio beam that is focused at a position behind the array speaker device 2. Thus, the listener perceives that the sound source SC is in front of the listener.

同様に、FLチャンネルのオーディオ信号は、部屋Rの左前方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SFLが聴者の左前方の壁にあると知覚する。FRチャンネルのオーディオ信号は、部屋Rの右前方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SFRが聴者の右前方の壁にあると知覚する。SLチャンネルのオーディオ信号は、部屋Rの左後方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SSLが聴者の左後方の壁にあると知覚する。SRチャンネルのオーディオ信号は、部屋Rの右後方の壁の位置に焦点を結ぶ音声ビームが設定され、聴者は、音源SSRが聴者の左後方の壁にあると知覚する。   Similarly, in the audio signal of the FL channel, an audio beam focused on the position of the left front wall of the room R is set, and the listener perceives that the sound source SFL is on the left front wall of the listener. The audio signal of the FR channel is set with a sound beam that focuses on the position of the right front wall of the room R, and the listener perceives that the sound source SFR is on the right front wall of the listener. The audio signal of the SL channel is set with an audio beam focused on the position of the left rear wall of the room R, and the listener perceives that the sound source SSL is on the left rear wall of the listener. The audio signal of the SR channel is set with a sound beam that focuses on the position of the right rear wall of the room R, and the listener perceives that the sound source SSR is on the left rear wall of the listener.

さらに、定位付加部42は、上記音源SFL,SFR,SC,SSL,およびSSRの位置と略同じ位置に仮想音源の位置を設定する。したがって、聴者は、図5に示すように、仮想音源VSC,VSFL,VSFR,VSSL,およびVSSRを音源SFL,SFR,SC,SSL,およびSSRの位置と略同じ位置に知覚する。なお、仮想音源の位置は、音声ビームの焦点と同じ位置に設定する必要はなく予め定めた方向としてもよい。例えば、仮想音源VSFLは左30度、仮想音源VSFRは右30度、仮想音源VSSLは左120度、仮想音源VSSRは右120度等に設定する。   Further, the localization adding unit 42 sets the position of the virtual sound source at substantially the same position as the positions of the sound sources SFL, SFR, SC, SSL, and SSR. Therefore, as shown in FIG. 5, the listener perceives the virtual sound sources VSC, VSFL, VSFR, VSSL, and VSSR at substantially the same positions as the positions of the sound sources SFL, SFR, SC, SSL, and SSR. Note that the position of the virtual sound source need not be set at the same position as the focal point of the sound beam, and may be a predetermined direction. For example, the virtual sound source VSFL is set to 30 degrees left, the virtual sound source VSFR is set to 30 degrees right, the virtual sound source VSSL is set to 120 degrees left, the virtual sound source VSSR is set to 120 degrees right, and the like.

これにより、アレイスピーカ装置2は、音声ビームによる定位感を仮想音源によって補うことができ、音声ビームだけを用いた場合または仮想音源だけを用いた場合に比べて、定位感を向上させることができる。特に、SLチャンネルおよびSRチャンネルの音源SSLおよび音源SSRは、音声ビームが壁に2度反射することにより生成されるため、フロント側のチャンネルに比べて明瞭な定位感が得られない場合がある。しかし、アレイスピーカ装置2は、ウーファ33Lおよびウーファ33Rにより聴者の耳に直接届く音で生成される仮想音源VSSLおよび仮想音源VSSRで定位感を補うことができ、SLチャンネルおよびSRチャンネルの定位感を損なうことがない。   Thereby, the array speaker device 2 can supplement the sense of localization by the sound beam with the virtual sound source, and can improve the sense of localization as compared with the case of using only the sound beam or the case of using only the virtual sound source. . In particular, the sound source SSL and the sound source SSR of the SL channel and the SR channel are generated when the sound beam is reflected twice on the wall, and thus there is a case where a clear localization feeling cannot be obtained as compared with the channel on the front side. However, the array speaker device 2 can supplement the sense of localization with the virtual sound source VSSL and the virtual sound source VSSR generated by the sound that directly reaches the ears of the listener by the woofer 33L and the woofer 33R, and the localization feeling of the SL channel and the SR channel can be compensated. There is no loss.

そして、本実施形態のアレイスピーカ装置2は、帯域処理部45により、頭部伝達関数によるフィルタ処理が行われる帯域が制限される。図8(A)は、スピーカユニット21A〜21Pに入力されるオーディオ信号の帯域を示した概念図である。図8(B)は、ウーファ33Lおよびウーファ33Rに入力されるオーディオ信号の帯域を示した概念図である。   In the array speaker device 2 according to the present embodiment, the band in which the filtering process using the head-related transfer function is performed is limited by the band processing unit 45. FIG. 8A is a conceptual diagram showing a band of an audio signal input to the speaker units 21A to 21P. FIG. 8B is a conceptual diagram showing a band of an audio signal input to the woofer 33L and the woofer 33R.

図8(A)に示すように、スピーカユニット21A〜21Pには、周波数F1(例えば400Hz)以上の帯域のオーディオ信号が入力される。当該周波数F1は、帯域分割部14により、スピーカユニット21A〜21Pの下限周波数に合わせて設定されている。 また、図8(B)に示すように、ウーファ33Lおよびウーファ33Rには、帯域分割部14により周波数F1(例えば400Hz)未満の帯域のオーディオ信号が入力される。   As shown in FIG. 8A, audio signals in a band of frequency F1 (for example, 400 Hz) or higher are input to the speaker units 21A to 21P. The frequency F1 is set by the band dividing unit 14 according to the lower limit frequency of the speaker units 21A to 21P. Also, as shown in FIG. 8B, an audio signal in a band less than the frequency F1 (for example, 400 Hz) is input to the woofer 33L and the woofer 33R by the band dividing unit 14.

低域は指向性が低く、音声ビーム等の指向性を有する音が聴者に到達する帯域は、主に数百Hz以上の中高域となる。したがって、スピーカユニット21A〜21Pに中高域のオーディオ信号を入力し、ウーファ33Lおよびウーファ33Rに低域のオーディオ信号を入力することで、音声ビームによって実音源を定位させながら、低域の音を補強することができる。   The low band has low directivity, and the band in which sound having directivity such as an audio beam reaches the listener is mainly a middle and high band of several hundred Hz or more. Therefore, mid-high range audio signals are input to the speaker units 21A to 21P, and low frequency audio signals are input to the woofer 33L and the woofer 33R, so that the sound source is localized by the sound beam and the low frequency sound is reinforced. can do.

そして、ウーファ33Lおよびウーファ33Rには、バーチャル処理部40において頭部伝達関数によるフィルタ処理が行われたオーディオ信号も入力される。当該オーディオ信号は、帯域処理部45が周波数F1(例えば400Hz)以上の帯域だけ通過させるため、スピーカユニット21A〜21Pに入力されるオーディオ信号と同じ帯域となっている。   The woofer 33L and the woofer 33R are also input with an audio signal that has been filtered by the head-related transfer function in the virtual processing unit 40. The audio signal has the same band as the audio signal input to the speaker units 21 </ b> A to 21 </ b> P because the band processing unit 45 passes only the band of the frequency F <b> 1 (for example, 400 Hz) or higher.

頭部伝達関数に基づくフィルタ処理は、元のオーディオ信号の周波数特性を変化させるため、音質の変化がある。したがって、全帯域で頭部伝達関数によるフィルタ処理を行うと、音質の変化が目立つことになる。しかし、アレイスピーカ装置2は、帯域処理部45が周波数F1(例えば400Hz)以上の帯域だけ通過させ、頭部伝達関数によるフィルタ処理を行う帯域を制限しているため、音質の変化を最低限に抑えることができる。そして、頭部伝達関数のうち定位感に寄与する周波数帯域は、主に数kHz程度であり、数百Hz未満の信号が入力されていない場合でも、定位感は損なわれない。   Since the filter processing based on the head-related transfer function changes the frequency characteristic of the original audio signal, there is a change in sound quality. Therefore, if the filtering process using the head-related transfer function is performed in the entire band, the change in sound quality becomes conspicuous. However, in the array speaker device 2, since the band processing unit 45 passes only the band of the frequency F1 (for example, 400 Hz) or more and limits the band for performing the filter processing by the head related transfer function, the change in the sound quality is minimized. Can be suppressed. The frequency band that contributes to the sense of localization of the head-related transfer function is mainly about several kHz, and the sense of localization is not impaired even when a signal of less than several hundred Hz is not input.

したがって、アレイスピーカ装置2は、音声ビームによる定位感を仮想音源による定位感で補うことができ、音質の変化を抑えながら音源を明瞭に定位させることができる。また、頭部伝達関数によるフィルタ処理後のオーディオ信号の周波数帯域(図8(B)の仮想音源)と、元のオーディオ信号のうち分割された低周波数帯域(図8(B)の原信号)と、が重複することがないため、これら仮想音源と原信号の低域成分と、が互いに干渉することがない。   Therefore, the array speaker device 2 can supplement the sense of localization by the sound beam with the sense of localization by the virtual sound source, and can clearly localize the sound source while suppressing the change in sound quality. In addition, the frequency band of the audio signal after filtering by the head-related transfer function (virtual sound source in FIG. 8B) and the low frequency band divided from the original audio signal (original signal in FIG. 8B) And the virtual sound source and the low-frequency component of the original signal do not interfere with each other.

なお、帯域分割部14は、スピーカユニット21A〜21Pの下限周波数(例えば400Hz)に合わせて周波数F1を設定しているが、必ずしも当該下限周波数に合わせる必要はない。例えば、当該下限周波数よりも高い周波数で分割するようにしてもよい。   The band dividing unit 14 sets the frequency F1 according to the lower limit frequency (for example, 400 Hz) of the speaker units 21A to 21P, but it is not always necessary to match the lower limit frequency. For example, you may make it divide | segment at a frequency higher than the said lower limit frequency.

また、帯域処理部45は、オーディオ信号を通過させる帯域の下限周波数を、帯域分割部14が分割する周波数F1と同一に設定しているが、必ずしも同一(または近接する)周波数に設定する必要はない。例えば、図8(C)に示すように、周波数F1(例えば400Hz)よりも高い周波数F2(例えば1kHz)としてもよい。   Further, the band processing unit 45 sets the lower limit frequency of the band through which the audio signal is passed to be the same as the frequency F1 divided by the band dividing unit 14, but it is not necessarily set to the same (or close) frequency. Absent. For example, as shown in FIG. 8C, the frequency F2 (for example, 1 kHz) may be higher than the frequency F1 (for example, 400 Hz).

次に、図9は、変形例1に係るアレイスピーカ装置2Aを備えたAVシステム1Aの概略図である。図1と共通する構成については同一の符号を付し、説明を省略する。AVシステム1Aは、図1のアレイスピーカ装置2に変えてアレイスピーカ装置2Aを備えている。アレイスピーカ装置2Aは、アレイスピーカ装置2に対して、外観上、ウーファ34Lおよびウーファ34Rをさらに備えている点で異なる。   Next, FIG. 9 is a schematic diagram of an AV system 1A including the array speaker device 2A according to the first modification. The same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted. The AV system 1A includes an array speaker device 2A instead of the array speaker device 2 of FIG. Array speaker device 2A is different from array speaker device 2 in that it further includes a woofer 34L and a woofer 34R.

図10は、アレイスピーカ装置2Aの構成を示すブロック図である。アレイスピーカ装置2Aは、アレイスピーカ装置2に対して、加算処理部32が設けられていない点で異なる。   FIG. 10 is a block diagram showing a configuration of the array speaker device 2A. The array speaker device 2A is different from the array speaker device 2 in that the addition processing unit 32 is not provided.

バーチャル処理部40の出力するオーディオ信号は、ウーファ33Lおよびウーファ33Rに入力される。帯域分割部14の出力するオーディオ信号は、ウーファ34Lおよびウーファ34Rに入力される。   The audio signal output from the virtual processing unit 40 is input to the woofer 33L and the woofer 33R. The audio signal output from the band dividing unit 14 is input to the woofer 34L and the woofer 34R.

このように、頭部伝達関数によるフィルタ処理後のオーディオ信号の周波数帯域(図8(B)の仮想音源)と、元のオーディオ信号のうち分割された低周波数帯域(図8(B)の原信号)と、をそれぞれ別のスピーカユニットに入力してもよい。   In this way, the frequency band of the audio signal after filtering by the head-related transfer function (virtual sound source in FIG. 8B) and the divided low frequency band of the original audio signal (original in FIG. 8B). Signal) may be input to different speaker units.

次に、図11は、変形例2に係るアレイスピーカ装置2Bの構成を示すブロック図である。図2に示したアレイスピーカ装置2と共通する構成については同一の符号を付し、説明を省略する。アレイスピーカ装置2Bは、アレイスピーカ装置2の帯域処理部45および加算処理部32に変えて、帯域処理部45Bおよび加算処理部32Bを備え、当該帯域処理部45Bが加算処理部32Bにオーディオ信号を出力する。   Next, FIG. 11 is a block diagram showing a configuration of an array speaker device 2B according to Modification 2. The same components as those in the array speaker device 2 shown in FIG. The array speaker device 2B includes a band processing unit 45B and an addition processing unit 32B in place of the band processing unit 45 and the addition processing unit 32 of the array speaker device 2, and the band processing unit 45B sends an audio signal to the addition processing unit 32B. Output.

図12は、帯域処理部45Bおよび加算処理部32Bの構成を示すブロック図である。図3に示した帯域処理部45および加算処理部32と共通する構成については同一の符号を付し、説明を省略する。   FIG. 12 is a block diagram showing configurations of the band processing unit 45B and the addition processing unit 32B. Configurations common to the bandwidth processing unit 45 and the addition processing unit 32 illustrated in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.

帯域処理部45Bは、FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、およびSRチャンネルのデジタルオーディオ信号をそれぞれ入力するLPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRを備えている。   The band processing unit 45B includes LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR that respectively input digital audio signals of FL channel, FR channel, C channel, SL channel, and SR channel.

LPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRは、それぞれ入力された各チャンネルのオーディオ信号の低域を抽出して出力する。LPF41FL、LPF41FR、LPF41C、LPF41SL、およびLPF41SRのカットオフ周波数は、HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのカットオフ周波数(例えば400Hz)にそれぞれ対応している。   The LPF 41FL, LPF 41FR, LPF 41C, LPF 41SL, and LPF 41SR extract and output the low frequencies of the input audio signals of the respective channels. The cut-off frequencies of LPF41FL, LPF41FR, LPF41C, LPF41SL, and LPF41SR correspond to the cut-off frequencies (for example, 400 Hz) of HPF40FL, HPF40FR, HPF40C, HPF40SL, and HPF40SR, respectively.

LPF41FL、LPF41C、およびLPF41SLの出力信号は、加算処理部32Bの加算部17Lでバーチャル処理部40の出力信号(遅延処理部60Lの出力信号)と加算される。加算部17Lで加算されたオーディオ信号は、ゲイン調整部61Lでゲイン調整された後に加算部32Lに入力される。   The output signals of the LPF 41FL, LPF 41C, and LPF 41SL are added to the output signal of the virtual processing unit 40 (the output signal of the delay processing unit 60L) by the adding unit 17L of the addition processing unit 32B. The audio signal added by the adding unit 17L is input to the adding unit 32L after gain adjustment by the gain adjusting unit 61L.

LPF41FR、LPF41C、およびLPF41SRの出力信号は、加算処理部32Bの加算部17Rでバーチャル処理部40の出力信号(遅延処理部60Rの出力信号)と加算される。加算部17Rで加算されたオーディオ信号は、ゲイン調整部61Rでゲイン調整された後に加算部32Rに入力される。   The output signals of the LPF 41FR, LPF 41C, and LPF 41SR are added to the output signal of the virtual processing unit 40 (the output signal of the delay processing unit 60R) by the addition unit 17R of the addition processing unit 32B. The audio signal added by the adding unit 17R is input to the adding unit 32R after gain adjustment by the gain adjusting unit 61R.

次に、図13は、変形例3に係るアレイスピーカ装置2Cを示す図である。アレイスピーカ装置2と共通する構成については、同一の符号を付し、説明は省略する。   Next, FIG. 13 is a diagram showing an array speaker device 2C according to Modification 3. The components common to the array speaker device 2 are denoted by the same reference numerals, and description thereof is omitted.

アレイスピーカ装置2Cは、サブウーファ3をさらに備えている。サブウーファ3には、帯域分割部140Cから低域(例えば100Hz未満)のオーディオ信号が入力される。図14は、帯域分割部140Cの構成を示すブロック図である。帯域分割部14と共通する構成については同一の符号を付し、説明は省略する。   The array speaker device 2 </ b> C further includes a subwoofer 3. The subwoofer 3 receives a low frequency (for example, less than 100 Hz) audio signal from the band dividing unit 140C. FIG. 14 is a block diagram illustrating a configuration of the band dividing unit 140C. The same components as those of the band dividing unit 14 are denoted by the same reference numerals and description thereof is omitted.

帯域分割部140Cは、加算部160、加算部170、HPF150L、HPF152R、LPF151L、LPF153R、および加算部700を備えている。   The band dividing unit 140C includes an adding unit 160, an adding unit 170, an HPF 150L, an HPF 152R, an LPF 151L, an LPF 153R, and an adding unit 700.

加算部160は、LPF15FL、LPF15C、およびLPF15SLの出力信号を加算する。加算部170は、LPF15FR、LPF15C、およびLPF15SRの出力信号を加算する。加算部160の出力信号は、HPF150LおよびLPF151Lに入力される。加算部170の出力信号は、HPF152RおよびLPF153Rに入力される。   Adder 160 adds the output signals of LPF 15FL, LPF 15C, and LPF 15SL. Adder 170 adds the output signals of LPF 15FR, LPF 15C, and LPF 15SR. The output signal of the adding unit 160 is input to the HPF 150L and the LPF 151L. The output signal of the adding unit 170 is input to the HPF 152R and the LPF 153R.

HPF150Lは、入力されたオーディオ信号の高域を抽出して出力する。LPF151Lは、入力されたオーディオ信号の低域を抽出して出力する。HPF150LおよびLPF151Lのカットオフ周波数は、ウーファ33Lとサブウーファ3とのクロスオーバ周波数(例えば100Hz)に対応する。なお、当該クロスオーバ周波数は、聴者により変更できるようにしてもよい。   The HPF 150L extracts and outputs the high range of the input audio signal. The LPF 151L extracts and outputs a low frequency range of the input audio signal. The cutoff frequencies of the HPF 150L and the LPF 151L correspond to the crossover frequency (for example, 100 Hz) between the woofer 33L and the subwoofer 3. The crossover frequency may be changed by the listener.

同様に、HPF152Rは、入力されたオーディオ信号の高域を抽出して出力する。LPF153Rは、入力されたオーディオ信号の低域を抽出して出力する。HP152RおよびLPF153Rのカットオフ周波数は、ウーファ33Rとサブウーファ3とのクロスオーバ周波数(例えば100Hz)に対応する。なお、当該クロスオーバ周波数も、聴者により変更できるようにしてもよい。   Similarly, the HPF 152R extracts and outputs the high range of the input audio signal. The LPF 153R extracts and outputs the low frequency range of the input audio signal. The cut-off frequencies of the HP 152R and the LPF 153R correspond to the crossover frequency (for example, 100 Hz) between the woofer 33R and the subwoofer 3. The crossover frequency may be changed by the listener.

図15(A)は、スピーカユニット21A〜21Pに入力されるオーディオ信号の帯域を示した概念図であり、図15(B)は、ウーファ33Lおよびウーファ33Rに入力されるオーディオ信号の帯域を示した概念図である。図15(C)は、サブウーファ3に入力されるオーディオ信号の帯域を示した概念図である。   FIG. 15A is a conceptual diagram showing the band of the audio signal input to the speaker units 21A to 21P, and FIG. 15B shows the band of the audio signal input to the woofer 33L and the woofer 33R. It is a conceptual diagram. FIG. 15C is a conceptual diagram showing a band of an audio signal input to the subwoofer 3.

アレイスピーカ装置2Cでは、図15(C)に示すように、サブウーファ3に、周波数F3(例えば100Hz)未満の帯域のオーディオ信号が入力される。また、図15(B)に示すように、ウーファ33Lおよびウーファ33Rに、帯域分割部140Cにより周波数F3(例えば100Hz)以上、周波数F1(例えば400Hz)未満の帯域のオーディオ信号が入力される。   In the array speaker device 2 </ b> C, as shown in FIG. 15C, an audio signal in a band less than the frequency F <b> 3 (for example, 100 Hz) is input to the subwoofer 3. Further, as shown in FIG. 15B, an audio signal in a band not lower than the frequency F3 (for example, 100 Hz) and lower than the frequency F1 (for example, 400 Hz) is input to the woofer 33L and the woofer 33R by the band dividing unit 140C.

このように、アレイスピーカ装置2Cは、サブウーファ3をさらに備え、ウーファ33Lおよびウーファ33Rが出力可能な周波数よりもさらに低域側の音を補強する態様である。この場合においても、帯域処理部45は、バーチャル処理部40に通過させる帯域の下限周波数(図15の例では周波数F1=400Hz)をサブウーファの上限周波数(図15の例ではF3=100Hz)よりも高くしているため、サブウーファの出力する音とフィルタ処理後の音との帯域が重複することがない。したがって、サブウーファ3の出力する音と仮想音源の音とが互いに干渉することがない。   As described above, the array speaker device 2 </ b> C further includes the subwoofer 3, and is a mode in which the sound on the lower frequency side than the frequency that can be output by the woofer 33 </ b> L and the woofer 33 </ b> R is reinforced. Also in this case, the band processing unit 45 sets the lower limit frequency (frequency F1 = 400 Hz in the example of FIG. 15) of the band to be passed to the virtual processing unit 40 to be higher than the upper limit frequency of the subwoofer (F3 = 100 Hz in the example of FIG. 15). Since it is set high, the band of the sound output from the subwoofer and the sound after filtering does not overlap. Therefore, the sound output from the subwoofer 3 and the sound of the virtual sound source do not interfere with each other.

なお、図示は省略するが、サブウーファ3を備えた態様においても、図11および図12に示したように帯域処理部45Bで低域のオーディオ信号を抽出してバーチャル処理部40の後段で加算するようにしてもよい。   Although not shown, even in the aspect including the subwoofer 3, the low-frequency audio signal is extracted by the band processing unit 45B and added at the subsequent stage of the virtual processing unit 40 as shown in FIGS. You may do it.

次に、図16(A)は、変形例4に係るアレイスピーカ装置2Dを示す図である。アレイスピーカ装置2と共通する構成については、同一の符号を付し、説明は省略する。   Next, FIG. 16A is a diagram showing an array speaker device 2D according to Modification 4. The components common to the array speaker device 2 are denoted by the same reference numerals, and description thereof is omitted.

アレイスピーカ装置2Dは、ウーファ33Lおよびウーファ33Rから出力する音をそれぞれスピーカユニット21Aおよびスピーカユニット21Pから出力する点において、アレイスピーカ装置2と相違する。   The array speaker device 2D is different from the array speaker device 2 in that sounds output from the woofer 33L and the woofer 33R are output from the speaker unit 21A and the speaker unit 21P, respectively.

アレイスピーカ装置2Dは、仮想音源を知覚させる音をスピーカユニット21A〜21Pのうち、両端のスピーカユニット21Aおよびスピーカユニット21Pから出力する。   The array speaker device 2D outputs sound that makes a virtual sound source perceived from the speaker units 21A and 21P at both ends of the speaker units 21A to 21P.

スピーカユニット21Aおよびスピーカユニット21Pは、アレイスピーカにおける最も端部に配置されたスピーカユニットであり、聴者から見てそれぞれ最も左側および右側に配置されている。したがって、スピーカユニット21Aおよびスピーカユニット21Pは、それぞれLチャンネルおよびRチャンネルの音を出力する場合に好適であり、仮想音源を知覚させる音を出力するスピーカユニットとして好適である。   The speaker unit 21 </ b> A and the speaker unit 21 </ b> P are the speaker units arranged at the extreme ends of the array speaker, and are arranged on the left and right sides as viewed from the listener. Therefore, the speaker unit 21A and the speaker unit 21P are suitable for outputting the sound of the L channel and the R channel, respectively, and are suitable as the speaker unit for outputting the sound that makes the virtual sound source be perceived.

アレイスピーカ装置2Dにおいても、バーチャル処理部40において頭部伝達関数によるフィルタ処理が行われるオーディオ信号の帯域が制限されているため、音声ビームによる定位感を仮想音源による定位感で補うことができ、音質の変化を抑えながら音源を明瞭に定位させることができる。   Also in the array speaker device 2D, since the band of the audio signal that is filtered by the head-related transfer function is limited in the virtual processing unit 40, it is possible to supplement the sense of localization by the sound beam with the sense of localization by the virtual sound source, Sound source can be clearly localized while suppressing changes in sound quality.

また、アレイスピーカ装置2は、一つの筐体にスピーカユニット21A〜21P、ウーファ33Lおよびウーファ33Rを全て備える必要はない。例えば、図16(B)に示すスピーカセット2Eのように、各スピーカユニットを個別の筐体に設けて、各筐体を並べて配置する態様であってもよい。   Further, the array speaker device 2 does not have to include all the speaker units 21A to 21P, the woofer 33L, and the woofer 33R in one housing. For example, as in a speaker set 2E shown in FIG. 16B, each speaker unit may be provided in an individual casing, and the casings may be arranged side by side.

また、実音源は、音声ビームを用いて定位させる例に限るものではない。例えば、図17に示すように、聴取位置の周囲に設置されるサラウンドスピーカ(スピーカユニット21FL、スピーカユニット21FR、スピーカユニット21C、スピーカユニット21SL、およびスピーカユニット21SR)により実現することも可能である。   Further, the actual sound source is not limited to the example of localization using a sound beam. For example, as shown in FIG. 17, it can be realized by surround speakers (speaker unit 21FL, speaker unit 21FR, speaker unit 21C, speaker unit 21SL, and speaker unit 21SR) installed around the listening position.

1…AVシステム
2…アレイスピーカ装置
4…テレビ
10…デコーダ
11…入力部
14…帯域分割部
20…ビーム化処理部
スピーカユニット21A〜21P…スピーカユニット
32…加算処理部
33L,33R…ウーファ
40…バーチャル処理部
42…定位付加部
45…帯域処理部
DESCRIPTION OF SYMBOLS 1 ... AV system 2 ... Array speaker apparatus 4 ... Television 10 ... Decoder 11 ... Input part 14 ... Band division | segmentation part 20 ... Beam formation process part Speaker unit 21A-21P ... Speaker unit 32 ... Addition process part 33L, 33R ... Woofer 40 ... Virtual processing unit 42 ... Localization adding unit 45 ... Band processing unit

Claims (6)

入力されたオーディオ信号に基づく音を出力する第1放音部と、
入力されたオーディオ信号に頭部伝達関数に基づくフィルタ処理を行う定位付加部と、
前記定位付加部でフィルタ処理されたオーディオ信号に基づく音を出力する第2放音部と、
前記定位付加部に入力されるオーディオ信号の周波数帯域を制限する帯域処理部と、
を備えたスピーカ装置。
A first sound emitting unit for outputting a sound based on the input audio signal;
A localization adding unit that performs filtering on the input audio signal based on the head-related transfer function;
A second sound emitting unit for outputting a sound based on the audio signal filtered by the localization adding unit;
A band processing unit for limiting a frequency band of an audio signal input to the localization adding unit;
A speaker device comprising:
請求項1に記載のスピーカ装置において、
サブウーファをさらに備え、
前記帯域処理部は、オーディオ信号を通過させる帯域の下限周波数が、前記サブウーファの上限周波数よりも高いことを特徴とするスピーカ装置。
The speaker device according to claim 1,
Further equipped with a subwoofer,
The speaker device according to claim 1, wherein the band processing unit has a lower limit frequency of a band through which an audio signal passes, which is higher than an upper limit frequency of the subwoofer.
前記第2放音部は、前記第1放音部の下限周波数よりも低い下限周波数を有するスピーカユニットからなり、
該第2放音部には、前記第1放音部の下限周波数よりも低いオーディオ信号が入力される請求項1または請求項2に記載のスピーカ装置。
The second sound emitting unit includes a speaker unit having a lower limit frequency lower than the lower limit frequency of the first sound emitting unit,
The speaker device according to claim 1 or 2, wherein an audio signal lower than a lower limit frequency of the first sound emitting unit is input to the second sound emitting unit.
オーディオ信号を入力する入力部と、
前記入力部に入力されたオーディオ信号の周波数帯域を分割し、高域側のオーディオ信号を当該第1放音部に入力し、低域側のオーディオ信号を前記第2放音部に入力する帯域分割部と、を備えた請求項1乃至請求項3のいずれかに記載のスピーカ装置。
An input section for inputting an audio signal;
The frequency band of the audio signal input to the input unit is divided, the high frequency audio signal is input to the first sound emitting unit, and the low frequency audio signal is input to the second sound emitting unit. The speaker device according to claim 1, further comprising a dividing unit.
前記帯域処理部は、オーディオ信号を通過させる帯域の下限周波数が、前記帯域分割部が分割する周波数と同一または近接していることを特徴とする請求項4に記載のスピーカ装置。   5. The speaker device according to claim 4, wherein the band processing unit has a lower limit frequency of a band through which an audio signal passes, which is the same as or close to a frequency divided by the band dividing unit. 前記第1放音部は、複数のスピーカが配列されてなるスピーカアレイであり、
入力されたオーディオ信号を遅延して前記複数のスピーカに分配することにより、前記第1放音部に音声ビームを出力させる指向性制御部を備えた請求項1乃至請求項5のいずれかに記載のスピーカ装置。
The first sound emitting unit is a speaker array in which a plurality of speakers are arranged,
6. The directivity control unit according to claim 1, further comprising: a directivity control unit that outputs an audio beam to the first sound emitting unit by delaying an input audio signal and distributing the audio signal to the plurality of speakers. Speaker device.
JP2013272351A 2013-12-27 2013-12-27 Speaker device Active JP6458340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013272351A JP6458340B2 (en) 2013-12-27 2013-12-27 Speaker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013272351A JP6458340B2 (en) 2013-12-27 2013-12-27 Speaker device

Publications (2)

Publication Number Publication Date
JP2015126527A true JP2015126527A (en) 2015-07-06
JP6458340B2 JP6458340B2 (en) 2019-01-30

Family

ID=53536896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013272351A Active JP6458340B2 (en) 2013-12-27 2013-12-27 Speaker device

Country Status (1)

Country Link
JP (1) JP6458340B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05316599A (en) * 1992-05-08 1993-11-26 Sony Corp Acoustic equipment
US6504933B1 (en) * 1997-11-21 2003-01-07 Samsung Electronics Co., Ltd. Three-dimensional sound system and method using head related transfer function
WO2006077953A1 (en) * 2005-01-24 2006-07-27 Matsushita Electric Industrial Co., Ltd. Sound image localization controller
JP2011004261A (en) * 2009-06-19 2011-01-06 Yamaha Corp Av amplifier apparatus
JP2011049785A (en) * 2009-08-26 2011-03-10 Sharp Corp Device and method for processing sound signal, and display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05316599A (en) * 1992-05-08 1993-11-26 Sony Corp Acoustic equipment
US6504933B1 (en) * 1997-11-21 2003-01-07 Samsung Electronics Co., Ltd. Three-dimensional sound system and method using head related transfer function
WO2006077953A1 (en) * 2005-01-24 2006-07-27 Matsushita Electric Industrial Co., Ltd. Sound image localization controller
JP2011004261A (en) * 2009-06-19 2011-01-06 Yamaha Corp Av amplifier apparatus
JP2011049785A (en) * 2009-08-26 2011-03-10 Sharp Corp Device and method for processing sound signal, and display device

Also Published As

Publication number Publication date
JP6458340B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
US10038963B2 (en) Speaker device and audio signal processing method
AU2018200684B2 (en) Method and apparatus for rendering acoustic signal, and computer-readable recording medium
CA2543614C (en) Multi-channel audio surround sound from front located loudspeakers
US6577736B1 (en) Method of synthesizing a three dimensional sound-field
US7386139B2 (en) Sound image control system
EP3061268B1 (en) Method and mobile device for processing an audio signal
US8477951B2 (en) Front surround system and method of reproducing sound using psychoacoustic models
WO2012042905A1 (en) Sound reproduction device and sound reproduction method
CN102668596B (en) Method and audio system for processing multi-channel audio signals for surround sound production
US8605914B2 (en) Nonlinear filter for separation of center sounds in stereophonic audio
US8320590B2 (en) Device, method, program, and system for canceling crosstalk when reproducing sound through plurality of speakers arranged around listener
JP6287203B2 (en) Speaker device
WO2015166814A1 (en) Acoustic signal processing device, acoustic signal processng method, and program
WO2015025858A1 (en) Speaker device and audio signal processing method
JP6287191B2 (en) Speaker device
JP6405628B2 (en) Speaker device
JP6458340B2 (en) Speaker device
JP2009134128A (en) Acoustic processing device and acoustic processing method
JP2007074336A (en) Audio system and audio device
KR101526014B1 (en) Multi-channel surround speaker system
JP2011160179A (en) Voice processor
JP6287202B2 (en) Speaker device
JP4943098B2 (en) Sound reproduction system and sound reproduction method
JP3942914B2 (en) Stereo signal processor
EP3035706B1 (en) Signal processor and signal processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6458340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151