JP2015128208A - Speaker device - Google Patents

Speaker device Download PDF

Info

Publication number
JP2015128208A
JP2015128208A JP2013272528A JP2013272528A JP2015128208A JP 2015128208 A JP2015128208 A JP 2015128208A JP 2013272528 A JP2013272528 A JP 2013272528A JP 2013272528 A JP2013272528 A JP 2013272528A JP 2015128208 A JP2015128208 A JP 2015128208A
Authority
JP
Japan
Prior art keywords
sound
audio signal
unit
input
listener
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013272528A
Other languages
Japanese (ja)
Other versions
JP6287203B2 (en
Inventor
真樹 片山
Maki Katayama
真樹 片山
進 澤米
Susumu Sawagome
進 澤米
啓一 今岡
Keiichi Imaoka
啓一 今岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013272528A priority Critical patent/JP6287203B2/en
Priority to EP14838464.7A priority patent/EP3038385B1/en
Priority to PCT/JP2014/071686 priority patent/WO2015025858A1/en
Priority to CN201480002397.6A priority patent/CN104641659B/en
Priority to US14/428,227 priority patent/US9674609B2/en
Publication of JP2015128208A publication Critical patent/JP2015128208A/en
Priority to US15/472,591 priority patent/US10038963B2/en
Application granted granted Critical
Publication of JP6287203B2 publication Critical patent/JP6287203B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a speaker device that does not damage a sense of localization even when outputting sound allowing a listener to sense a virtual sound source and giving a sound field effect.SOLUTION: An initial reflected sound adding section adds characteristics of a reflected sound to an audio signal to be inputted in a second sound emitting section; and a rear reverberation sound adding section adds characteristics of a rear reverberation sound to an audio signal to be inputted in a first sound emitting section. Precisely, the reflected sound adding section does not add characteristics of an initial reflected sound to a sound allowing a listener to sense a virtual sound source, but adds the characteristics of the initial reflected sound only to a sound to be outputted from the second sound emitting section. Therefore, a speaker device can prevent frequency characteristics of the sound allowing the listener to sense the virtual sound source from being changed by addition of the characteristics of the initial reflected sound whose frequency characteristics differ depending on arrival direction. This allows the sound allowing the listener to sense the virtual sound source to maintain frequency characteristics of a head-elated transfer function.

Description

本発明は、仮想音源を知覚させる音を出力して、オーディオ信号を仮想的に定位させるスピーカ装置に関する。   The present invention relates to a speaker device that outputs a sound that allows a virtual sound source to be perceived to virtually localize an audio signal.

従来、オーディオ信号が仮想的に定位する仮想音源を知覚させる音と、指向性を有する音とを出力して、オーディオ信号を定位させるスピーカ装置が知られている。   2. Description of the Related Art Conventionally, there is known a speaker device that outputs a sound that perceives a virtual sound source in which an audio signal is virtually localized and a sound having directivity to localize the audio signal.

例えば、特許文献1に示すアレイスピーカ装置は、オーディオ信号をそれぞれ遅延させて複数のスピーカユニットに分配することにより、指向性を有するサウンドビーム(音声ビーム)を複数出力している。聴者は、音声ビームを聴くと、音声ビームの焦点に音源が存在すると知覚する。音声ビームが例えば壁に反射して聴者に届くと、聴者は、壁の方向に音源が存在すると知覚する。これにより、オーディオ信号は、壁の方向に定位する。   For example, the array speaker device disclosed in Patent Document 1 outputs a plurality of directional sound beams (sound beams) by delaying an audio signal and distributing it to a plurality of speaker units. When the listener listens to the sound beam, the listener perceives that the sound source exists at the focus of the sound beam. When the sound beam is reflected, for example, on a wall and reaches the listener, the listener perceives that a sound source is present in the direction of the wall. As a result, the audio signal is localized in the direction of the wall.

また、特許文献1に示すアレイスピーカ装置は、音声ビームが聴者に到達できないチャンネルについて仮想音源を知覚させる音を出力するために、オーディオ信号の周波数特性を変化させている。より具体的には、特許文献1に示すアレイスピーカ装置は、聴者の頭部形状に対応する頭部伝達関数をオーディオ信号に畳み込んで周波数特性を変化させている。聴者は、周波数特性が変化した音(仮想音源を知覚させる音)を聴くことにより、仮想音源を知覚する。これにより、オーディオ信号は、仮想的に定位する。   In addition, the array speaker device disclosed in Patent Document 1 changes the frequency characteristics of an audio signal in order to output a sound that causes a virtual sound source to be perceived for a channel in which an audio beam cannot reach the listener. More specifically, the array speaker device shown in Patent Document 1 changes the frequency characteristics by convolving a head-related transfer function corresponding to the shape of the head of the listener with the audio signal. The listener perceives the virtual sound source by listening to the sound whose frequency characteristics have changed (sound that makes the virtual sound source perceive). As a result, the audio signal is virtually localized.

特開2008−227803JP2008-227803

特許文献1に示すアレイスピーカ装置は、音声ビームが到達できないチャンネルに限り、オーディオ信号を仮想的に定位させて、音声ビームと仮想音源を知覚させる音とを排他的に出力しているが、定位感を向上させるために、音声ビームと仮想音源を知覚させる音とを両方同時に出力することが考えられる。   The array speaker device shown in Patent Document 1 is limited to channels in which an audio beam cannot reach, and the audio signal is virtually localized, and the audio beam and the sound that makes the virtual sound source be perceived are exclusively output. In order to improve the feeling, it is conceivable to output both the sound beam and the sound that makes the virtual sound source perceived simultaneously.

また、従来、コンテンツの音に音場効果を付与することが提案されている。音場効果とは、コンサートホール等の音響空間で発生する初期反射音及び後部残響音を模擬した音をコンテンツの音に重畳することで、部屋に居ながらにして実際のコンサートホール等の別の空間に居るような臨場感を聴者に体感させるものである。   Conventionally, it has been proposed to add a sound field effect to the sound of content. The sound field effect is the effect of superimposing early reflections and rear reverberation sounds generated in an acoustic space such as a concert hall on the sound of the content. It makes the listener experience the realism of being in a space.

ここで、初期反射音とは、音源から出力された音のうち、コンサートホールの室内の壁等に数回反射してから聴者に届く音であり、音源から聴者に直接届く直接音よりも遅れて聴者に届くものである。初期反射音は、後部残響音に比べて反射回数が少ないため、反射パターンが到来方向毎に異なる。従って、初期反射音は、周波数特性が到来方向毎に異なる。   Here, the initial reflected sound is the sound that is output from the sound source and that is reflected several times on the walls of the concert hall, etc., and reaches the listener, and is delayed from the direct sound that directly reaches the listener from the sound source. Reach the listener. Since the initial reflection sound has a smaller number of reflections than the rear reverberation sound, the reflection pattern is different for each direction of arrival. Therefore, the initial reflected sound has different frequency characteristics for each direction of arrival.

後部残響音とは、初期反射音よりも多くの回数でコンサートホールの室内の壁等に反射して聴者に届く音であり、初期反射音よりも遅れて聴者に届くものである。後部残響音は、初期反射音に比べて反射回数が多いため、反射パターンが到来方向によらず概ね一様である。従って、後部残響音は、到来方向によらず周波数成分が略同じである。以下、実際の初期反射音を模擬した音を単に初期反射音と称し、かつ実際の後部残響音を模擬した音を単に後部残響音と称す。   The rear reverberant sound is a sound that reaches the listener after being reflected on the walls of the concert hall more frequently than the initial reflected sound, and reaches the listener later than the initial reflected sound. Since the rear reverberant sound has a larger number of reflections than the initial reflected sound, the reflection pattern is substantially uniform regardless of the arrival direction. Therefore, the frequency components of the rear reverberation sound are substantially the same regardless of the arrival direction. Hereinafter, a sound simulating an actual early reflection sound is simply referred to as an initial reflection sound, and a sound simulating an actual rear reverberation sound is simply referred to as a rear reverberation sound.

しかし、指向性を有する音と仮想音源を知覚させる音との両方を同じチャンネルで出力するスピーカ装置において、初期反射音及び後部残響音を指向性のある音及び仮想音源を知覚させる音に重畳すると次の問題が生じる。   However, in a speaker device that outputs both sound having directivity and sound that causes a virtual sound source to be perceived on the same channel, when the initial reflected sound and the rear reverberation sound are superimposed on sound having a directivity and sound that causes the virtual sound source to be perceived The following problems arise:

仮想音源を知覚させる音は、到来方向毎に周波数特性が異なる初期反射音が重畳されると、仮想音源生成のために付加する頭部伝達関数の周波数特性が変化してしまうため、定位が不明確になる。また、指向性を有する音声ビームは、到来方向によらず略同じ周波数成分を有する後部残響音が重畳されると、各チャンネルのオーディオ信号が類似する傾向になるため、音像が結合してしまい、定位が不明確になる。   The sound that perceives the virtual sound source has a poor localization because the frequency characteristic of the head-related transfer function added to generate the virtual sound source changes when the initial reflected sound with different frequency characteristics for each direction of arrival is superimposed. Become clear. In addition, when the sound beam having directivity is superimposed on the rear reverberation sound having substantially the same frequency component regardless of the arrival direction, the audio signals of the respective channels tend to be similar, so that the sound images are combined, The localization is unclear.

そこで、本発明は、仮想音源を知覚させる音を出力し、かつ音場効果を付与する場合でも定位感を損なうことがないスピーカ装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a speaker device that outputs sound that makes a virtual sound source perceived and does not impair the sense of localization even when a sound field effect is applied.

本発明のスピーカ装置は、オーディオ信号が入力される入力部と、入力されたオーディオ信号に基づいて放音する第1放音部と、入力されたオーディオ信号に基づいて放音する第2放音部と、前記入力部に入力されたオーディオ信号に頭部伝達関数に基づくフィルタ処理を行って前記第1放音部に入力する定位付加部と、入力されたオーディオ信号に初期反射音の特性を付加する初期反射音付加部と、入力されたオーディオ信号に後部残響音の特性を付加する後部残響音付加部と、を備える。   The speaker device of the present invention includes an input unit to which an audio signal is input, a first sound emission unit that emits sound based on the input audio signal, and a second sound emission that emits sound based on the input audio signal. A localization adding unit that performs filtering on the audio signal input to the input unit based on a head-related transfer function and inputs the filtered signal to the first sound emitting unit, and an initial reflected sound characteristic of the input audio signal. An initial reflected sound adding unit for adding, and a rear reverberant adding unit for adding a characteristic of the reverberant sound to the input audio signal.

そして、前記初期反射音付加部は、前記第2放音部に入力されるオーディオ信号に前記初期反射音の特性を付加し、前記後部残響音付加部は、前記第1放音部に入力されるオーディオ信号に前記後部残響音の特性を付加する。   The initial reflected sound adding unit adds the characteristics of the initial reflected sound to the audio signal input to the second sound emitting unit, and the rear reverberant adding unit is input to the first sound emitting unit. The rear reverberation characteristic is added to the audio signal.

後部残響音付加部は、仮想音源を知覚させる音に初期反射音の特性を付加せず、第2放音部から出力される音のみに初期反射音の特性を付加する。従って、スピーカ装置は、到来方向毎に周波数特性が異なる初期反射音の特性の付加によって仮想音源を知覚させる音の周波数特性が変化することを防ぐ。これにより、仮想音源を知覚させる音は、頭部伝達関数の周波数特性が維持される。   The rear reverberation adding unit does not add the characteristic of the initial reflected sound to the sound perceived by the virtual sound source, and adds the characteristic of the initial reflected sound only to the sound output from the second sound emitting unit. Therefore, the speaker device prevents a change in the frequency characteristics of the sound that causes the virtual sound source to perceive due to the addition of the characteristics of the initial reflected sound having different frequency characteristics for each direction of arrival. Thereby, the frequency characteristic of the head-related transfer function is maintained for the sound that causes the virtual sound source to be perceived.

このように、本発明のスピーカ装置は、初期反射音及び後部残響音による音場効果を付与する場合でも、仮想音源を知覚させる音による定位感を損なうことがない。   Thus, the speaker device of the present invention does not impair the sense of localization due to the sound that causes the virtual sound source to be perceived even when the sound field effect is provided by the initial reflected sound and the rear reverberant sound.

また、スピーカ装置は、前記初期反射音付加部の初期反射音と、前記後部残響音付加部の後部残響音とのレベル比率を調整するレベル調整部、を備えてもよい。   The speaker device may further include a level adjusting unit that adjusts a level ratio between the initial reflected sound of the initial reflected sound adding unit and the rear reverberant sound of the rear reverberant sound adding unit.

これにより、初期反射音のレベルと後部残響音のレベルとを聴者の所望の比率にすることができる。   Thereby, the level of the initial reflection sound and the level of the rear reverberation sound can be set to a desired ratio of the listener.

また、前記オーディオ信号は、マルチチャンネルサラウンドサウンドのオーディオ信号であってもよい。   The audio signal may be a multi-channel surround sound audio signal.

これにより、スピーカ装置は、聴者を取り巻くようにオーディオ信号を仮想的に定位させつつ、音場効果を付与することができる。   Thereby, the speaker device can provide the sound field effect while virtually locating the audio signal so as to surround the listener.

また、前記第1放音部は、指向性を有する音を出力してもよい。例えば、スピーカ装置は、指向性を有する音として音声ビームを以下の構成で出力してもよい。前記第1放音部は、前記定位付加部のオーディオ信号が入力されるステレオスピーカからなり、前記第2放音部は、スピーカアレイと、前記入力部に入力されたオーディオ信号をそれぞれ遅延して前記スピーカアレイに分配する指向性制御部と、からなる態様であっても構わない。   Further, the first sound emitting unit may output a sound having directivity. For example, the speaker device may output an audio beam as a sound having directivity with the following configuration. The first sound emitting unit includes a stereo speaker to which the audio signal of the localization adding unit is input, and the second sound emitting unit delays the speaker array and the audio signal input to the input unit, respectively. A directivity control unit that distributes to the speaker array may be used.

この態様では、指向性を有する音として、以下のように音声ビームを出力する。複数のスピーカユニットからなるスピーカアレイは、指向性制御部により遅延されて分配されたオーディオ信号に基づいて放音する。指向性制御部は、複数のスピーカユニットから出力される音の位相が所定位置でそろうように、オーディオ信号を遅延制御する。その結果、複数のスピーカユニットからそれぞれ出力された音は、所定位置で強め合い、指向性を有する音声ビームとなる。   In this aspect, an audio beam is output as a sound having directivity as follows. A speaker array including a plurality of speaker units emits sound based on the audio signal delayed and distributed by the directivity control unit. The directivity control unit delay-controls the audio signal so that the phases of sounds output from the plurality of speaker units are aligned at predetermined positions. As a result, the sound output from each of the plurality of speaker units is strengthened at a predetermined position and becomes a sound beam having directivity.

定位付加部は、指向性を有する音によって聴者が音源を知覚した位置又はその近くの位置に、仮想音源を定位させるようにフィルタ処理を行う。その結果、スピーカ装置は、指向性を有する音だけを用いた場合又は仮想音源だけを用いた場合に比べて、定位感を向上させる。   The localization adding unit performs a filtering process so that the virtual sound source is localized at a position where the listener perceives the sound source by sound having directivity or a position near the position. As a result, the speaker device improves the feeling of localization compared to the case where only sound having directivity is used or the case where only a virtual sound source is used.

後部残響音付加部は、指向性を有する音に後部残響音の特性を付加せず、第1放音部から放音される仮想音源を知覚させる音のみに後部残響音の特性を付加する。従って、スピーカ装置は、指向性を有する音に後部残響音の特性を付加しないため、残響の中心部に引っ張られることにより指向性を有する音の定位が不明確になることを防ぐ。   The rear reverberation sound adding unit does not add the characteristic of the rear reverberation sound to the sound having directivity, and adds the characteristic of the rear reverberation sound only to the sound that perceives the virtual sound source emitted from the first sound emission unit. Therefore, since the speaker device does not add the characteristic of the rear reverberant sound to the sound having directivity, the localization of the sound having directivity is prevented from being unclear by being pulled to the center part of the reverberation.

本発明によれば、スピーカ装置は、音場効果を付与する場合であっても、仮想音源を知覚させる音に到来方向毎に周波数特性が異なる初期反射音の特性を付加しないため、頭部伝達関数の周波数特性が維持されて、定位感を損なうことがない。   According to the present invention, even when a sound field effect is applied, the speaker device does not add the characteristics of the initial reflected sound having different frequency characteristics for each direction of arrival to the sound perceived by the virtual sound source. The frequency characteristic of the function is maintained and the sense of localization is not impaired.

本実施形態に係るアレイスピーカ装置2を備えたAVシステム1を説明するための図である。It is a figure for demonstrating the AV system 1 provided with the array speaker apparatus 2 which concerns on this embodiment. 本実施形態に係るアレイスピーカ装置2及びサブウーファ3のブロック図の一部である。It is a part of block diagram of the array speaker apparatus 2 and the subwoofer 3 which concern on this embodiment. 初期反射音処理部22及び後部残響音処理部44のブロック図である。3 is a block diagram of an initial reflected sound processing unit 22 and a rear reverberation sound processing unit 44. FIG. コンサートホールで実測されたインパルス応答の例を示す模式図である。It is a schematic diagram which shows the example of the impulse response measured in the concert hall. 定位付加部42及び補正部51のブロック図である。4 is a block diagram of a localization adding unit 42 and a correction unit 51. FIG. アレイスピーカ装置2が出力する音を説明するための図である。It is a figure for demonstrating the sound which the array speaker apparatus 2 outputs. 本実施形態に係るアレイスピーカ装置2の変形例に係るスピーカセット2Aを説明するための図である。It is a figure for demonstrating the speaker set 2A which concerns on the modification of the array speaker apparatus 2 which concerns on this embodiment. スピーカセット2A及びサブウーファ3のブロック図の一部である。It is a part of block diagram of the speaker set 2A and the subwoofer 3.

本実施形態に係るアレイスピーカ装置2について、図1乃至図6を用いて説明する。図1は、アレイスピーカ装置2を備えたAVシステム1を説明するための図である。図2は、アレイスピーカ装置2及びサブウーファ3のブロック図の一部である。図3(A)は、初期反射音処理部22のブロック図であり、図3(B)は、後部残響音処理部44のブロック図である。図4は、コンサートホールで実測されたインパルス応答の例を示す模式図である。図5(A)は、定位付加部42のブロック図であり、図5(B)は、補正部51のブロック図である。図6は、アレイスピーカ装置2が出力する音を説明するための図である。   An array speaker device 2 according to the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram for explaining an AV system 1 including an array speaker device 2. FIG. 2 is a part of a block diagram of the array speaker device 2 and the subwoofer 3. FIG. 3A is a block diagram of the initial reflected sound processing unit 22, and FIG. 3B is a block diagram of the rear reverberation sound processing unit 44. FIG. 4 is a schematic diagram showing an example of the impulse response actually measured in the concert hall. FIG. 5A is a block diagram of the localization adding unit 42, and FIG. 5B is a block diagram of the correction unit 51. FIG. 6 is a diagram for explaining the sound output by the array speaker device 2.

AVシステム1は、アレイスピーカ装置2、サブウーファ3、及びテレビ4を備える。アレイスピーカ装置2は、サブウーファ3及びテレビ4に接続される。アレイスピーカ装置2は、テレビ4で再生される映像に応じたオーディオ信号や不図示のコンテンツプレーヤからコンテンツのオーディオ信号が入力される。アレイスピーカ装置2は、入力されたコンテンツのオーディオ信号に基づいて指向性を有する音声ビーム及び仮想音源を知覚させる音を出力し、さらにコンテンツの音に音場効果を付与するものである。   The AV system 1 includes an array speaker device 2, a subwoofer 3, and a television 4. The array speaker device 2 is connected to the subwoofer 3 and the television 4. The array speaker device 2 receives an audio signal corresponding to a video reproduced on the television 4 and a content audio signal from a content player (not shown). The array speaker device 2 outputs a sound beam having directivity and a sound that makes a virtual sound source perceived based on the audio signal of the input content, and further gives a sound field effect to the sound of the content.

まず、音声ビームと初期反射音の出力とについて説明する。アレイスピーカ装置2は、図1に示すように、例えば、直方体形状の筐体を備える。アレイスピーカ装置2の筐体は、聴者に対向する面に、例えば16個のスピーカユニット21A〜21Pと、ウーファ33L,33R(本発明の第1放音部に相当する。)とを備える。ただし、スピーカユニットは、16個に限らず、例えば8個等であってもよい。   First, the sound beam and the output of the initial reflected sound will be described. As shown in FIG. 1, the array speaker device 2 includes, for example, a rectangular parallelepiped housing. The housing of the array speaker device 2 includes, for example, 16 speaker units 21A to 21P and woofers 33L and 33R (corresponding to the first sound emission unit of the present invention) on the surface facing the listener. However, the number of speaker units is not limited to 16, and may be, for example, 8 or the like.

スピーカユニット21A〜21Pは、それぞれ一列に配置されている。スピーカユニット21A〜21Pは、聴者からアレイスピーカ装置2を視て左側から順に配置されている。ウーファ33Lは、スピーカユニット21Aからさらに左側に配置されている。ウーファ33Rは、スピーカユニット21Pのさらに右側に配置されている。   The speaker units 21A to 21P are each arranged in a line. The speaker units 21 </ b> A to 21 </ b> P are arranged in order from the left side when viewing the array speaker device 2 from the listener. The woofer 33L is disposed further to the left from the speaker unit 21A. The woofer 33R is disposed on the right side of the speaker unit 21P.

アレイスピーカ装置2は、図2に示すように、デコーダ10、及び指向性制御部20を備える。なお、スピーカユニット21A〜21Pと指向性制御部20との組は、本発明の第2放音部に相当する。   As shown in FIG. 2, the array speaker device 2 includes a decoder 10 and a directivity control unit 20. In addition, the group of the speaker units 21A to 21P and the directivity control unit 20 corresponds to the second sound emitting unit of the present invention.

デコーダ10は、DIR(;Digital audio I/F Receiver)11、ADC(;Analog to Digital Converter)12、及びHDMI(登録商標;High Definition Multimedia Interface)レシーバ13に接続されている。   The decoder 10 is connected to a DIR (; Digital audio I / F Receiver) 11, an ADC (; Analog to Digital Converter) 12, and an HDMI (registered trademark; High Definition Multimedia Interface) receiver 13.

DIR11は、光ケーブル又は同軸ケーブルで送信されたデジタルオーディオ信号が入力される。ADC12は、入力されたアナログ信号をデジタル信号に変換する。HDMIレシーバ13は、HDMI規格に適合したHDMI信号が入力される。   The DIR 11 receives a digital audio signal transmitted through an optical cable or a coaxial cable. The ADC 12 converts the input analog signal into a digital signal. The HDMI receiver 13 receives an HDMI signal that conforms to the HDMI standard.

デコーダ10は、AAC(登録商標)、Dolby Digital(登録商標)、DTS(登録商標)、MPEG−1/2、MPEG−2マルチチャンネル、又はMP3等多様なデータフォーマットをサポートしている。デコーダ10は、DIR11及びADC12から出力されたデジタルオーディオ信号を、マルチチャンネルオーディオ信号(FLチャンネル、FRチャンネル、Cチャンネル、SLチャンネル、及びSRチャンネルのデジタルオーディオ信号。以下、単にオーディオ信号と称す場合は、デジタルオーディオ信号を示すものとする。)に変換して出力する。デコーダ10は、HDMIレシーバ13が出力したHDMI信号(HDMI規格に適合する信号。)からオーディオデータを抽出して、オーディオ信号に復号して出力する。ただし、デコーダ10は、5チャンネルのオーディオ信号に限らず、7チャンネルのオーディオ信号等、様々なチャンネル数のオーディオ信号に変換することもできる。   The decoder 10 supports various data formats such as AAC (registered trademark), Dolby Digital (registered trademark), DTS (registered trademark), MPEG-1 / 2, MPEG-2 multichannel, or MP3. The decoder 10 converts the digital audio signals output from the DIR 11 and the ADC 12 into multi-channel audio signals (FL channel, FR channel, C channel, SL channel, and SR channel digital audio signals. Hereinafter, the audio signals are simply referred to as audio signals). , And a digital audio signal). The decoder 10 extracts audio data from the HDMI signal (a signal conforming to the HDMI standard) output from the HDMI receiver 13, decodes it into an audio signal, and outputs the audio signal. However, the decoder 10 is not limited to the 5-channel audio signal, and can also convert the audio signal into various channels such as a 7-channel audio signal.

アレイスピーカ装置2は、デコーダ10から出力されたオーディオ信号の帯域を分割して、高域(例えば200Hz以上)をスピーカユニット21A〜21Pに出力し、低域(例えば200Hz未満)をウーファ33L,33R及びサブウーファユニット72に出力するために、HPF14(14FL,14FR,14C,14SR,14SL)とLPF15(15FL,15FR,15C,15SR,15SL)とを備える。HPF14及びLPF15のカットオフ周波数は、スピーカユニット21A〜21Pの再生周波数の下限(200Hz)に合うように、それぞれ設定されている。   The array speaker device 2 divides the band of the audio signal output from the decoder 10, outputs the high frequency (for example, 200 Hz or more) to the speaker units 21A to 21P, and outputs the low frequency (for example, less than 200 Hz) to the woofers 33L and 33R. In addition, HPF 14 (14FL, 14FR, 14C, 14SR, 14SL) and LPF 15 (15FL, 15FR, 15C, 15SR, 15SL) are provided for output to subwoofer unit 72. The cut-off frequencies of the HPF 14 and the LPF 15 are set so as to match the lower limit (200 Hz) of the reproduction frequency of the speaker units 21A to 21P.

デコーダ10から出力された各チャンネルのオーディオ信号は、それぞれHPF14及びLPF15に入力される。HPF14は、入力されたオーディオ信号の高域成分(200Hz以上)を抽出して出力する。LPF15は、入力されたオーディオ信号の低域成分(200Hz未満)を抽出して出力する。   The audio signals of the respective channels output from the decoder 10 are input to the HPF 14 and the LPF 15 respectively. The HPF 14 extracts and outputs a high frequency component (200 Hz or more) of the input audio signal. The LPF 15 extracts and outputs a low frequency component (less than 200 Hz) of the input audio signal.

アレイスピーカ装置2は、図2に示すように、コンテンツの音に初期反射音の音場効果を付与するために、初期反射音処理部22を備える。HPF14から出力された各オーディオ信号は、初期反射音処理部22に入力される。初期反射音処理部22は、入力された各オーディオ信号に初期反射音のオーディオ信号を重畳してレベル調整部18(18FL,18FR,18C,18SR,18SL)に出力する。   As shown in FIG. 2, the array speaker device 2 includes an initial reflected sound processing unit 22 in order to add a sound field effect of the initial reflected sound to the sound of the content. Each audio signal output from the HPF 14 is input to the initial reflected sound processing unit 22. The initial reflected sound processing unit 22 superimposes the audio signal of the initial reflected sound on each input audio signal, and outputs it to the level adjusting unit 18 (18FL, 18FR, 18C, 18SR, 18SL).

より具体的には、初期反射音処理部22は、図3(A)に示すように、ゲイン調整部221と、初期反射音生成部222と、合成部223とを備える。初期反射音処理部22に入力された各オーディオ信号は、ゲイン調整部221と、合成部223とに入力される。ゲイン調整部221は、初期反射音と後部残響音とのレベル比率を調整するために、入力された各オーディオ信号のレベルと、ゲイン調整部441(図3(B)を参照。)に入力された各オーディオ信号のレベルとのレベル比率を調整して、レベル調整後の各オーディオ信号を初期反射音生成部222に出力する。   More specifically, the initial reflected sound processing unit 22 includes a gain adjusting unit 221, an initial reflected sound generating unit 222, and a synthesizing unit 223, as shown in FIG. Each audio signal input to the initial reflected sound processing unit 22 is input to the gain adjustment unit 221 and the synthesis unit 223. The gain adjustment unit 221 inputs the level of each input audio signal and the gain adjustment unit 441 (see FIG. 3B) in order to adjust the level ratio between the initial reflected sound and the rear reverberation sound. Then, the level ratio with each audio signal level is adjusted, and each audio signal after level adjustment is output to the initial reflected sound generation unit 222.

初期反射音生成部222は、入力された各オーディオ信号に基づいて初期反射音のオーディオ信号を生成する。初期反射音のオーディオ信号は、実際の初期反射音の到来方向と、当該初期反射音の遅延時間と、を反映するように生成される。   The initial reflected sound generation unit 222 generates an audio signal of the initial reflected sound based on each input audio signal. The audio signal of the initial reflected sound is generated so as to reflect the actual arrival direction of the initial reflected sound and the delay time of the initial reflected sound.

図4に示すように、実際の初期反射音は、直接音の発生(図4の模式図において時刻0の点)から所定時間(例えば300msec以内)経過するまで発生する。実際の初期反射音は、後部残響音に比べて、反射回数が少ないため、反射パターンが到来方向毎に異なる。従って、実際の初期反射音は、周波数特性が到来方向毎に異なる。   As shown in FIG. 4, the actual initial reflected sound is generated until a predetermined time (for example, within 300 msec) elapses from the generation of the direct sound (point of time 0 in the schematic diagram of FIG. 4). Since the actual initial reflected sound has a smaller number of reflections than the rear reverberation sound, the reflection pattern differs for each direction of arrival. Therefore, the actual initial reflected sound has different frequency characteristics for each direction of arrival.

このような初期反射音のオーディオ信号は、例えばFIRフィルタによって生成され、入力されたオーディオ信号に所定の係数を畳み込むことにより生成される。当該所定の係数は、例えば図4に示す実際の初期反射音のインパルス応答のサンプリングデータに基づいて設定される。そして、初期反射音生成部222が生成する初期反射音のオーディオ信号は、実際の初期反射音の到来方向に応じて、各チャンネルのオーディオ信号に振り分けられて出力される。また、初期反射音は、直接音(HPF14から合成部223に直接入力されるオーディオ信号に対応する。)から所定の時間(例えば300msec以内)経過するまで離散的に発生するように生成される。   The audio signal of such early reflection sound is generated by, for example, an FIR filter, and is generated by convolving a predetermined coefficient with the input audio signal. The predetermined coefficient is set based on sampling data of the impulse response of the actual initial reflected sound shown in FIG. 4, for example. Then, the audio signal of the initial reflection sound generated by the initial reflection sound generation unit 222 is distributed and output to the audio signal of each channel according to the actual direction of arrival of the initial reflection sound. The initial reflected sound is generated so as to be generated discretely until a predetermined time (for example, within 300 msec) elapses from the direct sound (corresponding to the audio signal directly input from the HPF 14 to the synthesizing unit 223).

初期反射音生成部222から出力された各オーディオ信号は、合成部223に入力される。合成部223は、チャンネル毎に、HPF14から入力されたオーディオ信号と、初期反射音生成部222から入力されたオーディオ信号とを合成したオーディオ信号をレベル調整部18に出力する。これにより、直接音(HPF14から合成部223に直接入力されるオーディオ信号に対応する。)には、初期反射音が重畳される。換言すれば、直接音には、初期反射音の特性が付加される。この初期反射音は、直接音と共に音声ビームとなって出力される。   Each audio signal output from the initial reflected sound generation unit 222 is input to the synthesis unit 223. The synthesizer 223 outputs an audio signal obtained by synthesizing the audio signal input from the HPF 14 and the audio signal input from the initial reflected sound generator 222 to the level adjuster 18 for each channel. As a result, the initial reflected sound is superimposed on the direct sound (corresponding to the audio signal directly input from the HPF 14 to the synthesis unit 223). In other words, the initial reflected sound characteristic is added to the direct sound. This initial reflected sound is output as a sound beam together with the direct sound.

レベル調整部18は、チャンネル毎に音声ビームのレベルを調整するために備えられる。レベル調整部18は、各オーディオ信号のレベルを調整して出力する。   The level adjusting unit 18 is provided for adjusting the level of the sound beam for each channel. The level adjusting unit 18 adjusts and outputs the level of each audio signal.

指向性制御部20は、レベル調整部18から出力された各オーディオ信号が入力される。指向性制御部20は、入力された各チャンネルのオーディオ信号をスピーカユニット21A〜21Pの数だけ分配し、それぞれ所定の遅延時間で遅延させる。遅延された各チャンネルのオーディオ信号は、不図示のDAC(;Digital to Analog Converter)でアナログオーディオ信号に変換された後、スピーカユニット21A〜21Pに入力される。スピーカユニット21A〜21Pは、入力された各チャンネルのオーディオ信号に基づいて放音する。   The directivity control unit 20 receives each audio signal output from the level adjustment unit 18. The directivity control unit 20 distributes the input audio signals of the respective channels by the number of the speaker units 21A to 21P, and delays them by a predetermined delay time. The delayed audio signal of each channel is converted into an analog audio signal by a not-shown DAC (Digital to Analog Converter), and then input to the speaker units 21A to 21P. The speaker units 21 </ b> A to 21 </ b> P emit sound based on the input audio signal of each channel.

スピーカユニット21A〜21Pのうち隣り合うスピーカユニットに入力されるオーディオ信号に与えられる遅延量の差が一定となるように指向性制御部20が遅延制御すると、スピーカユニット21A〜21Pから出力された各音は、それぞれ当該遅延量の差に応じた方向で位相を強めあう。その結果、音声ビームは、スピーカユニット21A〜21Pから所定方向に進む平行波として形成される。   When the directivity control unit 20 performs delay control so that a difference in delay amount given to an audio signal input to an adjacent speaker unit among the speaker units 21A to 21P is constant, each output from the speaker units 21A to 21P is performed. The sound strengthens the phase in a direction corresponding to the difference in the delay amount. As a result, the sound beam is formed as a parallel wave traveling in a predetermined direction from the speaker units 21A to 21P.

指向性制御部20は、スピーカユニット21A〜21Pから出力される各音の位相が所定位置でそろうような遅延制御も可能である。この場合、スピーカユニット21A〜21Pから出力された各音は、当該所定位置を焦点とする音声ビームとなる。   The directivity control unit 20 can also perform delay control so that the phases of the sounds output from the speaker units 21A to 21P are aligned at predetermined positions. In this case, each sound output from the speaker units 21 </ b> A to 21 </ b> P becomes an audio beam having the predetermined position as a focal point.

なお、アレイスピーカ装置2は、指向性制御部20の前段又は後段に、チャンネル毎にイコライザを備え、各オーディオ信号の周波数特性を調整してもよい。   The array speaker device 2 may be provided with an equalizer for each channel before or after the directivity control unit 20 to adjust the frequency characteristics of each audio signal.

LPF15から出力されたオーディオ信号は、ウーファ33L又は33R及びサブウーファユニット72に入力される。   The audio signal output from the LPF 15 is input to the woofer 33L or 33R and the subwoofer unit 72.

アレイスピーカ装置2は、音声ビームの帯域以外のオーディオ信号(200Hz未満)を、さらにウーファ33L,33R用の帯域(例えば100Hz以上)とサブウーファユニット72用の帯域(例えば100Hz未満)とに分割するために、HPF30(30LL,30R)とLPF31(31L,31R)とを備える。HPF30及びLPF31のカットオフ周波数は、サブウーファユニット72の再生周波数の上限(100Hz)に合うように、それぞれ設定される。   The array speaker device 2 divides an audio signal (less than 200 Hz) other than the audio beam band into a band for the woofers 33L and 33R (for example, 100 Hz or more) and a band for the subwoofer unit 72 (for example, less than 100 Hz). HPF30 (30LL, 30R) and LPF31 (31L, 31R) are provided. The cut-off frequencies of the HPF 30 and the LPF 31 are set so as to match the upper limit (100 Hz) of the reproduction frequency of the subwoofer unit 72, respectively.

LPF15(15FL,15C,15SL)から出力されたオーディオ信号(200Hz未満)は、加算部16によって加算される。加算部16によって加算されたオーディオ信号は、HPF30L及びLPF31Lに入力される。HPF30Lは、入力されたオーディオ信号の高域成分(100Hz以上)を抽出して出力する。LPF31Lは、入力されたオーディオ信号の低域成分(100Hz未満)を抽出して出力する。HPF30Lから出力されたオーディオ信号は、レベル調整部34L、加算部32L及び不図示のDACを介してウーファ33Lに入力される。LPF31Lから出力されたオーディオ信号は、レベル調整部70F、加算部71及び不図示のDACを介してサブウーファ3のサブウーファユニット72に入力される。レベル調整部34L及びレベル調整部70Fは、音声ビームと、ウーファ33Lから出力される音と、サブウーファユニット72から出力される音とのレベル比を調整するために、入力されたオーディオ信号のレベルを調整して出力する。   Audio signals (less than 200 Hz) output from the LPF 15 (15FL, 15C, 15SL) are added by the adder 16. The audio signal added by the adding unit 16 is input to the HPF 30L and the LPF 31L. The HPF 30L extracts and outputs a high frequency component (100 Hz or more) of the input audio signal. The LPF 31L extracts and outputs a low frequency component (less than 100 Hz) of the input audio signal. The audio signal output from the HPF 30L is input to the woofer 33L via the level adjustment unit 34L, the addition unit 32L, and a DAC (not shown). The audio signal output from the LPF 31L is input to the subwoofer unit 72 of the subwoofer 3 via the level adjustment unit 70F, the addition unit 71, and the DAC (not illustrated). The level adjuster 34L and the level adjuster 70F adjust the level of the input audio signal in order to adjust the level ratio of the sound beam, the sound output from the woofer 33L, and the sound output from the subwoofer unit 72. Adjust and output.

LPF15(15FR,15C,15SR)から出力されたオーディオ信号は、加算部17によって加算される。加算部17によって加算されたオーディオ信号は、HPF30R及びLPF31Rに入力される。HPF30Rは、入力されたオーディオ信号の高域成分(100Hz以上)を抽出して出力する。LPF31Rは、入力されたオーディオ信号の低域成分(100Hz未満)を抽出して出力する。HPF30Rから出力されたオーディオ信号は、レベル調整部34R、加算部32R、及び不図示のDACを介してウーファ33Rに入力される。LPF31Rから出力されたオーディオ信号は、レベル調整部70G、加算部71及び不図示のDACを介してサブウーファユニット72に入力される。レベル調整部34R及びレベル調整部70Gは、音声ビームと、ウーファ33Rから出力される音と、サブウーファユニット72から出力される音とのレベル比を調整するために、入力されたオーディオ信号のレベルを調整して出力する。   The audio signal output from the LPF 15 (15FR, 15C, 15SR) is added by the adding unit 17. The audio signal added by the adding unit 17 is input to the HPF 30R and the LPF 31R. The HPF 30R extracts and outputs a high frequency component (100 Hz or more) of the input audio signal. The LPF 31R extracts and outputs a low frequency component (less than 100 Hz) of the input audio signal. The audio signal output from the HPF 30R is input to the woofer 33R via the level adjustment unit 34R, the addition unit 32R, and a DAC (not shown). The audio signal output from the LPF 31R is input to the subwoofer unit 72 via the level adjustment unit 70G, the addition unit 71, and a DAC (not shown). The level adjustment unit 34R and the level adjustment unit 70G adjust the level of the input audio signal in order to adjust the level ratio of the sound beam, the sound output from the woofer 33R, and the sound output from the subwoofer unit 72. Adjust and output.

以上のように、アレイスピーカ装置2は、スピーカユニット21A〜21Pから初期反射音が重畳された音声ビームをチャンネル毎に出力しつつ、音声ビームの帯域以外の音(200Hz未満)をウーファ33L,33R及びサブウーファユニット72から出力する。   As described above, the array speaker device 2 outputs the sound beam on which the initial reflected sound is superimposed from the speaker units 21A to 21P for each channel, and outputs sound (less than 200 Hz) other than the sound beam band to the woofers 33L and 33R. And output from the subwoofer unit 72.

なお、HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのカットオフ周波数は、HPF14FL、HPF14FR、HPF14C、HPF14SL、およびHPF14SRのカットオフ周波数と同一にしてもよい。また、残響音処理部44の前段においては、HPF40FL、HPF40FR、HPF40C、HPF40SL、およびHPF40SRのみ備える態様として、低域をサブウーファ3に出力させないようにしてもよい。   The cutoff frequency of HPF40FL, HPF40FR, HPF40C, HPF40SL, and HPF40SR may be the same as the cutoff frequency of HPF14FL, HPF14FR, HPF14C, HPF14SL, and HPF14SR. In addition, in a stage preceding the reverberation sound processing unit 44, as a mode including only the HPF 40FL, HPF 40FR, HPF 40C, HPF 40SL, and HPF 40SR, the low range may not be output to the subwoofer 3.

次に、仮想音源の定位と後部残響音の出力とについて説明する。アレイスピーカ装置2は、図2に示すように、後部残響音処理部44、定位付加部42、クロストークキャンセル処理部50、及び遅延処理部60L,60Rを備える。   Next, localization of the virtual sound source and output of the rear reverberation sound will be described. As shown in FIG. 2, the array speaker device 2 includes a rear reverberation processing unit 44, a localization adding unit 42, a crosstalk cancellation processing unit 50, and delay processing units 60L and 60R.

アレイスピーカ装置2は、デコーダ10から出力されたオーディオ信号の帯域を分割して、高域(例えば100Hz以上)をウーファ33L,33Rに出力し、低域(例えば100Hz未満)をサブウーファユニット72に出力するために、HPF40(40FL,40FR,40C,40SR,40SL)とLPF41(41FL,41FR,41C,41SR,41SL)とを備える。HPF40及びLPF41のカットオフ周波数は、サブウーファユニット72の再生周波数の上限(100Hz)に合うように、それぞれ設定されている。   The array speaker device 2 divides the band of the audio signal output from the decoder 10, outputs the high frequency (for example, 100 Hz or more) to the woofers 33 </ b> L and 33 </ b> R, and outputs the low frequency (for example, less than 100 Hz) to the subwoofer unit 72. In order to do so, HPF 40 (40FL, 40FR, 40C, 40SR, 40SL) and LPF 41 (41FL, 41FR, 41C, 41SR, 41SL) are provided. The cutoff frequencies of the HPF 40 and the LPF 41 are set so as to match the upper limit (100 Hz) of the reproduction frequency of the subwoofer unit 72, respectively.

デコーダ10から出力された各チャンネルのオーディオ信号は、それぞれHPF40及びLPF41に入力される。HPF40は、入力されたオーディオ信号の高域成分(100Hz以上)を抽出して出力する。LPF41は、入力されたオーディオ信号の低域成分(100Hz未満)を抽出して出力する。   The audio signals of each channel output from the decoder 10 are input to the HPF 40 and the LPF 41, respectively. The HPF 40 extracts and outputs a high frequency component (100 Hz or more) of the input audio signal. The LPF 41 extracts and outputs a low frequency component (less than 100 Hz) of the input audio signal.

アレイスピーカ装置2は、ウーファ33L,33Rから出力される音とサブウーファユニット72から出力される音とのレベル比を調整するために、レベル調整部70A〜70Eを備える。   The array speaker device 2 includes level adjusting units 70A to 70E in order to adjust the level ratio between the sound output from the woofers 33L and 33R and the sound output from the subwoofer unit 72.

LPF41から出力された各オーディオ信号は、レベル調整部70A〜70Eによってレベルが調整される。レベル調整部70A〜70Eによってレベルが調整された各オーディオ信号は、それぞれ加算部71で加算される。加算部71で加算されたオーディオ信号は、不図示のDACを介してサブウーファユニット72に入力される。   The level of each audio signal output from the LPF 41 is adjusted by the level adjusting units 70A to 70E. The audio signals whose levels are adjusted by the level adjusting units 70A to 70E are added by the adding unit 71, respectively. The audio signal added by the adder 71 is input to the subwoofer unit 72 via a DAC (not shown).

HPF40から出力された各オーディオ信号は、後部残響音処理部44に入力される。後部残響音処理部44は、入力された各オーディオ信号に後部残響音のオーディオ信号を重畳してレベル調整部43(43FL,43FR,43C,43SR,43SL)に出力する。   Each audio signal output from the HPF 40 is input to the rear reverberation processing unit 44. The rear reverberation sound processing unit 44 superimposes the audio signal of the rear reverberation sound on each input audio signal and outputs it to the level adjustment unit 43 (43FL, 43FR, 43C, 43SR, 43SL).

より具体的には、後部残響音処理部44は、図3(B)に示すように、ゲイン調整部441と、後部残響音生成部442と、合成部443とを備える。後部残響音処理部44に入力された各オーディオ信号は、ゲイン調整部441と、合成部443とに入力される。ゲイン調整部441は、初期反射音と後部残響音とのレベル比率を調整するために、入力された各オーディオ信号のレベルと、初期反射音処理部22のゲイン調整部221に入力された各オーディオ信号のレベルとのレベル比率を調整して、レベル調整後の各オーディオ信号を後部残響音生成部442に出力する。   More specifically, the rear reverberation processing unit 44 includes a gain adjustment unit 441, a rear reverberation generation unit 442, and a synthesis unit 443, as shown in FIG. Each audio signal input to the rear reverberation processing unit 44 is input to the gain adjustment unit 441 and the synthesis unit 443. The gain adjusting unit 441 adjusts the level ratio between the initial reflected sound and the rear reverberant sound, and the level of each input audio signal and each audio input to the gain adjusting unit 221 of the initial reflected sound processing unit 22. The level ratio with the signal level is adjusted, and each audio signal after level adjustment is output to the rear reverberation sound generation unit 442.

後部残響音生成部442は、入力された各オーディオ信号に基づいて後部残響音のオーディオ信号を生成する。   The rear reverberation sound generation unit 442 generates an audio signal of the rear reverberation sound based on each input audio signal.

図4に示すように、実際の後部残響音は、初期反射音の後に所定時間(例えば2秒間)発生する。実際の後部残響音は、初期反射音に比べて反射回数が多いため、反射パターンが到来方向によらず概ね一様である。従って、後部残響音は、到来方向によらず周波数成分が略同じである。   As shown in FIG. 4, the actual rear reverberation sound is generated for a predetermined time (for example, 2 seconds) after the initial reflection sound. Since the actual rear reverberation sound has a larger number of reflections than the initial reflection sound, the reflection pattern is substantially uniform regardless of the direction of arrival. Therefore, the frequency components of the rear reverberation sound are substantially the same regardless of the arrival direction.

後部残響音生成部442は、このような後部残響音を生成するために、例えば、コムフィルタ及びオールパスフィルタの巡回フィルタ(IIRフィルタ)を多段に組み合わせた構成をチャンネル毎に備える。各フィルタの係数は、実際の後部残響音の特性(直接音からの遅延時間、後部残響音の長さ及び後部残響音の長さに対する減衰量)となるように、設定される。例えば、後部残響音は、初期反射音生成部222で生成される初期反射音の発生時間(直接音発生から300msec)経過後に発生するように生成される。これにより、後部残響音生成部442は、例えば、直接音発生から300msec経過後、かつ2,000msec経過するまで後部残響音のオーディオ信号をチャンネル毎に生成して合成部443に出力する。なお、後部残響音生成部442はIIRフィルタにて実現する例を示したが、FIRフィルタを用いても実現可能である。   The rear reverberation generator 442 includes, for each channel, a configuration in which, for example, comb filters and all-pass recursive filters (IIR filters) are combined in multiple stages in order to generate such rear reverberation. The coefficient of each filter is set so as to have the characteristics of the actual rear reverberation sound (the delay time from the direct sound, the length of the rear reverberation sound, and the amount of attenuation with respect to the length of the rear reverberation sound). For example, the rear reverberant sound is generated so as to be generated after the generation time of the initial reflected sound generated by the initial reflected sound generating unit 222 (300 msec from the direct sound generation) has elapsed. Accordingly, the rear reverberation sound generation unit 442 generates an audio signal of the rear reverberation sound for each channel, for example, after 300 msec from the direct sound generation and 2,000 msec elapses, and outputs the audio signal to the synthesis unit 443. Although the example in which the rear reverberation sound generation unit 442 is realized by an IIR filter has been shown, it can also be realized by using an FIR filter.

後部残響音生成部442から出力された各オーディオ信号は、合成部443に入力される。合成部443は、図2及び図3(B)に示すように、HPF40から入力された各オーディオ信号に、後部残響音生成部442から入力された各オーディオ信号を合成し、合成された各オーディオ信号をレベル調整部43に出力する。これにより、直接音(HPF40から合成部443に直接入力されるオーディオ信号に対応する。)には、後部残響音が重畳される。換言すれば、直接音には、後部残響音の特性が付加される。この後部残響音は、仮想音源を知覚させる音と共に、ウーファ33L,33Rから出力される。   Each audio signal output from the rear reverberation sound generation unit 442 is input to the synthesis unit 443. As shown in FIGS. 2 and 3B, the synthesis unit 443 synthesizes each audio signal input from the rear reverberation sound generation unit 442 with each audio signal input from the HPF 40, and combines each audio signal The signal is output to the level adjustment unit 43. Thereby, the rear reverberation sound is superimposed on the direct sound (corresponding to the audio signal directly input from the HPF 40 to the synthesis unit 443). In other words, the characteristic of the rear reverberant sound is added to the direct sound. The rear reverberation sound is output from the woofers 33L and 33R together with the sound that makes the virtual sound source be perceived.

レベル調整部43は、チャンネル毎に仮想音源を知覚させる音のレベルを調整するために、入力された各オーディオ信号のレベルを調整して定位付加部42に出力する。   The level adjustment unit 43 adjusts the level of each input audio signal and outputs it to the localization adding unit 42 in order to adjust the level of the sound that causes the virtual sound source to be perceived for each channel.

定位付加部42は、入力された各オーディオ信号を仮想の音源位置に定位させる処理を行う。オーディオ信号を仮想の音源位置に定位させるためには、所定位置と聴者の耳との間の伝達関数を示す頭部伝達関数(以下、HRTFと称す。)を用いる。   The localization adding unit 42 performs processing for localizing each input audio signal to a virtual sound source position. In order to localize an audio signal to a virtual sound source position, a head-related transfer function (hereinafter referred to as HRTF) indicating a transfer function between a predetermined position and a listener's ear is used.

HRTFは、ある位置に設置した仮想スピーカからそれぞれ左右の耳に至る音の大きさ、到達時間、及び周波数特性等を表現したインパルス応答である。オーディオ信号にHRTFを付与してウーファ33L(又はウーファ33R)から放音することにより、聴者は、仮想スピーカから放音されたように知覚する。   The HRTF is an impulse response that expresses the volume, arrival time, frequency characteristics, and the like of the sound from the virtual speaker installed at a certain position to the left and right ears. By giving HRTF to the audio signal and emitting sound from the woofer 33L (or the woofer 33R), the listener perceives it as being emitted from the virtual speaker.

定位付加部42は、図5(A)に示すように、チャンネル毎にHRTFのインパルス応答を畳み込むためのフィルタ421L〜425L及びフィルタ421R〜425Rを備える。   As shown in FIG. 5A, the localization adding unit 42 includes filters 421L to 425L and filters 421R to 425R for convolving the HRTF impulse response for each channel.

FLチャンネルのオーディオ信号(HPF40FLから出力されたオーディオ信号)は、フィルタ421Lと、421Rとに入力される。フィルタ421Lは、FLチャンネルのオーディオ信号に、聴者の左前方の仮想音源VSFL(図6を参照。)の位置から左耳に至る経路のHRTFを付与する。フィルタ421Rは、FLチャンネルのオーディオ信号に、仮想音源VSFLの位置から右耳に至る経路のHRTFを付与する。   The FL channel audio signal (the audio signal output from the HPF 40FL) is input to the filters 421L and 421R. The filter 421L applies an HRTF of a path from the position of the virtual sound source VSFL (see FIG. 6) on the left front of the listener to the left ear to the FL channel audio signal. The filter 421R adds an HRTF of a path from the position of the virtual sound source VSFL to the right ear to the FL channel audio signal.

フィルタ422Lは、聴者の右前方の仮想音源VSFRの位置から聴者の左耳に至る経路のHRTFをFRチャンネルのオーディオ信号に付与する。フィルタ422Rは、仮想音源VSFRの位置から右耳に至る経路のHRTFをFRチャンネルのオーディオ信号に付与する。   The filter 422L adds the HRTF of the route from the position of the virtual sound source VSFR in front of the listener to the left ear of the listener to the audio signal of the FR channel. The filter 422R adds the HRTF of the path from the position of the virtual sound source VSFR to the right ear to the audio signal of the FR channel.

フィルタ423L〜425Lは、C,SL,SRチャンネルに応じた仮想音源VSC,VSSL,VSSRの位置から聴者の左耳に至る経路のHRTFをC,SL,SRチャンネルのオーディオ信号に付与する。フィルタ423R〜425Rは、C,SL,SRチャンネルに応じた仮想音源VSC,VSSL,VSSRの位置から聴者の右耳に至る経路のHRTFをC,SL,SRチャンネルのオーディオ信号に付与する。   The filters 423L to 425L add the HRTF of the path from the position of the virtual sound source VSC, VSSL, VSSR corresponding to the C, SL, SR channel to the left ear of the listener to the audio signal of the C, SL, SR channel. The filters 423R to 425R add the HRTF of the path from the position of the virtual sound source VSC, VSSL, VSSR corresponding to the C, SL, SR channel to the right ear of the listener to the audio signal of the C, SL, SR channel.

そして、加算部426Lは、フィルタ421L〜425Lを出力したオーディオ信号を合成して、オーディオ信号VLとしてクロストークキャンセル処理部50に出力する。加算部426Rは、フィルタ421R〜425Rを出力したオーディオ信号を合成して、オーディオ信号VRとしてクロストークキャンセル処理部50に出力する。   Then, the adding unit 426L synthesizes the audio signals output from the filters 421L to 425L, and outputs the synthesized audio signal to the crosstalk cancellation processing unit 50 as an audio signal VL. The adder 426R synthesizes the audio signals output from the filters 421R to 425R, and outputs the synthesized audio signal VR to the crosstalk cancellation processing unit 50.

クロストークキャンセル処理部50は、ウーファ33Lから放音され右耳に至るクロストークを打消し、かつウーファ33Lから放音され左耳に至る直接音をフラットに聞こえるように、ウーファ33L及びウーファ33Rに入力される各オーディオ信号の周波数特性を変更する。同様に、クロストークキャンセル処理部50は、ウーファ33Rから放音され左耳に至るクロストークを打消し、かつウーファ33Rから放音され右耳に至る直接音をフラットに聞こえるように、ウーファ33L及びウーファ33Rに入力される各オーディオ信号の周波数特性を変更する。   The crosstalk cancellation processing unit 50 cancels the crosstalk that is emitted from the woofer 33L and reaches the right ear, and the woofer 33L and the woofer 33R so that the direct sound that is emitted from the woofer 33L and reaches the left ear can be heard flat. Change the frequency characteristics of each input audio signal. Similarly, the crosstalk cancellation processing unit 50 cancels the crosstalk that is emitted from the woofer 33R and reaches the left ear, and so that the direct sound that is emitted from the woofer 33R and reaches the right ear can be heard flat. The frequency characteristic of each audio signal input to the woofer 33R is changed.

より具体的には、クロストークキャンセル処理部50は、補正部51及び合成部52L,52Rを用いて処理を行う。   More specifically, the crosstalk cancellation processing unit 50 performs processing using the correction unit 51 and the combining units 52L and 52R.

補正部51は、図5(B)に示すように、ダイレクト補正部511L,511R及びクロス補正部512L,512Rを備えている。オーディオ信号VLは、ダイレクト補正部511L及びクロス補正部512Lに入力される。オーディオ信号VRは、ダイレクト補正部511R及びクロス補正部512Rに入力される。   As shown in FIG. 5B, the correction unit 51 includes direct correction units 511L and 511R and cross correction units 512L and 512R. The audio signal VL is input to the direct correction unit 511L and the cross correction unit 512L. The audio signal VR is input to the direct correction unit 511R and the cross correction unit 512R.

ダイレクト補正部511Lは、ウーファ33Lから放音される音が左耳付近で放音されたように聴者に知覚させる処理を行う。ダイレクト補正部511Lは、ウーファ33Lから出力された音が左耳の位置でフラットに聞こえるようなフィルタ係数が設定されている。ダイレクト補正部511Lは、入力されたオーディオ信号VLを補正して、オーディオ信号VLDを出力する。   The direct correction unit 511L performs processing to make the listener perceive that the sound emitted from the woofer 33L is emitted near the left ear. In the direct correction unit 511L, a filter coefficient is set such that the sound output from the woofer 33L can be heard flat at the position of the left ear. The direct correction unit 511L corrects the input audio signal VL and outputs an audio signal VLD.

クロス補正部512Rは、合成部52Lとの組で、ウーファ33Rから左耳に回り込む音の逆相の音をウーファ33Lから出力して左耳の位置で音圧を打ち消すことにより、ウーファ33Rの音が左耳に聞こえるのを抑制する。また、クロス補正部512Rは、ウーファ33Lから放音される音が左耳付近で放音されたように聴者に知覚させる処理を行う。クロス補正部512Rは、ウーファ33Rから出力された音が左耳の位置で聞こえなくなるようなフィルタ係数が設定されている。クロス補正部512Rは、入力されたオーディオ信号VRを補正して、オーディオ信号VRCを出力する。   The cross correction unit 512R, in combination with the synthesizing unit 52L, outputs from the woofer 33L a sound having a phase opposite to that from the woofer 33R to cancel the sound pressure at the position of the left ear, thereby canceling the sound of the woofer 33R. Is suppressed from being heard in the left ear. In addition, the cross correction unit 512R performs a process of making the listener perceive that the sound emitted from the woofer 33L is emitted near the left ear. The cross correction unit 512R is set with a filter coefficient that prevents the sound output from the woofer 33R from being heard at the position of the left ear. The cross correction unit 512R corrects the input audio signal VR and outputs an audio signal VRC.

合成部52Lは、オーディオ信号VRCを逆相にして、オーディオ信号VLDに合成する。   The synthesizer 52L synthesizes the audio signal VRC with the audio signal VLD in reverse phase.

ダイレクト補正部511Rは、ウーファ33Rから放音される音が右耳付近で放音されたように聴者に知覚させる処理を行う。ダイレクト補正部511Rは、ウーファ33Rから出力された音が右耳の位置でフラットに聞こえるようなフィルタ係数が設定されている。ダイレクト補正部511Rは、入力されたオーディオ信号VRを補正して、オーディオ信号VRDを出力する。   The direct correction unit 511R performs processing to make the listener perceive that the sound emitted from the woofer 33R is emitted near the right ear. In the direct correction unit 511R, a filter coefficient is set so that the sound output from the woofer 33R can be heard flat at the position of the right ear. The direct correction unit 511R corrects the input audio signal VR and outputs an audio signal VRD.

クロス補正部512Lは、合成部52Rとの組で、ウーファ33Lから右耳に回り込む音の逆相の音をウーファ33Rから出力して右耳の位置で音圧を打ち消すことにより、ウーファ33Lの音が右耳に聞こえるのを抑制する。また、クロス補正部512Lは、ウーファ33Rから放音される音が右耳付近で放音されたように聴者に知覚させる処理を行う。クロス補正部512Lは、ウーファ33Lから出力された音が右耳の位置で聞こえなくなるようなフィルタ係数が設定されている。クロス補正部512Lは、入力されたオーディオ信号VLを補正して、オーディオ信号VLCを出力する。   The cross correction unit 512L, in combination with the synthesis unit 52R, outputs from the woofer 33R a sound having a phase opposite to that from the woofer 33L to cancel the sound pressure at the position of the right ear, thereby canceling the sound of the woofer 33L. Is suppressed from being heard in the right ear. In addition, the cross correction unit 512L performs a process of making the listener perceive that the sound emitted from the woofer 33R is emitted near the right ear. The cross correction unit 512L is set with a filter coefficient that prevents the sound output from the woofer 33L from being heard at the position of the right ear. The cross correction unit 512L corrects the input audio signal VL and outputs an audio signal VLC.

合成部52Rは、オーディオ信号VLCを逆相にして、オーディオ信号VRDに合成する。   The synthesizer 52R synthesizes the audio signal VLC with the audio signal VLC in reverse phase.

合成部52Lから出力されたオーディオ信号は、遅延処理部60Lに入力される。オーディオ信号は、遅延処理部60Lによって所定時間遅延されてレベル調整部61Lに入力される。合成部52Rから出力されたオーディオ信号は、遅延処理部60Rに入力される。遅延処理部60Rは、遅延処理部60Lと同じ遅延時間でオーディオ信号を遅延させる。   The audio signal output from the synthesis unit 52L is input to the delay processing unit 60L. The audio signal is delayed by a predetermined time by the delay processing unit 60L and input to the level adjusting unit 61L. The audio signal output from the combining unit 52R is input to the delay processing unit 60R. The delay processing unit 60R delays the audio signal by the same delay time as the delay processing unit 60L.

遅延処理部60L,60Rによる遅延時間は、音声ビーム及び仮想音源を知覚させる音が同一タイミングで出力されないように設定される。これにより、音声ビームの形成は、仮想音源を知覚される音に阻害されにくくなる。なお、アレイスピーカ装置2は、指向性制御部20の後段にチャンネル毎に遅延処理部を備え、音声ビームを遅延させることにより、音声ビームが仮想音源を知覚させる音を阻害しないようにする態様であっても構わない。   The delay times by the delay processing units 60L and 60R are set so that the sound beam and the sound that perceives the virtual sound source are not output at the same timing. Thereby, the formation of the sound beam is less likely to be hindered by the sound perceived by the virtual sound source. The array speaker device 2 includes a delay processing unit for each channel after the directivity control unit 20 and delays the sound beam so that the sound beam does not disturb the sound that causes the virtual sound source to be perceived. It does not matter.

レベル調整部61L,61Rは、全チャンネルの仮想音源を知覚させる音のレベルをまとめて調整するために備えられる。レベル調整部61L,61Rは、遅延処理部60L,60Rで遅延された各オーディオ信号のレベルを調整する。レベル調整部61L,61Rによってレベルが調整された各オーディオ信号は、加算部32L,32Rを介して、ウーファ33L,33Rに入力される。   The level adjusters 61L and 61R are provided to collectively adjust the sound levels that cause the virtual sound sources of all channels to be perceived. The level adjusters 61L and 61R adjust the level of each audio signal delayed by the delay processors 60L and 60R. The audio signals whose levels are adjusted by the level adjusters 61L and 61R are input to the woofers 33L and 33R via the adders 32L and 32R.

加算部32L,32Rにはスピーカユニット21A〜21Pで出力される音声ビームの帯域外(200Hz未満)のオーディオ信号が入力されるため、音声ビームの帯域外の音と、仮想音源を定位させる音とは、ウーファ33L,33Rで出力される。   Since the audio signals outside the audio beam band (less than 200 Hz) output from the speaker units 21A to 21P are input to the adders 32L and 32R, the sound outside the audio beam band and the sound that localizes the virtual sound source Is output by the woofers 33L and 33R.

以上のように、アレイスピーカ装置2は、後部残響音のオーディオ信号を重畳した各チャンネルのオーディオ信号を仮想の音源位置に定位させる。   As described above, the array speaker device 2 localizes the audio signal of each channel on which the audio signal of the rear reverberation sound is superimposed at the virtual sound source position.

次に、アレイスピーカ装置2が生成する音場について図6を用いて説明する。図6において、白抜き矢印は、アレイスピーカ装置2から出力される音声ビームの経路を示し、複数の円弧は、アレイスピーカ装置2から出力される仮想音源を知覚する音を示す。また、図6において、星印は、音声ビームが生成する音源の位置及び仮想音源の位置を示す。   Next, the sound field generated by the array speaker device 2 will be described with reference to FIG. In FIG. 6, the white arrow indicates the path of the sound beam output from the array speaker device 2, and the plurality of arcs indicate sound that perceives the virtual sound source output from the array speaker device 2. In FIG. 6, the asterisk indicates the position of the sound source generated by the sound beam and the position of the virtual sound source.

アレイスピーカ装置2は、図6に示すように、入力されたオーディオ信号のチャンネル数に従って、音声ビームを5本出力する。Cチャンネルのオーディオ信号は、例えば、焦点位置がアレイスピーカ装置2の後方に設定されるようにディレイ制御される。すると、聴者は、Cチャンネルのオーディオ信号の音源SCが聴者の前方にあると知覚する。   As shown in FIG. 6, the array speaker device 2 outputs five sound beams according to the number of channels of the input audio signal. For example, the C channel audio signal is subjected to delay control such that the focal position is set behind the array speaker device 2. Then, the listener perceives that the sound source SC of the C channel audio signal is in front of the listener.

FL,FRチャンネルのオーディオ信号は、例えば、音声ビームが聴者の左前方の壁及び聴者の右前方の壁で焦点を結ぶようにそれぞれディレイ制御される。FL,FRチャンネルのオーディオ信号に基づく各音声ビームは、部屋Rの壁で一度反射して聴者の位置に到達する。すると、聴者は、FL,FRチャンネルのオーディオ信号の音源SFL,SFRが聴者の左前方の壁及び右前方の壁にあると知覚する。   The audio signals of the FL and FR channels are subjected to delay control so that, for example, the sound beam is focused on the left front wall of the listener and the right front wall of the listener. Each sound beam based on the audio signals of the FL and FR channels is reflected once by the wall of the room R and reaches the position of the listener. Then, the listener perceives that the sound sources SFL and SFR of the audio signals of the FL and FR channels are on the left front wall and the right front wall of the listener.

SL,SRチャンネルのオーディオ信号は、例えば、音声ビームが聴者の左横の壁及び右横の壁に向かうようにそれぞれディレイ制御される。SL,SRチャンネルのオーディオ信号に基づく各音声ビームは、部屋Rの壁に反射して聴者の左後方の壁及び聴者の右後方の壁に到達する。各音声ビームは、聴者の左後方の壁及び聴者の右後方の壁で再度反射して、それぞれ聴者の位置に到達する。すると、聴者は、SL,SRチャンネルのオーディオ信号の音源VSSL,VSSRが聴者の左後方の壁及び聴者の右後方の壁にあると知覚する。   The SL and SR channel audio signals are subjected to delay control so that, for example, the sound beam is directed toward the left side wall and the right side wall of the listener. Each sound beam based on the audio signals of the SL and SR channels is reflected by the wall of the room R and reaches the left rear wall of the listener and the right rear wall of the listener. Each sound beam is reflected again by the left rear wall of the listener and the right rear wall of the listener to reach the position of the listener. Then, the listener perceives that the sound sources VSSL, VSSSR of the audio signals of the SL and SR channels are on the left rear wall of the listener and the right rear wall of the listener.

定位付加部42のフィルタ421L〜425L及びフィルタ421R〜425Rは、仮想スピーカの位置がそれぞれ音源SFL,SFR,SC,SSL,SSRの位置と略同じ位置になるように、それぞれ設定されている。すると、聴者は、図6に示すように、仮想音源VSC,VSFL,VSFR,VSSL,VSSRを音源SFL,SFR,SC,SSL,SSRの位置と略同じ位置に知覚する。   The filters 421L to 425L and the filters 421R to 425R of the localization adding unit 42 are set so that the positions of the virtual speakers are substantially the same as the positions of the sound sources SFL, SFR, SC, SSL, and SSR, respectively. Then, as shown in FIG. 6, the listener perceives the virtual sound sources VSC, VSFL, VSFR, VSSL, VSSR at substantially the same positions as the positions of the sound sources SFL, SFR, SC, SSL, SSR.

これにより、アレイスピーカ装置2は、音声ビームだけを用いた場合又は仮想音源だけを用いた場合に比べて、定位感を向上させる。   Thereby, the array speaker apparatus 2 improves the sense of localization as compared with the case where only the sound beam is used or the case where only the virtual sound source is used.

ここで、アレイスピーカ装置2は、図6に示すように、各音声ビームに初期反射音を重畳する。仮想音源を知覚させる音は、到来方向毎に周波数特性が異なる初期反射音が重畳されないため、頭部伝達関数の周波数特性が維持される。また、仮想音源を知覚させる音は、両耳間における周波数特性の差、音の到達時間差、及び音量差によって定位感を与えるものであるため、各チャンネルに周波数特性が均一な後部残響音が重畳されても、頭部伝達関数の周波数特性が影響されず、定位感に変化がない。   Here, as shown in FIG. 6, the array speaker device 2 superimposes the initial reflected sound on each sound beam. The sound that perceives the virtual sound source is not superposed with the initial reflected sound having different frequency characteristics for each direction of arrival, so that the frequency characteristics of the head-related transfer function are maintained. In addition, the sound that makes the virtual sound source perceive has a sense of localization due to the difference in frequency characteristics between both ears, the arrival time difference of the sound, and the volume difference, so the rear reverberation sound with uniform frequency characteristics is superimposed on each channel. Even if it is done, the frequency characteristic of the head-related transfer function is not affected, and the feeling of localization does not change.

また、アレイスピーカ装置2は、各音声ビームに後部残響音を重畳せず、仮想音源を知覚させる音に後部残響音を重畳する。従って、アレイスピーカ装置2は、到来方向によらず略同じ周波数成分を有する後部残響音を各音声ビームに重畳しないため、各音声ビームのオーディオ信号が類似して各音像が結合してしまうことがない。これにより、アレイスピーカ装置2は、各音声ビームの定位感が不明確になることを防ぐ。また、音声ビームは、到来方向からの音圧によって定位を知覚させるものであるため、到来方向毎に周波数特性が異なる初期反射音が重畳されて周波数特性が変化しても定位感に変化がない。   Further, the array speaker device 2 does not superimpose the rear reverberation sound on each sound beam, but superimposes the rear reverberation sound on the sound that makes the virtual sound source perceived. Therefore, since the array speaker apparatus 2 does not superimpose the rear reverberation sound having substantially the same frequency component on each sound beam regardless of the arrival direction, the audio signals of the sound beams may be similar and the sound images may be combined. Absent. Thereby, the array speaker apparatus 2 prevents the sense of localization of each sound beam from becoming unclear. In addition, since the sound beam perceives localization based on sound pressure from the direction of arrival, even if the frequency characteristics change due to superimposition of early reflected sound with different frequency characteristics for each direction of arrival, the feeling of localization does not change. .

以上のように、アレイスピーカ装置2は、各音声ビーム及び仮想音源を知覚させる音の定位付与の効果を損なうことなく、初期反射音及び後部残響音により音場効果をコンテンツの音に付与することができる。   As described above, the array speaker device 2 imparts the sound field effect to the sound of the content by the initial reflection sound and the rear reverberation sound without impairing the effect of sound localization imparting each sound beam and the virtual sound source. Can do.

また、アレイスピーカ装置2は、ゲイン調整部221及びゲイン調整部441との組を備えることにより、初期反射音と後部残響音とのレベル比率を聴者の所望の比率に変更することができる。   Moreover, the array speaker apparatus 2 can change the level ratio of the initial reflection sound and the rear reverberation sound to a desired ratio of the listener by including a set of the gain adjustment unit 221 and the gain adjustment unit 441.

また、アレイスピーカ装置2は、マルチチャンネルサラウンドサウンドのオーディオ信号について、音声ビームと仮想音源を知覚させる音とを出力し、かつ音場効果を与える。よって、アレイスピーカ装置2は、聴者を取り巻くように定位感を与えつつ、音場効果をコンテンツの音に付与することができる。   Further, the array speaker device 2 outputs a sound beam and a sound that allows a virtual sound source to be perceived with respect to an audio signal of multi-channel surround sound, and gives a sound field effect. Therefore, the array speaker device 2 can impart a sound field effect to the sound of the content while giving a sense of localization so as to surround the listener.

なお、上述の例では、後部残響音生成部442が生成した後部残響音は、仮想音源を知覚させる音に重畳された後、ウーファ33L,33Rから出力されているが、仮想音源を知覚させる音に重畳されなくてもよい。例えば、後部残響音生成部442が生成した後部残響音のオーディオ信号は、定位付加部42を介さず、レベル調整部34L,34Rを介してウーファ33L,33Rに入力されてもよい。   In the above example, the rear reverberation sound generated by the rear reverberation sound generation unit 442 is output from the woofers 33L and 33R after being superimposed on the sound causing the virtual sound source to be perceived. It does not have to be superimposed on. For example, the audio signal of the rear reverberation sound generated by the rear reverberation sound generation unit 442 may be input to the woofers 33L and 33R via the level adjustment units 34L and 34R without passing through the localization adding unit 42.

次に、アレイスピーカ装置2の変形例に係るスピーカセット2Aについて図を用いて説明する。図7は、スピーカセット2Aを説明するための図である。図8は、スピーカセット2A及びサブウーファ3のブロック図の一部である。ただし、図7において矢印は、自動車の室内900における指向性を有する音の経路を示す。   Next, a speaker set 2A according to a modification of the array speaker device 2 will be described with reference to the drawings. FIG. 7 is a diagram for explaining the speaker set 2A. FIG. 8 is a part of a block diagram of the speaker set 2 </ b> A and the subwoofer 3. However, the arrows in FIG. 7 indicate sound paths having directivity in the interior 900 of the automobile.

スピーカセット2Aは、指向性スピーカユニット21(21Q,21R,21S,21T,21U)で指向性を有する音を出力する点において、アレイスピーカ装置2と相違する。アレイスピーカ装置2と重複する構成の説明は省略する。   The speaker set 2A is different from the array speaker device 2 in that the directional speaker unit 21 (21Q, 21R, 21S, 21T, 21U) outputs sound having directivity. A description of the same configuration as that of the array speaker device 2 is omitted.

各指向性スピーカユニット21は、チャンネルに応じて配置される。すなわち、Cチャンネルに対応する指向性スピーカユニット21Sは、聴者の前方に配置される。FLチャンネルに対応する指向性スピーカユニット21Qは、聴者の前方かつ左方に配置される。FRチャンネルに対応する指向性スピーカユニット21Rは、聴者の前方かつ右方に配置される。SLチャンネルに対応する指向性スピーカユニット21Tは、聴者の後方かつ左方に配置される。SRチャンネルに対応する指向性スピーカユニット21Uは、聴者の後方かつ右方に配置される。   Each directional speaker unit 21 is arranged according to a channel. That is, the directional speaker unit 21S corresponding to the C channel is disposed in front of the listener. The directional speaker unit 21Q corresponding to the FL channel is arranged in front of the listener and on the left side. The directional speaker unit 21R corresponding to the FR channel is disposed in front of and right of the listener. The directional speaker unit 21T corresponding to the SL channel is disposed behind and to the left of the listener. The directional speaker unit 21U corresponding to the SR channel is disposed behind and to the right of the listener.

レベル調整部18から出力された各オーディオ信号は、図8に示すように、遅延処理部23(23FL,23FR,23C,23SR,23SL)に入力される。遅延処理部23は、聴者付近で指向性を有する音の位相が揃うように、各指向性スピーカユニット21から聴者までの経路長に応じた遅延処理を行う。   Each audio signal output from the level adjustment unit 18 is input to the delay processing unit 23 (23FL, 23FR, 23C, 23SR, 23SL) as shown in FIG. The delay processing unit 23 performs delay processing according to the path length from each directional speaker unit 21 to the listener so that the phase of sound having directivity is aligned in the vicinity of the listener.

遅延処理部23から出力された各オーディオ信号は、各指向性スピーカユニット21に入力される。スピーカセット2Aは、このような構成であっても、各チャンネルに対応する指向性を有する音に初期反射音を重畳して聴者に届けることができる。   Each audio signal output from the delay processing unit 23 is input to each directional speaker unit 21. Even in such a configuration, the speaker set 2 </ b> A can superimpose the initial reflected sound on the sound having directivity corresponding to each channel and deliver it to the listener.

なお、この変形例においては、遅延処理部60及び遅延処理部23の遅延時間は、指向性を有する音及び仮想音源を知覚させる音が同一タイミングで出力されないように、それぞれ設定される。   In this modification, the delay times of the delay processing unit 60 and the delay processing unit 23 are set so that sound having directivity and sound that perceives a virtual sound source are not output at the same timing.

1…AVシステム
2,2A…アレイスピーカ装置
3…サブウーファ
4…テレビ
10…デコーダ
11…DIR
12…ADC
13…HDMIレシーバ
14FL,FR,C,SR,SL…HPF
15FL,FR,C,SR,SL…LPF
16,17…加算部
18…レベル調整部
20…指向性制御部
21A〜21P…スピーカユニット
21Q,21R,21S,21U,21T…指向性スピーカユニット
22…初期反射音処理部
221…ゲイン調整部
222…初期反射音生成部
223…合成部
30L,30R…HPF
31L,31R…LPF
32L,32R…加算部
33L,33R…ウーファ
40FL,FR,C,SR,SL…HPF
41FL,FR,C,SR,SL…LPF
42…定位付加部
43…レベル調整部
44…後部残響音処理部
441…ゲイン調整部
442…後部残響音生成部
443…合成部
50…クロストークキャンセル処理部
51…補正部
52L,52R…合成部
60L,60R…遅延処理部
61L,61R…レベル調整部
70A〜70E、70F,70G…レベル調整部
71…加算部
72…サブウーファユニット
DESCRIPTION OF SYMBOLS 1 ... AV system 2, 2A ... Array speaker apparatus 3 ... Subwoofer 4 ... Television 10 ... Decoder 11 ... DIR
12 ... ADC
13 ... HDMI receiver 14FL, FR, C, SR, SL ... HPF
15FL, FR, C, SR, SL ... LPF
16, 17, addition unit 18, level adjustment unit 20, directivity control units 21 </ b> A to 21 </ b> P, speaker units 21 </ b> Q, 21 </ b> R, 21 </ b> S, 21 </ b> U, 21 </ b> T, directional speaker unit 22, initial reflected sound processing unit 221, gain adjustment unit 222. ... Initial reflection sound generator 223 ... Synthesizers 30L, 30R ... HPF
31L, 31R ... LPF
32L, 32R ... Adder 33L, 33R ... Woofer 40FL, FR, C, SR, SL ... HPF
41FL, FR, C, SR, SL ... LPF
42 ... Localization addition unit 43 ... Level adjustment unit 44 ... Rear reverberation sound processing unit 441 ... Gain adjustment unit 442 ... Rear reverberation sound generation unit 443 ... Synthesis unit 50 ... Crosstalk cancellation processing unit 51 ... Correction units 52L, 52R ... Synthesis unit 60L, 60R ... delay processing units 61L, 61R ... level adjusting units 70A to 70E, 70F, 70G ... level adjusting unit 71 ... adding unit 72 ... subwoofer unit

Claims (5)

オーディオ信号が入力される入力部と、
入力されたオーディオ信号に基づいて放音する第1放音部と、
入力されたオーディオ信号に基づいて放音する第2放音部と、
前記入力部に入力されたオーディオ信号に頭部伝達関数に基づくフィルタ処理を行って前記第1放音部に入力する定位付加部と、
入力されたオーディオ信号に初期反射音の特性を付加する初期反射音付加部と、
入力されたオーディオ信号に後部残響音の特性を付加する後部残響音付加部と、
を備え、
前記初期反射音付加部は、前記第2放音部に入力されるオーディオ信号に前記初期反射音の特性を付加し、
前記後部残響音付加部は、前記第1放音部に入力されるオーディオ信号に前記後部残響音の特性を付加する、
スピーカ装置。
An input section to which an audio signal is input;
A first sound emitting unit that emits sound based on the input audio signal;
A second sound emitting unit that emits sound based on the input audio signal;
A localization adding unit that performs filtering on the audio signal input to the input unit based on a head-related transfer function and inputs the filtered signal to the first sound emitting unit;
An initial reflected sound adding unit for adding characteristics of the initial reflected sound to the input audio signal;
A rear reverberation adding unit for adding a characteristic of the rear reverberation to the input audio signal;
With
The initial reflected sound adding unit adds the characteristics of the initial reflected sound to the audio signal input to the second sound emitting unit,
The rear reverberation sound adding unit adds the characteristics of the rear reverberant sound to the audio signal input to the first sound emission unit.
Speaker device.
前記初期反射音付加部の初期反射音と、前記後部残響音付加部の後部残響音とのレベル比率を調整するレベル調整部、を備える、
請求項1に記載のスピーカ装置。
A level adjusting unit that adjusts a level ratio between the initial reflected sound of the initial reflected sound adding unit and the rear reverberant sound of the rear reverberant sound adding unit;
The speaker device according to claim 1.
前記オーディオ信号は、マルチチャンネルサラウンドサウンドのオーディオ信号である、
請求項1又は2に記載のスピーカ装置。
The audio signal is an audio signal of multi-channel surround sound.
The speaker device according to claim 1 or 2.
前記第1放音部は、指向性を有する音を出力する、
請求項1乃至3のいずれかに記載のスピーカ装置。
The first sound emitting unit outputs sound having directivity.
The speaker device according to claim 1.
前記第1放音部は、
前記定位付加部のオーディオ信号が入力されるステレオスピーカからなり、
前記第2放音部は、
スピーカアレイと、
前記入力部に入力されたオーディオ信号をそれぞれ遅延して前記スピーカアレイに分配する指向性制御部と、からなる、
請求項4に記載のスピーカ装置。
The first sound emitting unit is
It consists of a stereo speaker to which the audio signal of the localization adding unit is input,
The second sound emitting unit is
A speaker array;
A directivity control unit that delays and distributes the audio signals input to the input unit to the speaker array, respectively.
The speaker device according to claim 4.
JP2013272528A 2013-08-19 2013-12-27 Speaker device Active JP6287203B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2013272528A JP6287203B2 (en) 2013-12-27 2013-12-27 Speaker device
EP14838464.7A EP3038385B1 (en) 2013-08-19 2014-08-19 Speaker device and audio signal processing method
PCT/JP2014/071686 WO2015025858A1 (en) 2013-08-19 2014-08-19 Speaker device and audio signal processing method
CN201480002397.6A CN104641659B (en) 2013-08-19 2014-08-19 Loudspeaker apparatus and acoustic signal processing method
US14/428,227 US9674609B2 (en) 2013-08-19 2014-08-19 Speaker device and audio signal processing method
US15/472,591 US10038963B2 (en) 2013-08-19 2017-03-29 Speaker device and audio signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013272528A JP6287203B2 (en) 2013-12-27 2013-12-27 Speaker device

Publications (2)

Publication Number Publication Date
JP2015128208A true JP2015128208A (en) 2015-07-09
JP6287203B2 JP6287203B2 (en) 2018-03-07

Family

ID=53838023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013272528A Active JP6287203B2 (en) 2013-08-19 2013-12-27 Speaker device

Country Status (1)

Country Link
JP (1) JP6287203B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075225A1 (en) * 2018-10-09 2020-04-16 ローランド株式会社 Sound effect generation method and information processing device
JPWO2021024692A1 (en) * 2019-08-05 2021-02-11
CN113286249A (en) * 2020-02-19 2021-08-20 雅马哈株式会社 Sound signal processing method and sound signal processing device
JP2022038902A (en) * 2020-08-27 2022-03-10 カシオ計算機株式会社 Acoustic processing apparatus, method, and program
JP7447533B2 (en) 2020-02-19 2024-03-12 ヤマハ株式会社 Sound signal processing method and sound signal processing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006238155A (en) * 2005-02-25 2006-09-07 Yamaha Corp Array speaker apparatus
JP2007266967A (en) * 2006-03-28 2007-10-11 Yamaha Corp Sound image localizer and multichannel audio reproduction device
JP2008263293A (en) * 2007-04-10 2008-10-30 Yamaha Corp Sound emitting apparatus
US20090010455A1 (en) * 2007-07-03 2009-01-08 Yamaha Corporation Speaker array apparatus
US20120155650A1 (en) * 2010-12-15 2012-06-21 Harman International Industries, Incorporated Speaker array for virtual surround rendering
JP2012235456A (en) * 2012-04-20 2012-11-29 Pioneer Electronic Corp Voice signal processing device, and voice signal processing program
JP2013247524A (en) * 2012-05-25 2013-12-09 Canon Inc Sound-reproducing device and method for controlling the same

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006238155A (en) * 2005-02-25 2006-09-07 Yamaha Corp Array speaker apparatus
US8150068B2 (en) * 2005-02-25 2012-04-03 Yamaha Corporation Array speaker system
JP2007266967A (en) * 2006-03-28 2007-10-11 Yamaha Corp Sound image localizer and multichannel audio reproduction device
JP2008263293A (en) * 2007-04-10 2008-10-30 Yamaha Corp Sound emitting apparatus
US20090010455A1 (en) * 2007-07-03 2009-01-08 Yamaha Corporation Speaker array apparatus
JP2009017137A (en) * 2007-07-03 2009-01-22 Yamaha Corp Speaker array apparatus
US20120155650A1 (en) * 2010-12-15 2012-06-21 Harman International Industries, Incorporated Speaker array for virtual surround rendering
JP2012130009A (en) * 2010-12-15 2012-07-05 Harman Internatl Industries Inc Speaker array for virtual surround rendering
JP2012235456A (en) * 2012-04-20 2012-11-29 Pioneer Electronic Corp Voice signal processing device, and voice signal processing program
JP2013247524A (en) * 2012-05-25 2013-12-09 Canon Inc Sound-reproducing device and method for controlling the same

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020075225A1 (en) * 2018-10-09 2020-04-16 ローランド株式会社 Sound effect generation method and information processing device
JPWO2020075225A1 (en) * 2018-10-09 2021-09-02 ローランド株式会社 Sound effect generation method and information processing device
JP7179079B2 (en) 2018-10-09 2022-11-28 ローランド株式会社 SOUND EFFECT GENERATING METHOD AND INFORMATION PROCESSING DEVICE
US11984102B2 (en) 2018-10-09 2024-05-14 Roland Corporation Sound effect generation method and information processing device
JPWO2021024692A1 (en) * 2019-08-05 2021-02-11
JP7317396B2 (en) 2019-08-05 2023-07-31 ピクシーダストテクノロジーズ株式会社 AUDIO CONTROLLER, AUDIO SYSTEM, PROGRAM AND AUDIO CONTROL METHOD
CN113286249A (en) * 2020-02-19 2021-08-20 雅马哈株式会社 Sound signal processing method and sound signal processing device
US11482206B2 (en) 2020-02-19 2022-10-25 Yamaha Corporation Sound signal processing method and sound signal processing device
US11900913B2 (en) 2020-02-19 2024-02-13 Yamaha Corporation Sound signal processing method and sound signal processing device
JP7447533B2 (en) 2020-02-19 2024-03-12 ヤマハ株式会社 Sound signal processing method and sound signal processing device
JP2022038902A (en) * 2020-08-27 2022-03-10 カシオ計算機株式会社 Acoustic processing apparatus, method, and program
JP7147814B2 (en) 2020-08-27 2022-10-05 カシオ計算機株式会社 SOUND PROCESSING APPARATUS, METHOD AND PROGRAM

Also Published As

Publication number Publication date
JP6287203B2 (en) 2018-03-07

Similar Documents

Publication Publication Date Title
US10038963B2 (en) Speaker device and audio signal processing method
CA2430403C (en) Sound image control system
KR100644617B1 (en) Apparatus and method for reproducing 7.1 channel audio
US8369533B2 (en) Array speaker apparatus
KR100608025B1 (en) Method and apparatus for simulating virtual sound for two-channel headphones
WO2012042905A1 (en) Sound reproduction device and sound reproduction method
JP6287203B2 (en) Speaker device
US8320590B2 (en) Device, method, program, and system for canceling crosstalk when reproducing sound through plurality of speakers arranged around listener
WO2015025858A1 (en) Speaker device and audio signal processing method
WO2016088745A1 (en) Speaker device
JP5787128B2 (en) Acoustic system, acoustic signal processing apparatus and method, and program
WO2015166814A1 (en) Acoustic signal processing device, acoustic signal processng method, and program
JP6287191B2 (en) Speaker device
US20140219458A1 (en) Audio signal reproduction device and audio signal reproduction method
JP6405628B2 (en) Speaker device
JP2004064739A (en) Image control system
JP6287202B2 (en) Speaker device
JP6458340B2 (en) Speaker device
JP4943098B2 (en) Sound reproduction system and sound reproduction method
JPH07107598A (en) Sound image expanding device
EP3035706B1 (en) Signal processor and signal processing method
JP2008011099A (en) Headphone sound reproducing system and headphone system
JP2007215229A (en) Audio signal reproducing apparatus and audio signal reproducing method
JP2003319499A (en) Sound reproducing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R151 Written notification of patent or utility model registration

Ref document number: 6287203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151