JP2020137041A - Phase control device, acoustic device, and phase control method - Google Patents

Phase control device, acoustic device, and phase control method Download PDF

Info

Publication number
JP2020137041A
JP2020137041A JP2019031475A JP2019031475A JP2020137041A JP 2020137041 A JP2020137041 A JP 2020137041A JP 2019031475 A JP2019031475 A JP 2019031475A JP 2019031475 A JP2019031475 A JP 2019031475A JP 2020137041 A JP2020137041 A JP 2020137041A
Authority
JP
Japan
Prior art keywords
frequency spectrum
phase
speaker
sound
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019031475A
Other languages
Japanese (ja)
Other versions
JP7319789B2 (en
Inventor
橋本 武志
Takeshi Hashimoto
武志 橋本
哲生 渡邉
Tetsuo Watanabe
哲生 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2019031475A priority Critical patent/JP7319789B2/en
Priority to PCT/JP2020/005724 priority patent/WO2020175175A2/en
Publication of JP2020137041A publication Critical patent/JP2020137041A/en
Application granted granted Critical
Publication of JP7319789B2 publication Critical patent/JP7319789B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/05Application of the precedence or Haas effect, i.e. the effect of first wavefront, in order to improve sound-source localisation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

To suppress a sound quality deterioration and a sound pressure deterioration, due to interference of sounds output from each speaker while improving an inclination of a sound image localization.SOLUTION: A phase control device is structured so that an impulse response is measured in each speaker, a predetermined phase control is performed for a frequency spectrum signal in each impulse response, a first amplitude characteristic is obtained by being synthesized with the other frequency spectrum signal, a second amplitude characteristic is obtained by being synthesized with the other frequency spectrum signal without performing the phase control, a speaker that satisfies a prescribed condition is detected from a plurality of speakers on the basis of the first and second amplitude characteristics, and second phase adjustment data for adjusting the phase of a signal of a sound output to each speaker in each frequency spectrum so as to reduce attenuation due to an interference of the sound between the speakers in each frequency spectrum at a plurality of hearing positions on the basis of first phase adjustment data for adjusting the phase of the signal of the sound output to the detected speaker in each frequency spectrum.SELECTED DRAWING: Figure 3

Description

本発明は、位相制御装置、音響装置及び位相制御方法に関する。 The present invention relates to a phase control device, an acoustic device, and a phase control method.

一般に、車室内には複数の位置にスピーカが設置されている。例えば、右ドア部(運転席側ドア部)の右フロントスピーカと左ドア部(助手席側ドア部)の左フロントスピーカは、車室空間の中心線を挟んで対称となる位置に設置されている。しかし、これらのスピーカは、リスナの聴取位置(運転席や助手席、後部座席など)を基準に考えると、対称となる位置にはない。 Generally, speakers are installed at a plurality of positions in the vehicle interior. For example, the right front speaker of the right door part (driver's side door part) and the left front speaker of the left door part (passenger's side door part) are installed at symmetrical positions across the center line of the passenger compartment space. There is. However, these speakers are not in symmetrical positions when the listener's listening position (driver's seat, passenger's seat, rear seat, etc.) is considered as a reference.

例えばリスナが運転席に座る場合、右フロントスピーカとリスナとの距離と、左フロントスピーカとリスナとの距離は等しい距離にはならない。右ハンドル車の場合、前者の距離が後者の距離よりも短い。そのため、両ドア部のスピーカから音が同時に出力されると、運転席に座るリスナの耳には、右フロントスピーカから出力された音が届き、その後、左フロントスピーカから出力された音が届くことが一般的である。リスナの聴取位置と複数のスピーカのそれぞれとの間の距離の差(各スピーカから放出された再生音が到達する時間の差)により、ハース効果による音像定位の偏りが発生する。 For example, when the listener sits in the driver's seat, the distance between the right front speaker and the listener is not equal to the distance between the left front speaker and the listener. In the case of a right-hand drive vehicle, the distance of the former is shorter than the distance of the latter. Therefore, when the sound is output from the speakers of both doors at the same time, the sound output from the right front speaker reaches the ears of the listener sitting in the driver's seat, and then the sound output from the left front speaker reaches. Is common. The difference in the distance between the listener's listening position and each of the plurality of speakers (the difference in the time it takes for the reproduced sound emitted from each speaker to reach) causes a bias in sound image localization due to the Haas effect.

音像定位の偏りを改善する技術の一例として、各スピーカから出力される音をリスナ(聴取位置)に同時に到達させるようにスピーカチャンネル毎に遅延時間を設定するタイムアライメントが知られている。タイムアライメントを行う装置の具体的構成は、例えば特許文献1に記載されている。 As an example of a technique for improving the bias of sound image localization, time alignment is known in which a delay time is set for each speaker channel so that the sound output from each speaker reaches the listener (listening position) at the same time. A specific configuration of the device for performing time alignment is described in, for example, Patent Document 1.

特許文献1に記載の装置は、スピーカチャンネル毎に遅延時間を設定するため、各スピーカから順次出力される音を所定の聴取位置で順次収音し、収音された各音からスピーカ毎のインパルス応答を測定する。特許文献1では、インパルス応答にローパスフィルタを適用して高周波ノイズを除去することによってインパルス応答の立ち上がり部分を高精度に検出することにより、各スピーカチャンネルに設定すべき遅延時間の計算精度を向上させている。 In the device described in Patent Document 1, since the delay time is set for each speaker channel, the sounds sequentially output from each speaker are sequentially picked up at a predetermined listening position, and the impulses for each speaker are sequentially picked up from each picked up sound. Measure the response. In Patent Document 1, a low-pass filter is applied to the impulse response to remove high-frequency noise to detect the rising portion of the impulse response with high accuracy, thereby improving the calculation accuracy of the delay time to be set for each speaker channel. ing.

特開2005−341534号公報Japanese Unexamined Patent Publication No. 2005-341534

車室内のような特殊なリスニング環境では、各スピーカから出力される音同士の干渉が発生しやすい。そのため、タイムアライメント等の音像を定位させる従来の技術だけでは、このような干渉によって周波数領域でのディップが発生し、ディップの発生による音質の劣化や音圧の低下を避けることが難しい。 In a special listening environment such as in a vehicle interior, the sounds output from each speaker are likely to interfere with each other. Therefore, it is difficult to avoid the deterioration of sound quality and the decrease of sound pressure due to the occurrence of dip in the frequency domain due to such interference only by the conventional technique for localizing the sound image such as time alignment.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能な位相制御装置、音響装置及び位相制御方法を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to improve the bias of sound image localization and to suppress deterioration of sound quality and sound pressure due to interference between sounds output from each speaker. It is to provide a phase control device, a sound device, and a phase control method capable of the above.

本発明の一実施形態に係る位相制御装置は、複数のスピーカの各々から出力されて所定の聴取位置で時間的に非干渉なタイミングで収音された各音の信号のインパルス応答を測定する測定部と、測定された各スピーカからの音の信号のインパルス応答をフーリエ変換することによってインパルス応答の周波数スペクトル信号をスピーカ毎に得るフーリエ変換部と、フーリエ変換部によって得られた各周波数スペクトル信号に対し、所定の位相制御を行い、所定の位相制御が行われない他の周波数スペクトル信号と合成することによって第一の振幅特性を得るとともに、位相制御を行わずに他の周波数スペクトル信号と合成することによって第二の振幅特性を得る振幅特性算出部と、各スピーカについて得られた第一の振幅特性と第二の振幅特性に基づいて複数のスピーカの中から所定の条件を満たすスピーカを検出する検出部と、検出されたスピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための第一の位相調節用データに基づいて、所定の聴取位置を含む複数の聴取位置において、複数のスピーカ間の音の干渉による弱めあいが各周波数スペクトルで低減するように、複数のスピーカの各々に出力される音の信号の位相を周波数スペクトル毎に調節するための第二の位相調節用データを生成する生成部とを備える。 The phase control device according to an embodiment of the present invention measures the impulse response of a signal of each sound output from each of a plurality of speakers and picked up at a predetermined listening position at a timing that does not interfere with time. The unit, the Fourier conversion unit that obtains the frequency spectrum signal of the impulse response for each speaker by Fourier-converting the impulse response of the sound signal from each measured speaker, and each frequency spectrum signal obtained by the Fourier conversion unit. On the other hand, the first amplitude characteristic is obtained by performing a predetermined phase control and synthesizing with another frequency spectrum signal in which the predetermined phase control is not performed, and synthesizing with another frequency spectrum signal without performing the phase control. The amplitude characteristic calculation unit that obtains the second amplitude characteristic, and the speaker that satisfies a predetermined condition is detected from a plurality of speakers based on the first amplitude characteristic and the second amplitude characteristic obtained for each speaker. Based on the first phase adjustment data for adjusting the phase of the sound signal output to the detection unit and the detected speaker for each frequency spectrum, a plurality of listening positions including a predetermined listening position Second phase adjustment data for adjusting the phase of the sound signal output to each of the plurality of speakers for each frequency spectrum so that the weakening due to sound interference between the speakers is reduced in each frequency spectrum. It is provided with a generation unit that generates

このように構成された位相制御装置によれば、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能となる。 According to the phase control device configured in this way, it is possible to improve the bias of the sound image localization and suppress the deterioration of sound quality and the decrease of sound pressure due to the interference between the sounds output from each speaker.

検出部は、スピーカ毎に第一の振幅特性と第二の振幅特性とのレベル差を算出し、各スピーカについて算出されたレベル差に応じた値を比較し、比較の結果に基づいて所定の条件を満たすスピーカを検出する構成としてもよい。より詳細には、検出部は、レベル差を周波数スペクトル毎に算出し、算出された周波数スペクトル毎のレベル差を累積し、各スピーカについて得られたレベル差の累積値を比較し、累積値が最も大きいスピーカを所定の条件を満たすスピーカとして検出する構成としてもよい。 The detection unit calculates the level difference between the first amplitude characteristic and the second amplitude characteristic for each speaker, compares the values corresponding to the calculated level difference for each speaker, and determines a predetermined value based on the comparison result. A speaker that satisfies the conditions may be detected. More specifically, the detection unit calculates the level difference for each frequency spectrum, accumulates the calculated level difference for each frequency spectrum, compares the cumulative value of the level difference obtained for each speaker, and obtains the cumulative value. The largest speaker may be detected as a speaker satisfying a predetermined condition.

このようにして検出されたスピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための第一の位相調節用データに基づいて第二の位相調節用データを生成することにより、より一層、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能となる。 By generating the second phase adjustment data based on the first phase adjustment data for adjusting the phase of the sound signal output to the speaker detected in this manner for each frequency spectrum, the sound can be further adjusted. In addition to improving the bias of sound image localization, it is possible to suppress deterioration of sound quality and sound pressure due to interference between sounds output from each speaker.

振幅特性算出部は、フーリエ変換部によって得られた周波数スペクトル信号毎に次の処理(1)〜(5)を行う構成としてもよい。
(1)処理対象の周波数スペクトル信号の位相を変え、位相を変える毎に、処理対象の周波数スペクトル信号と他の周波数スペクトル信号とを合成し、
(2)合成の結果に基づいて、処理対象のスピーカからの音の信号の位相調節量を周波数スペクトル毎に求め、
(3)求めた周波数スペクトル毎の位相調節量と処理対象の周波数スペクトル信号とを複素乗算し、
(4)複素乗算された周波数スペクトル信号と他の周波数スペクトル信号とを合成することによって第一の振幅特性を得て、
(5)位相を変えることなく処理対象の周波数スペクトル信号と他の周波数スペクトル信号とを合成することによって第二の振幅特性を得る。
The amplitude characteristic calculation unit may be configured to perform the following processes (1) to (5) for each frequency spectrum signal obtained by the Fourier transform unit.
(1) The phase of the frequency spectrum signal to be processed is changed, and each time the phase is changed, the frequency spectrum signal to be processed and another frequency spectrum signal are combined.
(2) Based on the result of synthesis, the phase adjustment amount of the sound signal from the speaker to be processed is obtained for each frequency spectrum.
(3) Complexly multiply the obtained phase adjustment amount for each frequency spectrum and the frequency spectrum signal to be processed by complex numbers.
(4) The first amplitude characteristic is obtained by synthesizing the complex-multiplied frequency spectrum signal and another frequency spectrum signal.
(5) A second amplitude characteristic is obtained by synthesizing the frequency spectrum signal to be processed and another frequency spectrum signal without changing the phase.

このようにして得られた第一の振幅特性と第二の振幅特性を用いることにより、効果(聴取位置におけるスピーカ間の音の弱めあいの干渉が低減することによってレベルが増加する効果)を得るのにより一層好適なスピーカを検出することができる。 By using the first amplitude characteristic and the second amplitude characteristic obtained in this way, an effect (an effect of increasing the level by reducing the interference of sound weakening between speakers at the listening position) can be obtained. More suitable speakers can be detected.

第一の位相調節用データは、例えば、検出部によって検出されたスピーカから出力される音の位相と他のスピーカから出力される音の位相とが聴取位置において各周波数スペクトルで同相又は逆相となるように、検出されたスピーカに出力される音の位相を周波数スペクトル毎に調節するためのデータである。 In the first phase adjustment data, for example, the phase of the sound output from the speaker detected by the detection unit and the phase of the sound output from another speaker are in phase or out of phase in each frequency spectrum at the listening position. This is data for adjusting the phase of the sound output to the detected speaker for each frequency spectrum.

このような、第一の位相調節用データを用いることにより、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えるのにより一層好適な第二の位相調節用データを生成することが可能となる。 By using such the first phase adjustment data, it is more preferable to improve the bias of the sound image localization and to suppress the deterioration of the sound quality and the sound pressure due to the interference between the sounds output from each speaker. It is possible to generate the phase adjustment data of.

生成部は、第一の位相調節用データをもとに、複数のスピーカの各々に出力される音の信号に与える位相調節量を周波数スペクトル毎に算出し、算出された周波数スペクトル毎の位相調節量を第二の位相調節用データとして得る構成としてもよい。この場合、生成部は、複数のスピーカの各々に出力される音の信号に与える位相調節量の差が各周波数スペクトルで180度以内に収まるように、位相調節量を算出してもよい。 Based on the first phase adjustment data, the generation unit calculates the phase adjustment amount given to the sound signal output to each of the plurality of speakers for each frequency spectrum, and the calculated phase adjustment for each frequency spectrum. The quantity may be obtained as the second phase adjustment data. In this case, the generation unit may calculate the phase adjustment amount so that the difference in the phase adjustment amount given to the sound signals output to each of the plurality of speakers is within 180 degrees in each frequency spectrum.

これにより、所定のリスニング環境下で(例えば、一対のスピーカの位置に対して非対称となる聴取位置、同じく一対のスピーカの位置に対して非対称となる別の聴取位置、の双方において)、より一層、逆相によるスピーカ間の音の干渉を低減することができ、定位を改善するとともに、ディップの発生による音質の劣化や音圧の低下が抑えられるようになる。 This makes it even more under a given listening environment (for example, at both a listening position that is asymmetric with respect to the position of the pair of speakers and another listening position that is also asymmetric with respect to the position of the pair of speakers). , It is possible to reduce the interference of sound between speakers due to the opposite phase, improve the localization, and suppress the deterioration of sound quality and the decrease of sound pressure due to the occurrence of dips.

本発明の一実施形態に係る音響装置は、上記の位相制御装置を有し、音源から入力される音の信号を複数のスピーカに出力する装置であり、第二の位相調節用データを用いて、音源から入力されて複数のスピーカの各々に出力される音の信号の位相を周波数スペクトル毎に調節する調節部を備える構成としてもよい。 The acoustic device according to the embodiment of the present invention is a device having the above-mentioned phase control device and outputting a sound signal input from a sound source to a plurality of speakers, and uses the second phase adjustment data. , The configuration may include an adjusting unit that adjusts the phase of the sound signal input from the sound source and output to each of the plurality of speakers for each frequency spectrum.

このように構成された音響装置によれば、聴取位置における音像定位の偏りの改善とともに、聴取位置において音同士の干渉による音質劣化や音圧低下が抑えられる音の信号を各スピーカに出力することが可能となる。 According to the acoustic device configured in this way, it is possible to improve the bias of sound image localization at the listening position and output a sound signal to each speaker in which sound quality deterioration and sound pressure decrease due to interference between sounds are suppressed at the listening position. Is possible.

本発明の一実施形態に係る、コンピュータによって実行される位相制御方法は、複数のスピーカの各々から出力されて所定の聴取位置で時間的に非干渉なタイミングで収音された各音の信号のインパルス応答を測定する測定ステップと、測定された各スピーカからの音の信号のインパルス応答をフーリエ変換することによってインパルス応答の周波数スペクトル信号をスピーカ毎に得るフーリエ変換ステップと、フーリエ変換ステップにて得られた各周波数スペクトル信号に対し、所定の位相制御を行い、所定の位相制御が行われない他の周波数スペクトル信号と合成することによって第一の振幅特性を得るとともに、位相制御を行わずに他の周波数スペクトル信号と合成することによって第二の振幅特性を得る振幅特性算出ステップと、各スピーカについて得られた第一の振幅特性と第二の振幅特性に基づいて複数のスピーカの中から所定の条件を満たすスピーカを検出する検出ステップと、検出されたスピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための第一の位相調節用データに基づいて、所定の聴取位置を含む複数の聴取位置において、複数のスピーカ間の音の干渉による弱めあいが各周波数スペクトルで低減するように、複数のスピーカの各々に出力される音の信号の位相を周波数スペクトル毎に調節するための第二の位相調節用データを生成する生成ステップとを含む。 The phase control method executed by a computer according to an embodiment of the present invention is a signal of each sound output from each of a plurality of speakers and picked up at a predetermined listening position at a timing that does not interfere with time. A measurement step for measuring the impulse response, a Fourier transform step for obtaining the frequency spectrum signal of the impulse response for each speaker by Fourier transforming the impulse response of the sound signal from each measured speaker, and a Fourier transform step for obtaining the frequency spectrum signal of the impulse response. A predetermined phase control is performed on each of the obtained frequency spectrum signals, and the first amplitude characteristic is obtained by synthesizing with another frequency spectrum signal in which the predetermined phase control is not performed, and the other without performing the phase control. A predetermined amplitude characteristic calculation step for obtaining a second amplitude characteristic by synthesizing with the frequency spectrum signal of the above, and a predetermined number from a plurality of speakers based on the first amplitude characteristic and the second amplitude characteristic obtained for each speaker. A predetermined listening position is included based on the detection step of detecting a speaker satisfying the condition and the first phase adjustment data for adjusting the phase of the sound signal output to the detected speaker for each frequency spectrum. To adjust the phase of the sound signal output to each of the plurality of speakers for each frequency spectrum so that weakening due to sound interference between the plurality of speakers is reduced in each frequency spectrum at a plurality of listening positions. It includes a generation step of generating a second phase adjustment data.

このような位相制御方法によれば、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能となる。 According to such a phase control method, it is possible to improve the bias of the sound image localization and suppress the deterioration of sound quality and the decrease of sound pressure due to the interference between the sounds output from each speaker.

本発明の一実施形態によれば、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能な位相制御装置、音響装置及び位相制御方法が提供される。 According to one embodiment of the present invention, a phase control device, an acoustic device, and a phase control capable of improving the bias of sound image localization and suppressing sound quality deterioration and sound pressure drop due to interference between sounds output from each speaker. The method is provided.

本発明の一実施形態に係る音響システムが設置された車両を模式的に示す図である。It is a figure which shows typically the vehicle which installed the acoustic system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る音響システムの構成を示すブロック図である。It is a block diagram which shows the structure of the acoustic system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る音響システムで実行される位相調節用データ設定処理のフローチャートを示す図である。It is a figure which shows the flowchart of the data setting process for phase adjustment executed in the acoustic system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る音響システムに備えられる音響装置が有する計算部の構成を示すブロック図である。It is a block diagram which shows the structure of the calculation part which the acoustic apparatus provided in the acoustic system which concerns on one Embodiment of this invention has. 図5(a)は、左フロントスピーカと聴取位置(運転席)間のインパルス応答を示す図であり、図5(b)は、右フロントスピーカと聴取位置間のインパルス応答を示す図である。FIG. 5A is a diagram showing an impulse response between the left front speaker and the listening position (driver's seat), and FIG. 5B is a diagram showing an impulse response between the right front speaker and the listening position. 図6(a)は、左フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル毎の振幅特性を示す図であり、図6(b)は、右フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル毎の振幅特性を示す図である。FIG. 6A is a diagram showing the amplitude characteristics for each frequency spectrum obtained by Fourier transforming the impulse response between the left front speaker and the listening position, and FIG. 6B is a diagram showing the right front speaker and the listening position. It is a figure which shows the amplitude characteristic for each frequency spectrum obtained by Fourier transforming the impulse response between. 図7(a)は、左フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル毎の位相特性を示す図であり、図7(b)は、右フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル毎の位相特性を示す図である。FIG. 7A is a diagram showing the phase characteristics for each frequency spectrum obtained by Fourier transforming the impulse response between the left front speaker and the listening position, and FIG. 7B is a diagram showing the right front speaker and the listening position. It is a figure which shows the phase characteristic for every frequency spectrum obtained by Fourier transforming the impulse response between. 図8(a)は、左フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号を処理対象としたときの合成結果を示す図であり、図8(b)は、右フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号を処理対象としたときの合成結果を示す図である。FIG. 8 (a) is a diagram showing a synthesis result when a frequency spectrum signal obtained by Fourier transforming the impulse response between the left front speaker and the listening position is used as a processing target, and FIG. 8 (b) is a diagram. It is a figure which shows the synthesis result when the frequency spectrum signal obtained by Fourier transforming the impulse response between a right front speaker and a listening position is processed. 図9(a)は、右フロントスピーカからの音の位相と左フロントスピーカからの音の位相とが聴取位置で同相となるときの、左フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号の位相調節量を示す図であり、図9(b)は、右フロントスピーカからの音の位相と左フロントスピーカからの音の位相とが聴取位置で同相となるときの、右フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号の位相調節量を示す図である。FIG. 9A shows Fourier transform of the impulse response between the left front speaker and the listening position when the phase of the sound from the right front speaker and the phase of the sound from the left front speaker are in phase at the listening position. 9 (b) is a diagram showing the phase adjustment amount of the frequency spectrum signal obtained by the above, and FIG. 9 (b) shows the case where the phase of the sound from the right front speaker and the phase of the sound from the left front speaker are in phase at the listening position. It is a figure which shows the phase adjustment amount of the frequency spectrum signal obtained by Fourier transforming the impulse response between a right front speaker and a listening position. 図10(a)は、左フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号について得た、第一の振幅特性と第二の振幅特性を示す図であり、図10(b)は、右フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号について得た、第一の振幅特性と第二の振幅特性を示す図である。FIG. 10A is a diagram showing the first amplitude characteristic and the second amplitude characteristic obtained for the frequency spectrum signal obtained by Fourier transforming the impulse response between the left front speaker and the listening position. FIG. 10 (b) is a diagram showing the first amplitude characteristic and the second amplitude characteristic obtained for the frequency spectrum signal obtained by Fourier transforming the impulse response between the right front speaker and the listening position. 図11(a)は、図10(a)に示される第一の振幅特性と第二の振幅特性とのレベル差を周波数スペクトル毎に示す図であり、図11(b)は、図10(b)に示される第一の振幅特性と第二の振幅特性とのレベル差を周波数スペクトル毎に示す図である。11 (a) is a diagram showing the level difference between the first amplitude characteristic and the second amplitude characteristic shown in FIG. 10 (a) for each frequency spectrum, and FIG. 11 (b) is a diagram showing FIG. 10 (b). It is a figure which shows the level difference between the 1st amplitude characteristic and the 2nd amplitude characteristic shown in b) for each frequency spectrum. 右フロントスピーカからの音の位相と左フロントスピーカからの音の位相とが聴取位置で逆相となるときの、右フロントスピーカと聴取位置間のインパルス応答をフーリエ変換することによって求まった周波数スペクトル信号の周波数スペクトル毎の位相調節量(第一の位相調節用データ)を示す図である。A frequency spectrum signal obtained by Fourier transforming the impulse response between the right front speaker and the listening position when the phase of the sound from the right front speaker and the phase of the sound from the left front speaker are out of phase at the listening position. It is a figure which shows the phase adjustment amount (the first phase adjustment data) for every frequency spectrum of. 図3のステップS23で決定された周波数スペクトル毎の位相調節量を示す図である。It is a figure which shows the phase adjustment amount for every frequency spectrum determined in step S23 of FIG. 本発明の一実施形態に係る計算部が有するスムージング処理部によるスムージング処理後の位相調節量(基準スピーカ用の第一の位相調節用データ)を示す図である。It is a figure which shows the phase adjustment amount (the first phase adjustment data for a reference speaker) after the smoothing processing by the smoothing processing unit which the calculation unit which concerns on one Embodiment of this invention has. 本発明の一実施形態に係る音響装置が有する位相反転部によって得られる位相調節量(他のスピーカ用の第二の位相調節用データ)を示す図である。It is a figure which shows the phase adjustment amount (the second phase adjustment data for another speaker) obtained by the phase inversion part which has the acoustic apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る音響装置が有する位相調節部の構成を示すブロック図である。It is a block diagram which shows the structure of the phase adjustment part which the acoustic apparatus which concerns on one Embodiment of this invention has. 図17(a)は、制御なし例において、運転席に設置されたマイクロフォンで収音されるオーディオ信号の時間特性を示す図であり、図17(b)は、位相調節例において、運転席に設置されたマイクロフォンで収音されるオーディオ信号の時間特性を示す図である。FIG. 17A is a diagram showing the time characteristics of the audio signal picked up by the microphone installed in the driver's seat in the example without control, and FIG. 17B is a diagram showing the time characteristic of the audio signal picked up by the microphone installed in the driver's seat. It is a figure which shows the time characteristic of the audio signal picked up by the installed microphone. 図18(a)は、制御なし例において、助手席に設置されたマイクロフォンで収音されるオーディオ信号の時間特性を示す図であり、図18(b)は、位相調節例において、助手席に設置されたマイクロフォンで収音されるオーディオ信号の時間特性を示す図である。FIG. 18A is a diagram showing the time characteristics of the audio signal picked up by the microphone installed in the passenger seat in the example without control, and FIG. 18B is a diagram showing the time characteristics of the audio signal picked up by the microphone installed in the passenger seat. It is a figure which shows the time characteristic of the audio signal picked up by the installed microphone. 運転席に設置されたマイクロフォンで収音される、制御なし例のオーディオ信号の周波数特性と位相調節例のオーディオ信号の周波数特性を示す図である。It is a figure which shows the frequency characteristic of the audio signal of an uncontrolled example and the frequency characteristic of an audio signal of a phase adjustment example picked up by a microphone installed in a driver's seat. 助手席に設置されたマイクロフォンで収音される、制御なし例のオーディオ信号の周波数特性と位相調節例のオーディオ信号の周波数特性を示す図である。It is a figure which shows the frequency characteristic of the audio signal of an uncontrolled example and the frequency characteristic of an audio signal of a phase adjustment example picked up by a microphone installed in a passenger seat. 別の一実施形態において、運転席に設置されたマイクロフォンで収音される、制御なし例のオーディオ信号の周波数特性と位相調節例のオーディオ信号の周波数特性を示す図である。In another embodiment, it is a diagram showing the frequency characteristic of the audio signal of the uncontrolled example and the frequency characteristic of the audio signal of the phase adjustment example picked up by the microphone installed in the driver's seat. 別の一実施形態において、助手席に設置されたマイクロフォンで収音される、制御なし例のオーディオ信号の周波数特性と位相調節例のオーディオ信号の周波数特性を示す図である。In another embodiment, it is a diagram showing the frequency characteristic of the audio signal of the uncontrolled example and the frequency characteristic of the audio signal of the phase adjustment example picked up by the microphone installed in the passenger seat.

以下、本発明の実施形態について図面を参照しながら説明する。なお、以下においては、本発明の一実施形態として音響システムを例に取り説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, an acoustic system will be described as an example of an embodiment of the present invention.

図1は、本発明の一実施形態に係る音響システム1が設置された車両Aを模式的に示す図である。図2は、この音響システム1の構成を示すブロック図である。 FIG. 1 is a diagram schematically showing a vehicle A in which the acoustic system 1 according to the embodiment of the present invention is installed. FIG. 2 is a block diagram showing the configuration of the acoustic system 1.

図1及び図2に示されるように、音響システム1は、音響装置10、スピーカSPFR、SPFL及びマイクロフォンMICを備える。 As shown in FIGS. 1 and 2, the acoustic system 1 includes an acoustic device 10, a speaker SP FR , an SP FL, and a microphone MIC.

音響装置10は、車室内というリスニング環境において発生しやすい音像定位の偏りを改善するとともに、車両Aに設置された各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えるための位相調節用データを生成する、位相調節用データ生成機能(別の言い方をすると、位相制御装置)を搭載する。 The sound device 10 is for improving the bias of sound image localization that tends to occur in the listening environment of the vehicle interior and suppressing deterioration of sound quality and sound pressure due to interference between sounds output from each speaker installed in the vehicle A. It is equipped with a phase adjustment data generation function (in other words, a phase control device) that generates phase adjustment data.

なお、音響装置10における各種処理は、音響装置10に備えられるソフトウェアとハードウェアとが協働することにより実行される。音響装置10に備えられるソフトウェアのうち少なくともOS(Operating System)部分は、組み込み系システムとして提供されるが、それ以外の部分、例えば、位相調節用データの生成処理を実行するためのソフトウェアモジュールについては、ネットワーク上で配布可能な又はメモリカード等の記録媒体にて保持可能なアプリケーションとして提供されてもよい。すなわち、本実施形態に係る位相調節用データ生成機能は、音響装置10に予め組み込まれた機能であっても、ネットワーク経由や記録媒体経由で音響装置10に追加可能な機能であってもよい。 The various processes in the acoustic device 10 are executed by the cooperation of the software and the hardware provided in the acoustic device 10. At least the OS (Operating System) part of the software provided in the sound device 10 is provided as an embedded system, but the other parts, for example, the software module for executing the phase adjustment data generation process , May be provided as an application that can be distributed on a network or held on a recording medium such as a memory card. That is, the phase adjustment data generation function according to the present embodiment may be a function incorporated in the acoustic device 10 in advance, or a function that can be added to the acoustic device 10 via a network or a recording medium.

図1に示されるように、スピーカSPFRは、右ドア部(運転席側ドア部)に埋設された右フロントスピーカであり、スピーカSPFLは、左ドア部(助手席側ドア部)に埋設された左フロントスピーカである。車両Aには、更に別のスピーカ(例えばリアスピーカ)が設置(すなわち3基以上のスピーカが設置)されていてもよい。 As shown in FIG. 1, the speaker SP FR is a right front speaker embedded in the right door portion (driver's seat side door portion), and the speaker SP FL is embedded in the left door portion (passenger's seat side door portion). It is the left front speaker. Yet another speaker (for example, a rear speaker) may be installed in the vehicle A (that is, three or more speakers are installed).

音響装置10は、制御部100、表示部102、操作部104、測定用信号発生部106、記録媒体再生部108、位相調節部110、増幅部112、信号収録部114及び計算部116を有する。 The sound device 10 includes a control unit 100, a display unit 102, an operation unit 104, a measurement signal generation unit 106, a recording medium reproduction unit 108, a phase adjustment unit 110, an amplification unit 112, a signal recording unit 114, and a calculation unit 116.

図3は、音響システム1において実行される位相調節用データ設定処理のフローチャートを示す図である。本フローチャートに示される位相調節用データ設定処理をはじめとする、音響システム1内での各種処理は、制御部100の制御下で実行される。制御部100は、表示部102に対する所定のタッチ操作又は操作部104に対する所定の操作を受けると、本フローチャートに示される位相調節用データ設定処理の実行を開始する。 FIG. 3 is a diagram showing a flowchart of a phase adjustment data setting process executed in the acoustic system 1. Various processes in the acoustic system 1, including the phase adjustment data setting process shown in this flowchart, are executed under the control of the control unit 100. When the control unit 100 receives a predetermined touch operation on the display unit 102 or a predetermined operation on the operation unit 104, the control unit 100 starts executing the phase adjustment data setting process shown in this flowchart.

図3に示される位相調節用データ設定処理の実行が開始されると、測定用信号発生部106が所定の測定用信号を発生させる(ステップS11)。発生された測定用信号は、例えばM系列符号(Maximal length sequence)である。この測定用信号の長さは、符号長の2倍以上とする。なお、測定用信号は、例えばTSP信号(Time Stretched Pulse)等の他の種類の信号であってもよい。 When the execution of the phase adjustment data setting process shown in FIG. 3 is started, the measurement signal generation unit 106 generates a predetermined measurement signal (step S11). The generated measurement signal is, for example, an M-sequence code (Maximal length sequence). The length of this measurement signal shall be at least twice the code length. The measurement signal may be another type of signal such as a TSP signal (Time Stretched Pulse).

測定用信号は、制御部100及び位相調節部110をスルー出力し、増幅部112を介して各スピーカSPFR、SPFLに順次出力される(ステップS12)。これにより、所定の測定用音が所定の時間間隔を空けて各スピーカSPFR、SPFLから順次出力される。 The measurement signal is output through the control unit 100 and the phase adjustment unit 110, and is sequentially output to each speaker SP FR and SP FL via the amplification unit 112 (step S12). As a result, predetermined measurement sounds are sequentially output from the respective speakers SP FR and SP FL at predetermined time intervals.

本実施形態では、運転席をインパルス応答の測定位置(聴取位置)とする。そのため、マイクロフォンMICは運転席に設置される。マイクロフォンMICの設置位置は、聴取位置に応じて変わる。マイクロフォンMICは助手席や後部座席に設置されてもよい。 In the present embodiment, the driver's seat is the measurement position (listening position) of the impulse response. Therefore, the microphone MIC is installed in the driver's seat. The installation position of the microphone MIC changes according to the listening position. The microphone MIC may be installed in the passenger seat or the rear seat.

マイクロフォンMICは、各スピーカSPFR、SPFLから順次出力された測定用音を時間的に非干渉なタイミングで収音する。マイクロフォンMICによって収音された測定用音の信号(すなわち測定信号)は、信号収録部114を介して計算部116に入力される(ステップS13)。 The microphone MIC picks up the measurement sound sequentially output from each speaker SP FR and SP FL at a timing that does not interfere with time. The measurement sound signal (that is, the measurement signal) picked up by the microphone MIC is input to the calculation unit 116 via the signal recording unit 114 (step S13).

図4は、計算部116の構成を示すブロック図である。図4に示されるように、計算部116は、測定部116A及び116Bを有する。 FIG. 4 is a block diagram showing the configuration of the calculation unit 116. As shown in FIG. 4, the calculation unit 116 has measurement units 116A and 116B.

測定部116A及び116Bはインパルス応答を測定する(ステップS14)。 The measuring units 116A and 116B measure the impulse response (step S14).

具体的には、測定部116Aは、スピーカSPFLからの測定用音の測定信号(以下「測定信号L」と記す。)とリファレンスの測定信号との相互相関関数が演算により求められて、測定信号Lのインパルス応答(言い換えると、スピーカSPFLと聴取位置間のインパルス応答であり、以下「インパルス応答L’」と記す。)が計算される。 Specifically, the measuring unit 116A calculates a mutual correlation function between the measurement signal of the sound for measurement from the speaker SP FL (hereinafter referred to as “measurement signal L”) and the measurement signal of the reference, and measures the measurement. The impulse response of the signal L (in other words, the impulse response between the speaker SP FL and the listening position, hereinafter referred to as “impulse response L'”) is calculated.

測定部116Bは、スピーカSPFRからの測定用音の測定信号(以下「測定信号R」と記す。)とリファレンスの測定信号との相互相関関数が演算により求められて、測定信号Rのインパルス応答(言い換えると、スピーカSPFRと聴取位置間のインパルス応答であり、以下「インパルス応答R’」と記す。)が計算される。 In the measuring unit 116B, the mutual correlation function between the measurement signal of the measurement sound from the speaker SP FR (hereinafter referred to as “measurement signal R”) and the reference measurement signal is obtained by calculation, and the impulse response of the measurement signal R is obtained. (In other words, it is an impulse response between the speaker SP FR and the listening position, which is hereinafter referred to as "impulse response R'") is calculated.

なお、リファレンスの測定信号は、測定用信号発生部106にて発生される測定用信号と同一であり且つ時間同期が取られたものである。 The reference measurement signal is the same as the measurement signal generated by the measurement signal generation unit 106 and is time-synchronized.

このように、測定部116A及び116Bは、複数のスピーカの各々から出力されて所定の聴取位置で時間的に非干渉なタイミングで収音された各音の信号のインパルス応答を測定する測定部として動作する。 In this way, the measuring units 116A and 116B serve as measuring units for measuring the impulse response of the signal of each sound output from each of the plurality of speakers and picked up at a predetermined listening position at a timing that does not interfere with time. Operate.

図5(a)にインパルス応答L’を例示し、図5(b)にインパルス応答R’を例示する。図5(a)、図5(b)の各図中、縦軸は振幅を示し、横軸は時間(単位:sec)を示す。図5(a)及び図5(b)の例では、サンプリング周波数は44.1kHzであり、M系列符号の符号長は32,767であり、周波数帯域は3kHzである。 FIG. 5 (a) illustrates the impulse response L', and FIG. 5 (b) illustrates the impulse response R'. In each of the figures of FIGS. 5 (a) and 5 (b), the vertical axis represents the amplitude and the horizontal axis represents the time (unit: sec). In the examples of FIGS. 5A and 5B, the sampling frequency is 44.1 kHz, the code length of the M-sequence code is 32,767, and the frequency band is 3 kHz.

図5(a)及び図5(b)を見ると、車室内という特殊なリスニング環境(車室内の構造物によって遅延時間差の短い反射が多い、車室内の構造物により音が遮蔽される、各スピーカからの音が干渉する、などの環境)のため、抑圧された音が聴取位置に最初に到達し(言い換えると、インパルス応答の立ち上がり部分のレベルが低く)、この抑圧された音に遅れて、レベルの高い音が聴取位置に到達する。 Looking at FIGS. 5 (a) and 5 (b), there are many reflections with a short delay time difference due to the special listening environment of the vehicle interior (the sound is blocked by the structure inside the vehicle). Due to the environment where the sound from the speaker interferes, etc.), the suppressed sound first reaches the listening position (in other words, the level of the rising part of the impulse response is low), and the suppressed sound is delayed. , High-level sound reaches the listening position.

図4に示されるように、計算部116は、フーリエ変換部116C及び116Dを有する。 As shown in FIG. 4, the calculation unit 116 has Fourier transform units 116C and 116D.

フーリエ変換部116Cは、測定部116Aより入力されるインパルス応答L’をフーリエ変換し、周波数スペクトル毎の振幅特性と位相特性を求める(ステップS15)。フーリエ変換部116Dは、測定部116Bより入力されるインパルス応答R’をフーリエ変換し、周波数スペクトル毎の振幅特性と位相特性を求める(ステップS15)。 The Fourier transform unit 116C Fourier transforms the impulse response L'input from the measurement unit 116A to obtain the amplitude characteristic and the phase characteristic for each frequency spectrum (step S15). The Fourier transform unit 116D Fourier transforms the impulse response R'input from the measurement unit 116B to obtain the amplitude characteristic and the phase characteristic for each frequency spectrum (step S15).

図6(a)は、インパルス応答L’をフーリエ変換することによって求まった周波数スペクトル毎の振幅特性を示す図であり、図6(b)は、インパルス応答R’をフーリエ変換することによって求まった周波数スペクトル毎の振幅特性を示す図である。図6(a)、図6(b)の各図中、縦軸はパワー(単位:dB)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 6A is a diagram showing the amplitude characteristics for each frequency spectrum obtained by Fourier transforming the impulse response L', and FIG. 6B is a diagram obtained by Fourier transforming the impulse response R'. It is a figure which shows the amplitude characteristic for every frequency spectrum. In each of FIGS. 6 (a) and 6 (b), the vertical axis represents power (unit: dB) and the horizontal axis represents frequency (unit: Hz).

図7(a)は、インパルス応答L’をフーリエ変換することによって求まった周波数スペクトル毎の位相特性を示す図であり、図7(b)は、インパルス応答R’をフーリエ変換することによって求まった周波数スペクトル毎の位相特性を示す図である。図7(a)、図7(b)の各図中、縦軸は角度(単位:degree)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 7A is a diagram showing the phase characteristics for each frequency spectrum obtained by Fourier transforming the impulse response L', and FIG. 7B is a diagram obtained by Fourier transforming the impulse response R'. It is a figure which shows the phase characteristic for every frequency spectrum. In each of the figures of FIGS. 7 (a) and 7 (b), the vertical axis represents an angle (unit: degree) and the horizontal axis represents a frequency (unit: Hz).

図6(a)、図6(b)、図7(a)及び図7(b)の例では、フーリエ変換長は8,192サンプルである。また、周波数スペクトルは、0Hzからナイキスト周波数の22.05kHzまでの周波数領域を5.38Hz刻みで分割した4,097ポイントに設定されている。なお、3kHzまでの周波数スペクトルは557ポイントとなる。車室内で音が反射・遮蔽・干渉等することから、図6(a)及び図6(b)の例では、周波数毎に振幅が大きく変動し、図7(a)及び図7(b)の例では、周波数毎に位相が大きく変動している。 In the examples of FIGS. 6 (a), 6 (b), 7 (a) and 7 (b), the Fourier transform length is 8,192 samples. The frequency spectrum is set to 4,097 points obtained by dividing the frequency domain from 0 Hz to the Nyquist frequency of 22.05 kHz in increments of 5.38 Hz. The frequency spectrum up to 3 kHz is 557 points. In the examples of FIGS. 6 (a) and 6 (b), the amplitude fluctuates greatly for each frequency because the sound is reflected, shielded, interfered, etc. in the vehicle interior, and FIGS. 7 (a) and 7 (b) In the example of, the phase fluctuates greatly for each frequency.

以下、便宜上、フーリエ変換部116Cにより求められたインパルス応答L’の周波数スペクトル毎の振幅特性と位相特性を「周波数スペクトル信号L”」と記し、フーリエ変換部116Dにより求められたインパルス応答R’の周波数スペクトル毎の振幅特性と位相特性を「周波数スペクトル信号R”」と記す。フーリエ変換部116C及び116Dは、各スピーカからの音の信号のインパルス応答をフーリエ変換することによってインパルス応答の周波数スペクトル信号をスピーカ毎に得るフーリエ変換部として動作する。 Hereinafter, for convenience, the amplitude characteristic and phase characteristic for each frequency spectrum of the impulse response L'obtained by the Fourier transform unit 116C are referred to as "frequency spectrum signal L", and the impulse response R'obtained by the Fourier transform unit 116D is described below. The amplitude characteristic and phase characteristic for each frequency spectrum are referred to as "frequency spectrum signal R". The Fourier transform units 116C and 116D operate as Fourier transform units that obtain the frequency spectrum signal of the impulse response for each speaker by Fourier transforming the impulse response of the sound signal from each speaker.

図4に示されるように、計算部116は、位相制御部116Eを有する。 As shown in FIG. 4, the calculation unit 116 has a phase control unit 116E.

位相制御部116Eは、周波数スペクトル信号L”、R”毎に、第一の振幅特性及び第二の振幅特性(何れも詳しくは後述)を得るため、次の処理(1)〜(5)を行う。 The phase control unit 116E performs the following processes (1) to (5) in order to obtain the first amplitude characteristic and the second amplitude characteristic (both of which will be described in detail later) for each frequency spectrum signal L "and R". Do.

《処理(1)》
位相制御部116Eは、処理対象の周波数スペクトル信号(周波数スペクトル信号L”と周波数スペクトル信号R”の一方)の位相を−180度から+180度の範囲で所定の角度刻みで変え、位相を変える毎に、処理対象の周波数スペクトル信号と、他の周波数スペクトル信号(周波数スペクトル信号L”と周波数スペクトル信号R”の他方)とを合成する(ステップS16)。この合成処理は、処理負荷軽減のため、全ての周波数スペクトルではなく、例えば3kHzまでの計557ポイントの周波数スペクトル毎に行われる。
<< Processing (1) >>
The phase control unit 116E changes the phase of the frequency spectrum signal (one of the frequency spectrum signal L "and the frequency spectrum signal R" to be processed) in a range of −180 degrees to +180 degrees in a predetermined angle step, and each time the phase is changed. In addition, the frequency spectrum signal to be processed and another frequency spectrum signal (the other of the frequency spectrum signal L "and the frequency spectrum signal R") are combined (step S16). In order to reduce the processing load, this synthesis process is performed not for all frequency spectra but for each frequency spectrum of a total of 557 points up to, for example, 3 kHz.

図8(a)は、周波数スペクトル信号L”を処理対象としたときの合成結果を示す図であり、図8(b)は、周波数スペクトル信号R”を処理対象としたときの合成結果を示す図である。図8(a)及び図8(b)では、代表として、557ポイントの周波数スペクトルのうち100Hz(太実線)と400Hz(細実線)の周波数スペクトルの合成結果を示す。図8(a)、図8(b)の各図中、縦軸は合成後の信号のパワー(単位:dB)を示し、横軸は位相(単位:degree)を示す。なお、位相0度(言い換えると位相調節量がゼロ)でのパワーは、処理対象の周波数スペクトル信号の位相を変えずに他の周波数スペクトル信号と合成したときのパワーを示す。 FIG. 8A is a diagram showing a synthesis result when the frequency spectrum signal L ”is a processing target, and FIG. 8B is a diagram showing a synthesis result when the frequency spectrum signal R” is a processing target. It is a figure. 8 (a) and 8 (b) show the result of synthesizing the frequency spectra of 100 Hz (thick solid line) and 400 Hz (thin solid line) among the frequency spectra of 557 points as representatives. In each of FIGS. 8 (a) and 8 (b), the vertical axis represents the power (unit: dB) of the combined signal, and the horizontal axis represents the phase (unit: degree). The power at 0 degrees of phase (in other words, the phase adjustment amount is zero) indicates the power when the frequency spectrum signal to be processed is combined with another frequency spectrum signal without changing the phase.

《処理(2)》
図8(a)、図8(b)の各図中、パワーが最大となる角度で、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で同相(聴取位置においてこれらのスピーカ間の音が最も強めあう干渉を起こす。)となり、パワーが最小となる角度で、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で逆相(聴取位置においてこれらのスピーカ間の音が最も弱めあう干渉を起こす。)となる。
<< Processing (2) >>
In each of FIGS. 8A and 8B, the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are in phase at the listening position at the angle at which the power is maximized (listening position). The sound between these speakers causes the strongest interference.) At the angle at which the power is minimized, the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are opposite in the listening position. (The sound between these speakers causes the weakest interference at the listening position.)

図8(a)の例においては、100Hzの周波数スペクトルでは、−110度で(位相調節されていない周波数スペクトル信号R”と位相調節量が−110度の周波数スペクトル信号L”とを合成したときに)同相となり、+70度で(位相調節されていない周波数スペクトル信号R”と位相調節量が+70度の周波数スペクトル信号L”とを合成したときに)逆相となる。400Hzの周波数スペクトルでは、+180度で(位相調節されていない周波数スペクトル信号R”と位相調節量が+180度の周波数スペクトル信号L”とを合成したときに)同相となり、−10度で(位相調節されていない周波数スペクトル信号R”と位相調節量が−10度の周波数スペクトル信号L”とを合成したときに)逆相となる。 In the example of FIG. 8A, in the frequency spectrum of 100 Hz, when the frequency spectrum signal R "without phase adjustment and the frequency spectrum signal L with the phase adjustment amount of -110 degrees are combined at −110 degrees. It becomes in-phase, and becomes out-of-phase at +70 degrees (when the frequency spectrum signal R "without phase adjustment and the frequency spectrum signal L" with a phase adjustment amount of +70 degrees are combined). In the frequency spectrum of 400 Hz, it becomes in phase at +180 degrees (when the frequency spectrum signal R "without phase adjustment and the frequency spectrum signal L with the phase adjustment amount of +180 degrees are combined), and at -10 degrees (phase adjustment). The phase is reversed (when the frequency spectrum signal R "that has not been processed and the frequency spectrum signal L" whose phase adjustment amount is -10 degrees are combined).

図8(b)の例においては、100Hzの周波数スペクトルでは、+110度で(位相調節されていない周波数スペクトル信号L”と位相調節量が+110度の周波数スペクトル信号R”とを合成したときに)同相となり、−70度で(位相調節されていない周波数スペクトル信号L”と位相調節量が−70度の周波数スペクトル信号R”とを合成したときに)逆相となる。400Hzの周波数スペクトルでは、−180度で(位相調節されていない周波数スペクトル信号L”と位相調節量が−180度の周波数スペクトル信号R”とを合成したときに)同相となり、+10度で(位相調節されていない周波数スペクトル信号L”と位相調節量が+10度の周波数スペクトル信号R”とを合成したときに)逆相となる。 In the example of FIG. 8B, in the frequency spectrum of 100 Hz, the frequency spectrum is +110 degrees (when the frequency spectrum signal L "without phase adjustment and the frequency spectrum signal R" with the phase adjustment amount of +110 degrees are combined). The phases are in phase, and the phases are reversed at −70 degrees (when the frequency spectrum signal L ”without phase adjustment and the frequency spectrum signal R” with the phase adjustment amount of −70 degrees are combined). In the frequency spectrum of 400 Hz, it becomes in phase at -180 degrees (when the frequency spectrum signal L "without phase adjustment and the frequency spectrum signal R with the phase adjustment amount of -180 degrees are combined), and at +10 degrees (phase). The phase is reversed (when the unadjusted frequency spectrum signal L "and the frequency spectrum signal R" having a phase adjustment amount of +10 degrees are combined).

位相制御部116Eは、周波数スペクトル毎の合成結果から、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で同相となるときの、処理対象の周波数スペクトル信号の周波数スペクトル毎の位相調節量を求める(ステップS17)。 The phase control unit 116E is the frequency of the frequency spectrum signal to be processed when the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are in phase at the listening position from the synthesis result for each frequency spectrum. The amount of phase adjustment for each spectrum is obtained (step S17).

図9(a)は、60Hz〜3kHzまでの各周波数スペクトルにおいて、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で同相となるときの、周波数スペクトル信号L”の周波数スペクトル毎の位相調節量を示す図である。図9(b)は、60Hz〜3kHzまでの各周波数スペクトルにおいて、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で同相となるときの、周波数スペクトル信号R”の周波数スペクトル毎の位相調節量を示す図である。図9(a)、図9(b)の各図中、縦軸は位相調節量(単位:degree)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 9A shows a frequency spectrum signal L "when the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are in phase at the listening position in each frequency spectrum from 60 Hz to 3 kHz. 9 (b) shows the phase adjustment amount for each frequency spectrum of the above. FIG. 9B shows the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL in each frequency spectrum from 60 Hz to 3 kHz. It is a figure which shows the phase adjustment amount for every frequency spectrum of a frequency spectrum signal R "when it becomes in phase at a listening position. In each of the figures of FIGS. 9A and 9B, the vertical axis represents the phase adjustment amount (unit: degree), and the horizontal axis represents the frequency (unit: Hz).

なお、位相調節を行う周波数範囲は、ナイキスト周波数の範囲内で任意に設定することができる。本実施形態では、スピーカSPFR及びSPFLで再生可能な下限周波数(60Hz)から、定位において聴感上で位相が支配的となる周波数(言い換えると、位相のずれによる音像定位への影響が大きい周波数)の2倍の周波数(3kHz)を、位相調節を行う周波数範囲として設定している。 The frequency range for phase adjustment can be arbitrarily set within the Nyquist frequency range. In the present embodiment, from the lower limit frequency (60 Hz) that can be reproduced by the speakers SP FR and SP FL , the frequency at which the phase is audibly dominant in localization (in other words, the frequency that has a large influence on the sound image localization due to the phase shift). ) Is set as the frequency range for phase adjustment (3 kHz).

本実施形態では、車室内における周波数毎の伝搬遅延時間の差異により、位相調節量が周波数毎で大きく変動している(図9(a)及び図9(b)参照)。 In the present embodiment, the phase adjustment amount fluctuates greatly for each frequency due to the difference in the propagation delay time for each frequency in the vehicle interior (see FIGS. 9 (a) and 9 (b)).

《処理(3)》
位相制御部116Eは、処理対象の周波数スペクトル信号(周波数スペクトル信号L”そのもの又は周波数スペクトル信号R”そのもの)を複素数に変換するとともに、ステップS17にて求めた処理対象の周波数スペクトル毎の位相調節量(図9(a)又は図9(b)参照)を複素数に変換し、これらを複素乗算する(ステップS18)。
<< Processing (3) >>
The phase control unit 116E converts the frequency spectrum signal to be processed (frequency spectrum signal L "itself or frequency spectrum signal R" itself) into a complex number, and the phase adjustment amount for each frequency spectrum to be processed obtained in step S17. (See FIG. 9 (a) or FIG. 9 (b)) is converted into a complex number, and these are complex-multiplied (step S18).

《処理(4)》
位相制御部116Eは、ステップS18にて複素乗算された(言い換えると、位相制御された)処理対象の周波数スペクトル信号と他の周波数スペクトル信号(周波数スペクトル信号L”そのもの又は周波数スペクトル信号R”そのもの)とを合成することにより、第一の振幅特性を得る(ステップS19)。
<< Processing (4) >>
The phase control unit 116E includes the frequency spectrum signal to be processed (in other words, the phase controlled) complex-multiplied (in other words, phase-controlled) in step S18 and another frequency spectrum signal (frequency spectrum signal L "itself or frequency spectrum signal R" itself). The first amplitude characteristic is obtained by synthesizing and (step S19).

《処理(5)》
位相制御部116Eは、処理対象の周波数スペクトル信号を、位相を変えることなく(すなわち、周波数スペクトル信号L”そのもの又は周波数スペクトル信号R”そのものを)他の周波数スペクトル信号(周波数スペクトル信号L”そのもの又は周波数スペクトル信号R”そのもの)と合成することにより、第二の振幅特性を得る(ステップS20)。
<< Processing (5) >>
The phase control unit 116E transfers the frequency spectrum signal to be processed to another frequency spectrum signal (frequency spectrum signal L "itself or the frequency spectrum signal L" itself without changing the phase (that is, the frequency spectrum signal L "itself or the frequency spectrum signal R" itself). A second amplitude characteristic is obtained by synthesizing with the frequency spectrum signal R "itself) (step S20).

以上の処理(1)〜(5)により、周波数スペクトル信号L”、R”毎に、第一の振幅特性及び第二の振幅特性が得られる。このように、位相制御部116Eは、フーリエ変換部によって得られた各周波数スペクトル信号に対し、所定の位相制御を行い、所定の位相制御が行われない他の周波数スペクトル信号と合成することによって第一の振幅特性を得るとともに、位相制御を行わずに他の周波数スペクトル信号と合成することによって第二の振幅特性を得る振幅特性算出部として動作する。 By the above processes (1) to (5), the first amplitude characteristic and the second amplitude characteristic can be obtained for each frequency spectrum signal L ", R". In this way, the phase control unit 116E performs predetermined phase control on each frequency spectrum signal obtained by the Fourier transform unit, and synthesizes the frequency spectrum signal with another frequency spectrum signal that does not perform the predetermined phase control. It operates as an amplitude characteristic calculation unit that obtains one amplitude characteristic and obtains a second amplitude characteristic by synthesizing it with another frequency spectrum signal without performing phase control.

図10(a)は、周波数スペクトル信号L”について得た第一の振幅特性(実線)と第二の振幅特性(破線)を示す図であり、図10(b)は、周波数スペクトル信号R”について得た第一の振幅特性(実線)と第二の振幅特性(破線)を示す図である。図10(a)、図10(b)の各図中、縦軸はレベル(単位:dB)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 10 (a) is a diagram showing the first amplitude characteristic (solid line) and the second amplitude characteristic (broken line) obtained for the frequency spectrum signal L ", and FIG. 10 (b) is a diagram showing the frequency spectrum signal R". It is a figure which shows the 1st amplitude characteristic (solid line) and the 2nd amplitude characteristic (broken line) obtained about. In each of FIGS. 10 (a) and 10 (b), the vertical axis represents the level (unit: dB) and the horizontal axis represents the frequency (unit: Hz).

位相制御部116Eは、周波数スペクトル信号L”について得た第一の振幅特性と第二の振幅特性とのレベル差を周波数スペクトル毎に算出し、算出された周波数スペクトル毎のレベル差を累積する。また、位相制御部116Eは、周波数スペクトル信号R”について得た第一の振幅特性と第二の振幅特性とのレベル差を周波数スペクトル毎に算出し、算出された周波数スペクトル毎のレベル差を累積する。位相制御部116Eは、これらの累積値を比較し、累積値が大きい方に対応するスピーカを所定の条件を満たすスピーカとして検出する(ステップS21)。このように、位相制御部116Eは、各スピーカについて得られた第一の振幅特性と第二の振幅特性に基づいて複数のスピーカの中から所定の条件を満たすスピーカを検出する検出部として動作する。 The phase control unit 116E calculates the level difference between the first amplitude characteristic and the second amplitude characteristic obtained for the frequency spectrum signal L "for each frequency spectrum, and accumulates the calculated level difference for each frequency spectrum. Further, the phase control unit 116E calculates the level difference between the first amplitude characteristic and the second amplitude characteristic obtained for the frequency spectrum signal R "for each frequency spectrum, and accumulates the calculated level difference for each frequency spectrum. To do. The phase control unit 116E compares these cumulative values and detects the speaker corresponding to the larger cumulative value as a speaker satisfying a predetermined condition (step S21). In this way, the phase control unit 116E operates as a detection unit that detects a speaker satisfying a predetermined condition from a plurality of speakers based on the first amplitude characteristic and the second amplitude characteristic obtained for each speaker. ..

図11(a)は、周波数スペクトル信号L”について得た第一の振幅特性と第二の振幅特性との周波数スペクトル毎のレベル差を示す図であり、図11(b)は、周波数スペクトル信号R”について得た第一の振幅特性と第二の振幅特性と周波数スペクトル毎のレベル差を示す図である。図11(a)、図11(b)の各図中、縦軸はレベル(単位:dB)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 11A is a diagram showing the level difference between the first amplitude characteristic and the second amplitude characteristic obtained for the frequency spectrum signal L ”for each frequency spectrum, and FIG. 11B is a frequency spectrum signal. It is a figure which shows the 1st amplitude characteristic and the 2nd amplitude characteristic obtained about R', and the level difference for each frequency spectrum. In each of FIGS. 11 (a) and 11 (b), the vertical axis represents the level (unit: dB), and the horizontal axis represents the frequency (unit: Hz).

ここで、第一の振幅特性は、処理対象の周波数スペクトル信号を位相制御して他の周波数スペクトル信号と合成することによって得られたものであり、第二の振幅特性は、処理対象の周波数スペクトル信号を位相制御することなく他の周波数スペクトル信号と合成することによって得られたものである。そのため、このレベル差の累積値は、処理対象の周波数スペクトル信号を位相制御したときの効果(聴取位置におけるスピーカ間の音の弱めあいの干渉が低減することによってレベルが増加する効果)を示す値といえる。累積値が高いほど、この効果が高いことを示す。 Here, the first amplitude characteristic is obtained by phase-controlling the frequency spectrum signal of the processing target and synthesizing it with another frequency spectrum signal, and the second amplitude characteristic is the frequency spectrum of the processing target. It was obtained by synthesizing a signal with another frequency spectrum signal without phase control. Therefore, the cumulative value of this level difference is a value indicating the effect when the frequency spectrum signal to be processed is phase-controlled (the effect of increasing the level by reducing the interference of sound weakening between speakers at the listening position). I can say. The higher the cumulative value, the higher this effect.

図11(a)に示されるレベル差の累積値は782であり、図11(b)に示されるレベル差の累積値は2,404である。周波数スペクトル信号R”について得た累積値が高いことから、周波数スペクトル信号R”に対応するスピーカSPFRを基準に位相調節処理を行うことにより、より高い効果(聴取位置におけるスピーカ間の音の弱めあいの干渉が低減することによってレベルが増加する効果)が得られて、音像定位の偏りの改善とともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能となる。 The cumulative value of the level difference shown in FIG. 11 (a) is 782, and the cumulative value of the level difference shown in FIG. 11 (b) is 2,404. Since the cumulative value obtained for the frequency spectrum signal R "is high, a higher effect (weakening of the sound between the speakers at the listening position) can be achieved by performing the phase adjustment process based on the speaker SP FR corresponding to the frequency spectrum signal R ". The effect of increasing the level by reducing the interference between the speakers) is obtained, and it is possible to improve the bias of the sound image localization and suppress the deterioration of sound quality and the decrease in sound pressure due to the interference between the sounds output from each speaker. ..

スピーカの配置や車室内の環境によっては、音の反射・遮蔽・干渉等の影響でスピーカSPFRから聴取位置に向かう音がより長く抑圧される場合もある。一例として、図5(b)のインパルス応答R’が5.0msecまでの期間、抑圧されたレベルである場合を考える。この場合においても、スピーカSPFRが聴取位置(運転席)との距離が最も短いことから、スピーカSPFLからの音と比べて、スピーカSPFRからの音がより短い時間で聴取位置に到達する(インパルス応答R’がインパルス応答L’よりも立ち上がりが早い)。そのため、従来のタイムアライメントでは、音像定位の偏りを改善するため、スピーカSPFRからの音を遅延させることになる。 Depending on the arrangement of the speakers and the environment inside the vehicle, the sound from the speaker SP FR toward the listening position may be suppressed for a longer period of time due to the effects of sound reflection, shielding, interference, and the like. As an example, consider the case where the impulse response R'in FIG. 5 (b) is at a suppressed level for a period of up to 5.0 msec. Even in this case, since the distance from the speaker SP FR to the listening position (driver's seat) is the shortest, the sound from the speaker SP FR reaches the listening position in a shorter time than the sound from the speaker SP FL. (Impulse response R'rises faster than impulse response L'). Therefore, in the conventional time alignment, the sound from the speaker SP FR is delayed in order to improve the bias of the sound image localization.

しかし、インパルス応答R’の立ち上がり部分は5.0msecまでの期間、抑圧されたレベルである。この抑圧されたレベルの音は、微弱なレベルの音であるため、音像の定位に実質的に寄与する実用的なレベルの音であるといえない。音像の定位に実質的に寄与する、スピーカSPFRからの実用的なレベルの音は、5.0msecを超えた時点で聴取位置に到達する。一方、図5(a)を見ると、音像の定位に実質的に寄与する、スピーカSPFLからの実用的なレベルの音は、4.1msec時点で聴取位置に到達している。 However, the rising portion of the impulse response R'is a suppressed level for a period of up to 5.0 msec. Since the sound of this suppressed level is a sound of a weak level, it cannot be said that it is a sound of a practical level that substantially contributes to the localization of the sound image. Practical level sound from the speaker SP FR , which substantially contributes to the localization of the sound image, reaches the listening position when it exceeds 5.0 msec. On the other hand, looking at FIG. 5A, the sound at a practical level from the speaker SP FL , which substantially contributes to the localization of the sound image, has reached the listening position at 4.1 msec.

従来のタイムアライメントでは、音像の定位に実質的に寄与する実用的なレベルの音が聴取位置に到達するまでの時間が長いスピーカ(ここでの例では、単純にインパルス応答の立ち上がりが早いスピーカ)が、遅延を付与するスピーカとして設定される。そのため、従来のタイムアライメントでは、音像定位の偏りを十分に改善することが難しい。 In conventional time alignment, a speaker that takes a long time to reach the listening position at a practical level that substantially contributes to the localization of the sound image (in the example here, a speaker that simply has a quick impulse response rise). Is set as a speaker that gives a delay. Therefore, it is difficult to sufficiently improve the bias of sound image localization by the conventional time alignment.

これに対し、本実施形態では、位相調節処理を実行する際の基準となるスピーカを、上記のように、より高い効果(聴取位置におけるスピーカ間の音の弱めあいの干渉が低減することによってレベルが増加する効果)が得られるかどうかで検出することにより、車室内という特殊なリスニング環境下においても、音像定位の偏りを十分に改善するとともに、各スピーカから出力される音同士の干渉による音質劣化や音圧低下を抑えることが可能となる。 On the other hand, in the present embodiment, the level of the speaker, which is the reference when executing the phase adjustment processing, is set to a higher effect (the interference of sound weakening between the speakers at the listening position is reduced as described above. By detecting whether or not an increasing effect) is obtained, the bias of sound image localization can be sufficiently improved even in a special listening environment such as in a vehicle interior, and the sound quality deteriorates due to interference between the sounds output from each speaker. It is possible to suppress the decrease in sound pressure.

位相制御部116Eは、ステップS21にて検出されたスピーカ(以下「基準スピーカ」と記す。)について得た周波数スペクトル毎の合成結果(本実施形態では、スピーカSPFRについて得た周波数スペクトル毎の合成結果であり、図8(b)参照)から、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で逆相となるときの、周波数スペクトル信号の周波数スペクトル毎の位相調節量(第一の位相調節用データ)を求める(ステップS22)。 The phase control unit 116E synthesizes each frequency spectrum obtained for the speaker detected in step S21 (hereinafter referred to as “reference speaker”) (in the present embodiment, synthesizes each frequency spectrum obtained for the speaker SP FR ). As a result, from FIG. 8B), when the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are out of phase at the listening position, each frequency spectrum of the frequency spectrum signal The phase adjustment amount (first phase adjustment data) is obtained (step S22).

図12は、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で逆相となるときの、周波数スペクトル信号R”の周波数スペクトル毎の位相調節量(第一の位相調節用データ)を示す図である。図12中、縦軸は位相調節量(単位:degree)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 12 shows the phase adjustment amount for each frequency spectrum of the frequency spectrum signal R ”when the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are opposite in the listening position (first). It is a figure which shows the phase adjustment data). In FIG. 12, the vertical axis shows the phase adjustment amount (unit: degree), and the horizontal axis shows a frequency (unit: Hz).

図4に示されるように、計算部116は、位相シフト部116Fを有する。 As shown in FIG. 4, the calculation unit 116 has a phase shift unit 116F.

位相シフト部116Fは、第一の位相調節用データ(図12参照)に応じて、基準スピーカに出力される音の信号の位相を調節する位相調節量を周波数スペクトル毎に決定する(ステップS23)。具体的には、次式に従い、周波数スペクトル毎の位相調節量を決定する。 The phase shift unit 116F determines the phase adjustment amount for adjusting the phase of the sound signal output to the reference speaker for each frequency spectrum according to the first phase adjustment data (see FIG. 12) (step S23). .. Specifically, the phase adjustment amount for each frequency spectrum is determined according to the following equation.

|Phc|≦90°のとき
Phs=+90°
|Phc|>90°のとき
Phs=0°
Phc:ステップS22にて求められた位相調節量
Phs:ステップS23で決定される位相調節量
When | Phc | ≤90 ° Phs = + 90 °
| Phc |> When 90 ° Phs = 0 °
Phc: Phase adjustment amount obtained in step S22 Phs: Phase adjustment amount determined in step S23

図13は、ステップS23で決定された周波数スペクトル毎の位相調節量を示す図である。図13中、縦軸は位相調節量(単位:degree)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 13 is a diagram showing the amount of phase adjustment for each frequency spectrum determined in step S23. In FIG. 13, the vertical axis represents the phase adjustment amount (unit: degree), and the horizontal axis represents the frequency (unit: Hz).

図4に示されるように、計算部116は、スムージング処理部116Gを有する。 As shown in FIG. 4, the calculation unit 116 has a smoothing processing unit 116G.

スムージング処理部116Gは、位相シフト部116Fより入力される周波数スペクトル毎の位相調節量を周波数軸上でスムージング処理する(ステップS24)。これにより、基準スピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための位相調節用データ(基準スピーカ用の第二の位相調節用データ)が得られる。 The smoothing processing unit 116G smoothes the phase adjustment amount for each frequency spectrum input from the phase shift unit 116F on the frequency axis (step S24). As a result, phase adjustment data (second phase adjustment data for the reference speaker) for adjusting the phase of the sound signal output to the reference speaker for each frequency spectrum can be obtained.

図14は、スムージング処理部116Gによるスムージング処理後の位相調節量(基準スピーカ用の第二の位相調節用データ)を示す図である。図14中、縦軸は位相調節量(単位:degree)を示し、横軸は周波数(単位:Hz)を示す。スムージング処理部116Gは、8タップのFIR(Finite Impulse Response)フィルタにより、位相シフト部116Fより入力される周波数スペクトル毎の位相調節量に対してスムージング処理を施す。 FIG. 14 is a diagram showing a phase adjustment amount (second phase adjustment data for a reference speaker) after the smoothing process by the smoothing process unit 116G. In FIG. 14, the vertical axis represents the phase adjustment amount (unit: degree), and the horizontal axis represents the frequency (unit: Hz). The smoothing processing unit 116G performs smoothing processing on the phase adjustment amount for each frequency spectrum input from the phase shift unit 116F by an 8-tap FIR (Finite Impulse Response) filter.

スムージング処理部116Gによるスムージング処理により、周波数領域における位相の急激な変化が抑えられる。そのため、位相調節用データを用いて位相調節された音を出力した際、位相の急激な変化による高調波の発生が抑えられ、このような高調波による聴感上の異音が抑えられる。 The smoothing process by the smoothing process unit 116G suppresses a sudden change in phase in the frequency domain. Therefore, when the phase-adjusted sound is output using the phase-adjusting data, the generation of harmonics due to a sudden change in phase is suppressed, and the audible abnormal noise due to such harmonics is suppressed.

図4に示されるように、計算部116は、位相反転部116Hを有する。 As shown in FIG. 4, the calculation unit 116 has a phase inversion unit 116H.

位相反転部116Hは、ステップS24にて得られたスムージング処理後の位相調節量(基準スピーカ用の第二の位相調節用データ)の位相を反転させることにより、他のスピーカ(本実施形態では、スピーカSPFL)に出力される音の信号の位相を調節する周波数スペクトル毎の位相調節量(他のスピーカ用の第二の位相調節用データ)を得る(ステップS25)。 The phase inversion unit 116H inverts the phase of the phase adjustment amount (second phase adjustment data for the reference speaker) after the smoothing process obtained in step S24, thereby inverting the phase of another speaker (in this embodiment, the present embodiment). A phase adjustment amount (second phase adjustment data for another speaker) for each frequency spectrum for adjusting the phase of the sound signal output to the speaker SP FL ) is obtained (step S25).

図15は、位相反転部116Hによって得られる他のスピーカ用の第二の位相調節用データを示す図である。図15中、縦軸は位相調節量(単位:degree)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 15 is a diagram showing the second phase adjustment data for another speaker obtained by the phase inversion unit 116H. In FIG. 15, the vertical axis represents the phase adjustment amount (unit: degree), and the horizontal axis represents the frequency (unit: Hz).

図14及び図15に示されるように、基準スピーカ用の第二の位相調節用データは、逆相となる位相調節量(第一の位相調節用データ)に応じて、周波数スペクトル毎の位相調節量が0度〜90度の範囲に設定され、他のスピーカ用の第二の位相調節用データは、逆相となる位相調節量(第一の位相調節用データ)に応じて、位相調節量が0度〜−90度の範囲に設定されている。 As shown in FIGS. 14 and 15, the second phase adjustment data for the reference speaker is phase-adjusted for each frequency spectrum according to the phase adjustment amount (first phase adjustment data) that becomes the opposite phase. The amount is set in the range of 0 to 90 degrees, and the second phase adjustment data for other speakers is the phase adjustment amount according to the phase adjustment amount (first phase adjustment data) that is out of phase. Is set in the range of 0 degrees to -90 degrees.

本実施形態では、逆相となる位相調節量(第一の位相調節用データ)をもとに各スピーカ用の第二の位相調節用データが算出され、かつ互いの位相調節量の差が180度以内に収まるように各スピーカ用の第二の位相調節用データが算出されていることから(言い換えると、各スピーカに出力される音の信号に与える位相調節量の差が各周波数スペクトルで180度以内に収まるように、各スピーカ用の第二の位相調節用データが算出されていることから)、一対のスピーカSPFR、SPFLの位置に対して非対称となる運転席の位置、同じく一対のスピーカSPFR、SPFLの位置に対して非対称となる助手席の位置、の双方において、逆相によるスピーカ間の音の干渉を低減することができ、定位を改善するとともに、ディップの発生による音質の劣化や音圧の低下が抑えられる。 In the present embodiment, the second phase adjustment data for each speaker is calculated based on the phase adjustment amount (first phase adjustment data) that is opposite in phase, and the difference between the phase adjustment amounts is 180. Since the second phase adjustment data for each speaker is calculated so as to be within the degree (in other words, the difference in the amount of phase adjustment given to the sound signal output to each speaker is 180 in each frequency spectrum. Since the second phase adjustment data for each speaker is calculated so that it fits within the degree), the position of the driver's seat that is asymmetric with respect to the positions of the pair of speakers SP FR and SP FL , also a pair. In both the position of the passenger seat, which is asymmetric with respect to the positions of the speakers SP FR and SP FL , it is possible to reduce the interference of sound between the speakers due to the opposite phase, improve the localization, and due to the occurrence of dips. Deterioration of sound quality and decrease of sound pressure are suppressed.

このように、位相制御部116E、位相シフト部116F、スムージング処理部116G及び位相反転部116Hは、複数の聴取位置において、複数のスピーカ間の音の干渉による弱めあいが各周波数スペクトルで低減するように、各スピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための第二の位相調節用データを生成する生成部として動作する。 In this way, the phase control unit 116E, the phase shift unit 116F, the smoothing processing unit 116G, and the phase inversion unit 116H reduce the weakening due to sound interference between the plurality of speakers in each frequency spectrum at the plurality of listening positions. In addition, it operates as a generator that generates a second phase adjustment data for adjusting the phase of the sound signal output to each speaker for each frequency spectrum.

制御部100は、各スピーカ用の第二の位相調節用データを位相調節部110に設定する(ステップS26)。位相調節部110は、この第二の位相調節用データを用いて、音源から入力されて各スピーカに出力される音の信号の位相を周波数スペクトル毎に調節する調節部として動作する。 The control unit 100 sets the second phase adjustment data for each speaker in the phase adjustment unit 110 (step S26). The phase adjusting unit 110 operates as an adjusting unit that adjusts the phase of the sound signal input from the sound source and output to each speaker for each frequency spectrum by using the second phase adjusting data.

次に、位相調節部110に設定された第二の位相調節用データを用いて、音源より入力される音の信号を再生する動作について説明する。 Next, an operation of reproducing the sound signal input from the sound source will be described using the second phase adjustment data set in the phase adjustment unit 110.

記録媒体再生部108は、CD(Compact Disc)やDVD(Digital Versatile Disc)等の音源より入力される音の信号S、S(以下「オーディオ信号S、S」と記す。)を再生する。制御部100は、記録媒体再生部108により再生されたオーディオ信号S、Sを位相調節部110に出力する。 The recording medium reproduction unit 108 transmits the sound signals S R and S L (hereinafter referred to as “audio signals S R and S L ”) input from a sound source such as a CD (Compact Disc) or a DVD (Digital Versatile Disc). Reproduce. The control unit 100 outputs the audio signals S L and S R reproduced by the recording medium reproduction unit 108 to the phase adjustment unit 110.

位相調節部110は、各スピーカに出力されるオーディオ信号に対して周波数スペクトル毎に位相を調節して出力する。位相調節部110より出力されたオーディオ信号S、Sは、増幅部112を介して、それぞれ、スピーカSPFR、SPFLから車室内に出力される。 The phase adjusting unit 110 adjusts the phase of the audio signal output to each speaker for each frequency spectrum and outputs the signal. Audio signals output from the phase adjusting section 110 S R, S L, via an amplifier unit 112, respectively, and output speaker SP FR, the SP FL to the passenger compartment.

図16は、位相調節部110の構成を示すブロック図である。図16に示されるように、位相調節部110は、FFT(Fast Fourier Transform)部110A、複素乗算部110B及びIFFT(Inverse Fast Fourier Transform)部110Cを有する。 FIG. 16 is a block diagram showing the configuration of the phase adjusting unit 110. As shown in FIG. 16, the phase adjusting unit 110 includes an FFT (Fast Fourier Transform) unit 110A, a complex multiplication unit 110B, and an IFFT (Inverse Fast Fourier Transform) unit 110C.

FFT部110Aは、制御部100より入力されるオーディオ信号S、Sに対してオーバラップ処理及び窓関数による重み付けを行った後、STFT(Short-Term Fourier Transform)により時間領域から周波数領域への変換を行い、振幅と位相からなる周波数スペクトル信号を複素乗算部110Bに出力する。なお、オーバラップ処理及び窓関数は、ユーザ操作によって定位位置を変更した際(例えば運転席から助手席に変更した際)に位相調節量を徐々に変化させて異音を低減させるためのものである。 FFT unit 110A, the audio signal S R which is input from the control unit 100, after weighting by overlap processing and window function to the S L, STFT (Short-Term Fourier Transform) by the time domain to the frequency domain Is performed, and the frequency spectrum signal composed of the amplitude and the phase is output to the complex multiplication unit 110B. The overlap processing and the window function are for reducing the abnormal noise by gradually changing the phase adjustment amount when the localization position is changed by the user operation (for example, when the driver's seat is changed to the passenger's seat). is there.

本実施形態では、FFT部110Aは、サンプリング周波数が44.1kHzである。また、FFT部110Aは、フーリエ変換長が8,192サンプルであり、オーバラップ長が6,144サンプルであり、窓関数がハニング窓である。FFT部110Aは、2,048サンプルずつ時間シフトしながらSTFTを行うことにより、0Hzからナイキスト周波数の22.05kHzまでの周波数領域を5.38Hz刻みで分割した、計4,097ポイントの周波数スペクトル信号を取得する。 In the present embodiment, the FFT unit 110A has a sampling frequency of 44.1 kHz. Further, the FFT unit 110A has a Fourier transform length of 8,192 samples, an overlap length of 6,144 samples, and a window function of a Hanning window. The FFT unit 110A divides the frequency domain from 0 Hz to the Nyquist frequency of 22.05 kHz in increments of 5.38 Hz by performing the SFTT while shifting the time by 2,048 samples, for a total of 4,097 points of frequency spectrum signal. To get.

複素乗算部110Bには、制御部100より入力された第二の位相調節用データが設定される。複素乗算部110Bは、第二の位相調節用データをもとに、各スピーカチャンネルについて、FFT部110Aより入力される周波数スペクトル信号に対して複素乗算を行い、各チャンネルのスピーカに出力されるオーディオ信号の位相を周波数スペクトル毎に調節する。 The second phase adjustment data input from the control unit 100 is set in the complex multiplication unit 110B. The complex multiplication unit 110B performs complex multiplication on the frequency spectrum signal input from the FFT unit 110A for each speaker channel based on the second phase adjustment data, and outputs audio to the speakers of each channel. The phase of the signal is adjusted for each frequency spectrum.

IFFT部110Cは、複素乗算部110B2より入力される位相調節後の周波数スペクトル信号をISTFTにより周波数領域から時間領域の信号に変換し、変換された信号について窓関数による重み付け及びオーバラップ加算を行って、増幅部112に出力する。 The IFFT unit 110C converts the phase-adjusted frequency spectrum signal input from the complex multiplication unit 110B2 from the frequency domain to the time domain signal by the ISFT, and performs weighting and overlap addition by the window function on the converted signal. , Is output to the amplification unit 112.

図17〜図20を用いて、各スピーカチャンネルについて位相調節した場合の具体例を示す。この例では、オーディオ信号がモノラルのインパルス信号であり、周波数領域が1kHzであるものとする。750Hz以下の低域では両耳間位相差が定位に影響を及ぼし、750Hz〜1.5kHzの低中域では両耳間位相差と両耳間レベル差が定位に影響を及ぼし、1.5kHz以上の中高域では両耳間レベル差が定位に影響を及ぼすことが知られている(例えば特開2004−325284号公報参照)。そのため、ここでは、位相調節を行う対象の周波数領域を1kHzとしている。なお、1kHz以下の波長は比較的長いため、両耳間位相差が比較的小さくなる。そのため、ここでは、リスナの左右の耳に到達する音を同じとみなしており、座席毎の測定ポイント(マイクロフォンMICが設置される聴取位置)を1ポイントとしている。 17 to 20 show a specific example in the case where the phase is adjusted for each speaker channel. In this example, it is assumed that the audio signal is a monaural impulse signal and the frequency domain is 1 kHz. Interaural time difference affects localization in the low range of 750Hz or less, and interaural phase difference and level difference between both ears affect localization in the low and mid range of 750Hz to 1.5kHz, 1.5kHz or more. It is known that the interaural level difference affects the localization in the mid-high range (see, for example, Japanese Patent Application Laid-Open No. 2004-325284). Therefore, here, the frequency domain for which the phase adjustment is performed is set to 1 kHz. Since the wavelength of 1 kHz or less is relatively long, the interaural phase difference is relatively small. Therefore, here, the sounds reaching the left and right ears of the listener are regarded as the same, and the measurement point for each seat (the listening position where the microphone MIC is installed) is set to one point.

図17(a)及び図17(b)は、運転席に設置されたマイクロフォンMICで収音されるオーディオ信号の時間特性を示す図である。具体的には、図17(a)は、本実施形態に係る位相調節処理が施されていないオーディオ信号を各スピーカSPFR、SPFLから同時に出力したときに(以下「制御なし例」と記す。)、運転席に設置されたマイクロフォンMICで収音されるオーディオ信号の時間特性を示す図である。図17(b)は、本実施形態に係る位相調節処理が施されたオーディオ信号を各スピーカSPFR、SPFLから同時に出力したときに(以下「位相調節例」と記す。)、運転席に設置されたマイクロフォンMICで収音されるオーディオ信号の時間特性を示す図である。図17(a)、図17(b)の各図中、縦軸は振幅を示し、横軸は時間(単位:sec)を示す。 17 (a) and 17 (b) are diagrams showing the time characteristics of the audio signal picked up by the microphone MIC installed in the driver's seat. Specifically, FIG. 17A shows when the audio signals not subjected to the phase adjustment processing according to the present embodiment are simultaneously output from the respective speakers SP FR and SP FL (hereinafter, referred to as “example without control”). ), It is a figure which shows the time characteristic of the audio signal picked up by the microphone MIC installed in the driver's seat. FIG. 17B shows the driver's seat when the audio signal subjected to the phase adjustment processing according to the present embodiment is simultaneously output from the speakers SP FR and SP FL (hereinafter referred to as “phase adjustment example”). It is a figure which shows the time characteristic of the audio signal picked up by the installed microphone MIC. In each of the figures of FIGS. 17 (a) and 17 (b), the vertical axis represents the amplitude and the horizontal axis represents the time (unit: sec).

図18(a)及び図18(b)は、助手席に設置されたマイクロフォンMICで収音されるオーディオ信号の時間特性を示す図である。具体的には、図18(a)は、制御なし例において、助手席に設置されたマイクロフォンMICで収音されるオーディオ信号の時間特性を示す図である。図18(b)は、位相調節例において、助手席に設置されたマイクロフォンMICで収音されるオーディオ信号の時間特性を示す図である。図18(a)、図18(b)の各図中、縦軸は振幅を示し、横軸は時間(単位:sec)を示す。 18 (a) and 18 (b) are diagrams showing the time characteristics of the audio signal picked up by the microphone MIC installed in the passenger seat. Specifically, FIG. 18A is a diagram showing the time characteristics of an audio signal picked up by a microphone MIC installed in the passenger seat in an example without control. FIG. 18B is a diagram showing the time characteristics of the audio signal picked up by the microphone MIC installed in the passenger seat in the phase adjustment example. In each of the figures of FIGS. 18A and 18B, the vertical axis represents the amplitude and the horizontal axis represents the time (unit: sec).

図17(a)と図17(b)とを比べると、本実施形態に係る位相調節処理をオーディオ信号に施すことにより、本実施形態に係る位相調節処理をオーディオ信号に施さない場合よりも振幅が大きくなっていることが判る。また、図18(a)と図18(b)とを比べると、本実施形態に係る位相調節処理をオーディオ信号に施すことにより、助手席においても、本実施形態に係る位相調節処理をオーディオ信号に施さない場合より振幅が大きくなっていることが判る。これは、本実施形態に係る位相調節処理をオーディオ信号に施すことにより、各聴取位置(運転席、助手席)において、スピーカSPFRとスピーカSPFL間の音の干渉による弱めあいが低減したためである。 Comparing FIG. 17A and FIG. 17B, by applying the phase adjustment processing according to the present embodiment to the audio signal, the amplitude is larger than that when the phase adjustment processing according to the present embodiment is not applied to the audio signal. Can be seen to be larger. Further, comparing FIG. 18A and FIG. 18B, by performing the phase adjustment processing according to the present embodiment on the audio signal, the phase adjustment processing according to the present embodiment can be performed on the audio signal even in the passenger seat. It can be seen that the amplitude is larger than when it is not applied to. This is because the phase adjustment processing according to the present embodiment is applied to the audio signal to reduce the weakening due to sound interference between the speaker SP FR and the speaker SP FL at each listening position (driver's seat, passenger's seat). is there.

図19は、運転席に設置されたマイクロフォンMICで収音される、制御なし例のオーディオ信号の周波数特性(細実線)と位相調節例のオーディオ信号の周波数特性(太実線)を示す図である。図20は、助手席に設置されたマイクロフォンMICで収音される、制御なし例のオーディオ信号の周波数特性(細実線)と位相調節例のオーディオ信号の周波数特性(太実線)を示す図である。図19及び図20中、縦軸はレベル(単位:dB)を示し、横軸は周波数(単位:Hz)を示す。 FIG. 19 is a diagram showing the frequency characteristics (thin solid line) of the audio signal of the uncontrolled example and the frequency characteristic (thick solid line) of the audio signal of the phase adjustment example picked up by the microphone MIC installed in the driver's seat. .. FIG. 20 is a diagram showing the frequency characteristics (thin solid line) of the audio signal of the uncontrolled example and the frequency characteristic (thick solid line) of the audio signal of the phase adjustment example picked up by the microphone MIC installed in the passenger seat. .. In FIGS. 19 and 20, the vertical axis represents the level (unit: dB) and the horizontal axis represents the frequency (unit: Hz).

図19及び図20に示されるように、本実施形態に係る位相調節例では、制御なし例と比べてほぼ全域に亘りレベルが大きくなっており、運転席、助手席の何れの聴取位置においても、スピーカSPFRとスピーカSPFL間の音の干渉による弱めあいが制御なし例と比べて低減されることが判る。また、周波数領域においてディップの発生がほぼ抑えられている。そのため、本実施形態に係る位相調節例では、制御なし例と比べて、運転席、助手席の何れの聴取位置においても、音像定位の偏りが改善されるとともに、スピーカSPFRとスピーカSPFL間の音の干渉による音質劣化や音圧低下が抑えられることが判る。 As shown in FIGS. 19 and 20, in the phase adjustment example according to the present embodiment, the level is higher over almost the entire area as compared with the non-control example, and the level is higher in any listening position of the driver's seat and the passenger's seat. It can be seen that the weakening due to sound interference between the speaker SP FR and the speaker SP FL is reduced as compared with the case without control. In addition, the occurrence of dips is almost suppressed in the frequency domain. Therefore, in the phase adjustment example according to the present embodiment, the bias of the sound image localization is improved at any of the listening positions of the driver's seat and the passenger's seat as compared with the example without control, and between the speaker SP FR and the speaker SP FL. It can be seen that the deterioration of sound quality and the decrease in sound pressure due to the interference of the sound of the speaker are suppressed.

なお、音声や音楽の周波数成分は低中域に集中する。そのため、音声や音楽のオーディオ信号(ここで例示した1Hz以下の低中域のモノラル信号)を対象とする場合、低中域を位相調節するだけでも音像の定位を十分に改善し、かつディップの発生による音質の劣化や音圧の低下を抑えることが可能となる。 The frequency components of voice and music are concentrated in the low and mid range. Therefore, when targeting audio or music audio signals (monaural signals in the low-mid range of 1 Hz or less illustrated here), the sound image localization can be sufficiently improved by simply adjusting the phase of the low-mid range, and the dip can be used. It is possible to suppress the deterioration of sound quality and the decrease of sound pressure due to the generation.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施例等又は自明な実施例等を適宜組み合わせた内容も本願の実施形態に含まれる。 The above is the description of the exemplary embodiment of the present invention. The embodiment of the present invention is not limited to that described above, and various modifications can be made within the scope of the technical idea of the present invention. For example, the embodiment of the present application also includes the content obtained by appropriately combining examples and the like or obvious examples and the like specified in the specification.

ステップS23において位相シフト部116Fが決定する周波数スペクトル毎の位相調節量は上記の実施形態のものに限らない。位相シフト部116Fは、例えば、次式に従い、周波数スペクトル毎の位相調節量を決定してもよい。 The amount of phase adjustment for each frequency spectrum determined by the phase shift unit 116F in step S23 is not limited to that of the above embodiment. The phase shift unit 116F may determine the amount of phase adjustment for each frequency spectrum according to, for example, the following equation.

|Phc|≦90°のとき
Phs=Phc+90°
|Phc|>90°のとき
Phs=Phc−90°
When | Phc | ≤90 ° Phs = Phc + 90 °
| Phc |> When 90 ° Phs = Phc-90 °

位相シフト部116Fが上記式に従って周波数スペクトル毎の位相調節量を決定した場合に、運転席に設置されたマイクロフォンMICで収音される、制御なし例のオーディオ信号の周波数特性(細実線)と位相調節例のオーディオ信号の周波数特性(太実線)を図21に示す。また、この場合に、助手席に設置されたマイクロフォンMICで収音される、制御なし例のオーディオ信号の周波数特性(細実線)と位相調節例のオーディオ信号の周波数特性(太実線)を図22に示す。図21及び図22中、縦軸はレベル(単位:dB)を示し、横軸は周波数(単位:Hz)を示す。 When the phase shift unit 116F determines the phase adjustment amount for each frequency spectrum according to the above equation, the frequency characteristics (fine solid line) and phase of the uncontrolled example audio signal picked up by the microphone MIC installed in the driver's seat. The frequency characteristics (thick solid line) of the audio signal of the adjustment example are shown in FIG. In this case, the frequency characteristics (thin solid line) of the audio signal of the uncontrolled example and the frequency characteristic (thick solid line) of the audio signal of the phase adjustment example, which are picked up by the microphone MIC installed in the passenger seat, are shown in FIG. 22. Shown in. In FIGS. 21 and 22, the vertical axis represents the level (unit: dB) and the horizontal axis represents the frequency (unit: Hz).

図21及び図22に示されるように、この場合も、位相調節例では、制御なし例と比べてほぼ全域に亘りレベルが大きくなっており、運転席、助手席の何れの聴取位置においても、スピーカSPFRとスピーカSPFL間の音の干渉による弱めあいが制御なし例と比べて低減されることが判る。また、周波数領域においてディップの発生がほぼ抑えられている。そのため、この場合も、位相調節例では、制御なし例と比べて、運転席、助手席の何れの聴取位置においても、音像定位の偏りが改善されるとともに、スピーカSPFRとスピーカSPFL間の音の干渉による音質劣化や音圧低下が抑えられることが判る。 As shown in FIGS. 21 and 22, in this case as well, in the phase adjustment example, the level is higher over almost the entire area than in the non-control example, and the level can be increased in any of the listening positions of the driver's seat and the passenger's seat. It can be seen that the weakening due to sound interference between the speaker SP FR and the speaker SP FL is reduced as compared with the case without control. In addition, the occurrence of dips is almost suppressed in the frequency domain. Therefore, in this case as well, in the phase adjustment example, the bias of the sound image localization is improved at any of the listening positions in the driver's seat and the passenger's seat as compared with the case without control, and between the speaker SP FR and the speaker SP FL It can be seen that the deterioration of sound quality and the decrease in sound pressure due to sound interference can be suppressed.

上記の実施形態において、位相制御部116Eは、ステップS22において、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で逆相となるときの、周波数スペクトル信号の周波数スペクトル毎の位相調節量を第一の位相調節用データとして求めているが、別の一実施形態では、スピーカSPFRからの音の位相とスピーカSPFLからの音の位相とが聴取位置で同相となるときの、周波数スペクトル信号の周波数スペクトル毎の位相調節量を第一の位相調節用データとして求めてもよい。 In the above embodiment, the phase control unit 116E determines the frequency of the frequency spectrum signal when the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are out of phase at the listening position in step S22. The phase adjustment amount for each spectrum is obtained as the first phase adjustment data, but in another embodiment, the phase of the sound from the speaker SP FR and the phase of the sound from the speaker SP FL are in phase at the listening position. The phase adjustment amount for each frequency spectrum of the frequency spectrum signal at that time may be obtained as the first phase adjustment data.

上記の実施形態では、音響装置10は位相調節用データ生成機能(位相制御装置)を搭載しているが、位相調節用データ生成機能を搭載しない音響装置も本発明の範疇である。この音響装置は、例えば製造工場等で生成された各スピーカ用の第二の位相調節用データを予め保持しており、第二の位相調節用データを用いて、音源から入力されて各スピーカに出力される音の信号の位相を周波数スペクトル毎に調節することにより、複数の聴取位置における、複数のスピーカ間の音の干渉による弱めあいを、各周波数スペクトルで低減させる構成となっている。 In the above embodiment, the acoustic device 10 is equipped with a phase adjustment data generation function (phase control device), but an acoustic device not equipped with the phase adjustment data generation function is also within the scope of the present invention. This sound device holds in advance the second phase adjustment data for each speaker generated in, for example, a manufacturing factory, and is input from a sound source to each speaker using the second phase adjustment data. By adjusting the phase of the output sound signal for each frequency spectrum, the weakening due to sound interference between the plurality of speakers at a plurality of listening positions is reduced in each frequency spectrum.

別の一実施形態では、位相調節部110は、周波数スペクトル毎の位相調節量をフーリエ変換してFIRフィルタ係数を生成し、FIRフィルタを用いた時間領域での処理によって、位相制御の対象となるスピーカに出力されるオーディオ信号に対して周波数スペクトル毎の位相調節を行ってもよい。また、位相調節部110は、周波数スペクトル毎の位相調節量をもとに周波数帯毎の分割処理を行い、二次のIIR(Infinite Impulse Response)フィルタ等を用いたオールパスフィルタにより、位相制御の対象となるスピーカに出力されるオーディオ信号に対して位相調節を行ってもよい。 In another embodiment, the phase adjustment unit 110 Fourier transforms the phase adjustment amount for each frequency spectrum to generate an FIR filter coefficient, and is subject to phase control by processing in the time domain using the FIR filter. The phase of the audio signal output to the speaker may be adjusted for each frequency spectrum. Further, the phase adjustment unit 110 performs division processing for each frequency band based on the phase adjustment amount for each frequency spectrum, and is subject to phase control by an all-pass filter using a secondary IIR (Infinite Impulse Response) filter or the like. The phase of the audio signal output to the speaker may be adjusted.

上記の実施形態では、運転席でのインパルス応答を測定した場合の処理を説明したが、これと同様の処理が座席毎に行われてもよい。この場合、制御部100は、各座席でインパルス応答を測定した場合に生成される各スピーカの第二の位相調節用データをプリセットデータとして保持してもよい。リスナは、操作部104を操作してプリセットデータを選択することにより、音像定位の偏りの改善等をなすための第二の位相調節用データを任意に切り変えることができる。 In the above embodiment, the processing when the impulse response in the driver's seat is measured has been described, but the same processing may be performed for each seat. In this case, the control unit 100 may hold the second phase adjustment data of each speaker generated when the impulse response is measured in each seat as preset data. By operating the operation unit 104 to select preset data, the listener can arbitrarily switch the second phase adjustment data for improving the bias of the sound image localization.

上記の実施形態では、フロントスピーカを対象とした場合の処理を説明したが、車両に別のスピーカ(例えばリアスピーカ)が設置されている場合、これと同様の処理がリアスピーカ側で行われてもよい。 In the above embodiment, the processing when the front speaker is targeted has been described, but when another speaker (for example, a rear speaker) is installed in the vehicle, the same processing is performed on the rear speaker side. May be good.

1 音響システム
10 音響装置
100 制御部
102 表示部
104 操作部
106 測定用信号発生部
108 記録媒体再生部
110 位相調節部
110A FFT部
110B 複素乗算部
110C IFFT部
112 増幅部
114 信号収録部
116 計算部
116A、116B 測定部
116C、116D フーリエ変換部
116E 位相制御部
116F 位相シフト部
116G スムージング処理部
116H 位相反転部
1 Acoustic system 10 Acoustic device 100 Control unit 102 Display unit 104 Operation unit 106 Measurement signal generation unit 108 Recording medium playback unit 110 Phase adjustment unit 110A FFT unit 110B Complex multiplication unit 110C IFFT unit 112 Amplification unit 114 Signal recording unit 116 Calculation unit 116A, 116B Measuring unit 116C, 116D Fourier transform unit 116E Phase control unit 116F Phase shift unit 116G Smoothing processing unit 116H Phase inversion unit

Claims (16)

複数のスピーカの各々から出力されて所定の聴取位置で時間的に非干渉なタイミングで収音された各音の信号のインパルス応答を測定する測定部と、
前記測定された各前記スピーカからの前記音の信号のインパルス応答をフーリエ変換することによって前記インパルス応答の周波数スペクトル信号を前記スピーカ毎に得るフーリエ変換部と、
前記フーリエ変換部によって得られた各前記周波数スペクトル信号に対し、所定の位相制御を行い、前記所定の位相制御が行われない他の前記周波数スペクトル信号と合成することによって第一の振幅特性を得るとともに、前記位相制御を行わずに前記他の周波数スペクトル信号と合成することによって第二の振幅特性を得る振幅特性算出部と、
前記各スピーカについて得られた前記第一の振幅特性と前記第二の振幅特性に基づいて前記複数のスピーカの中から所定の条件を満たすスピーカを検出する検出部と、
前記検出されたスピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための第一の位相調節用データに基づいて、前記所定の聴取位置を含む複数の聴取位置において、前記複数のスピーカ間の前記音の干渉による弱めあいが各周波数スペクトルで低減するように、前記複数のスピーカの各々に出力される音の信号の位相を前記周波数スペクトル毎に調節するための第二の位相調節用データを生成する生成部と、
を備える、
位相制御装置。
A measuring unit that measures the impulse response of each sound signal output from each of a plurality of speakers and picked up at a predetermined listening position at a timing that does not interfere with time.
A Fourier transform unit that obtains a frequency spectrum signal of the impulse response for each speaker by Fourier transforming the impulse response of the sound signal from each of the measured speakers.
A first amplitude characteristic is obtained by performing a predetermined phase control on each of the frequency spectrum signals obtained by the Fourier transform unit and synthesizing the frequency spectrum signal with another frequency spectrum signal in which the predetermined phase control is not performed. In addition, an amplitude characteristic calculation unit that obtains a second amplitude characteristic by synthesizing with the other frequency spectrum signal without performing the phase control,
A detection unit that detects a speaker satisfying a predetermined condition from the plurality of speakers based on the first amplitude characteristic and the second amplitude characteristic obtained for each speaker.
Based on the first phase adjustment data for adjusting the phase of the sound signal output to the detected speaker for each frequency spectrum, at the plurality of listening positions including the predetermined listening position, the plurality of said A second phase adjustment for adjusting the phase of the sound signal output to each of the plurality of speakers for each frequency spectrum so that the weakening due to the interference of the sound between the speakers is reduced in each frequency spectrum. A generator that generates data for
To prepare
Phase control device.
前記検出部は、
前記スピーカ毎に前記第一の振幅特性と前記第二の振幅特性とのレベル差を算出し、
前記各スピーカについて算出されたレベル差に応じた値を比較し、
前記比較の結果に基づいて前記所定の条件を満たすスピーカを検出する、
請求項1に記載の位相制御装置。
The detection unit
The level difference between the first amplitude characteristic and the second amplitude characteristic was calculated for each speaker.
Compare the values according to the level difference calculated for each speaker,
A speaker satisfying the predetermined condition is detected based on the result of the comparison.
The phase control device according to claim 1.
前記検出部は、
前記レベル差を前記周波数スペクトル毎に算出し、
算出された周波数スペクトル毎のレベル差を累積し、
前記各スピーカについて得られた前記レベル差の累積値を比較し、
前記累積値が最も大きいスピーカを前記所定の条件を満たすスピーカとして検出する、
請求項2に記載の位相制御装置。
The detection unit
The level difference is calculated for each frequency spectrum,
Accumulate the calculated level difference for each frequency spectrum,
The cumulative values of the level differences obtained for each of the speakers were compared and compared.
The speaker having the largest cumulative value is detected as a speaker satisfying the predetermined condition.
The phase control device according to claim 2.
前記振幅特性算出部は、
前記フーリエ変換部によって得られた前記周波数スペクトル信号毎に次の処理(1)〜(5)を行う、
(1)処理対象の周波数スペクトル信号の位相を変え、前記位相を変える毎に、前記処理対象の周波数スペクトル信号と前記他の周波数スペクトル信号とを合成し、
(2)前記合成の結果に基づいて、前記処理対象のスピーカからの前記音の信号の位相調節量を前記周波数スペクトル毎に求め、
(3)前記求めた周波数スペクトル毎の位相調節量と前記処理対象の周波数スペクトル信号とを複素乗算し、
(4)前記複素乗算された周波数スペクトル信号と前記他の周波数スペクトル信号とを合成することによって第一の振幅特性を得て、
(5)前記位相を変えることなく前記処理対象の周波数スペクトル信号と前記他の周波数スペクトル信号とを合成することによって第二の振幅特性を得る、
請求項1から請求項3の何れか一項に記載の位相制御装置。
The amplitude characteristic calculation unit
The following processes (1) to (5) are performed for each of the frequency spectrum signals obtained by the Fourier transform unit.
(1) The phase of the frequency spectrum signal to be processed is changed, and each time the phase is changed, the frequency spectrum signal to be processed and the other frequency spectrum signal are combined.
(2) Based on the result of the synthesis, the phase adjustment amount of the sound signal from the speaker to be processed is obtained for each frequency spectrum.
(3) The amount of phase adjustment for each frequency spectrum obtained is complexly multiplied by the frequency spectrum signal to be processed.
(4) The first amplitude characteristic is obtained by synthesizing the complex-multiplied frequency spectrum signal and the other frequency spectrum signal.
(5) A second amplitude characteristic is obtained by synthesizing the frequency spectrum signal to be processed and the other frequency spectrum signal without changing the phase.
The phase control device according to any one of claims 1 to 3.
前記第一の位相調節用データは、
前記検出されたスピーカから出力される音の位相と他の前記スピーカから出力される音の位相とが前記聴取位置において前記各周波数スペクトルで同相又は逆相となるように、前記検出されたスピーカに出力される音の位相を前記周波数スペクトル毎に調節するためのデータである、
請求項1から請求項4の何れか一項に記載の位相制御装置。
The first phase adjustment data is
In the detected speaker, the phase of the sound output from the detected speaker and the phase of the sound output from the other speaker are in phase or out of phase in each frequency spectrum at the listening position. This is data for adjusting the phase of the output sound for each frequency spectrum.
The phase control device according to any one of claims 1 to 4.
前記生成部は、
前記第一の位相調節用データをもとに、前記複数のスピーカの各々に出力される音の信号に与える位相調節量を前記周波数スペクトル毎に算出し、
算出された周波数スペクトル毎の位相調節量を前記第二の位相調節用データとして得る、
請求項5に記載の位相制御装置。
The generator
Based on the first phase adjustment data, the phase adjustment amount given to the sound signal output to each of the plurality of speakers is calculated for each frequency spectrum.
The calculated phase adjustment amount for each frequency spectrum is obtained as the second phase adjustment data.
The phase control device according to claim 5.
前記生成部は、
前記複数のスピーカの各々に出力される音の信号に与える位相調節量の差が各前記周波数スペクトルで180度以内に収まるように、前記位相調節量を算出する、
請求項6に記載の位相制御装置。
The generator
The phase adjustment amount is calculated so that the difference in the phase adjustment amount given to the sound signal output to each of the plurality of speakers is within 180 degrees in each frequency spectrum.
The phase control device according to claim 6.
請求項1から請求項7の何れか一項に記載の位相制御装置を有し、音源から入力される音の信号を前記複数のスピーカに出力する音響装置であって、
前記第二の位相調節用データを用いて、前記音源から入力されて前記複数のスピーカの各々に出力される音の信号の位相を前記周波数スペクトル毎に調節する調節部
を備える、
音響装置。
An acoustic device having the phase control device according to any one of claims 1 to 7, and outputting a sound signal input from a sound source to the plurality of speakers.
Using the second phase adjustment data, an adjustment unit for adjusting the phase of a sound signal input from the sound source and output to each of the plurality of speakers for each frequency spectrum is provided.
Acoustic device.
コンピュータによって実行される位相制御方法であって、
複数のスピーカの各々から出力されて所定の聴取位置で時間的に非干渉なタイミングで収音された各音の信号のインパルス応答を測定する測定ステップと、
前記測定された各前記スピーカからの前記音の信号のインパルス応答をフーリエ変換することによって前記インパルス応答の周波数スペクトル信号を前記スピーカ毎に得るフーリエ変換ステップと、
前記フーリエ変換ステップにて得られた各前記周波数スペクトル信号に対し、所定の位相制御を行い、前記所定の位相制御が行われない他の前記周波数スペクトル信号と合成することによって第一の振幅特性を得るとともに、前記位相制御を行わずに前記他の周波数スペクトル信号と合成することによって第二の振幅特性を得る振幅特性算出ステップと、
前記各スピーカについて得られた前記第一の振幅特性と前記第二の振幅特性に基づいて前記複数のスピーカの中から所定の条件を満たすスピーカを検出する検出ステップと、
前記検出されたスピーカに出力される音の信号の位相を周波数スペクトル毎に調節するための第一の位相調節用データに基づいて、前記所定の聴取位置を含む複数の聴取位置において、前記複数のスピーカ間の前記音の干渉による弱めあいが各周波数スペクトルで低減するように、前記複数のスピーカの各々に出力される音の信号の位相を前記周波数スペクトル毎に調節するための第二の位相調節用データを生成する生成ステップと、
を含む、
位相制御方法。
A phase control method performed by a computer
A measurement step of measuring the impulse response of each sound signal output from each of a plurality of speakers and picked up at a predetermined listening position at a timing that does not interfere with time.
A Fourier transform step of obtaining a frequency spectrum signal of the impulse response for each speaker by Fourier transforming the impulse response of the sound signal from each of the measured speakers.
The first amplitude characteristic is obtained by performing a predetermined phase control on each of the frequency spectrum signals obtained in the Fourier transform step and synthesizing the frequency spectrum signal with another frequency spectrum signal in which the predetermined phase control is not performed. In addition, the amplitude characteristic calculation step of obtaining the second amplitude characteristic by synthesizing with the other frequency spectrum signal without performing the phase control,
A detection step of detecting a speaker satisfying a predetermined condition from the plurality of speakers based on the first amplitude characteristic and the second amplitude characteristic obtained for each speaker.
Based on the first phase adjustment data for adjusting the phase of the sound signal output to the detected speaker for each frequency spectrum, at the plurality of listening positions including the predetermined listening position, the plurality of said A second phase adjustment for adjusting the phase of the sound signal output to each of the plurality of speakers for each frequency spectrum so that the weakening due to the interference of the sound between the speakers is reduced in each frequency spectrum. Generation steps to generate data for
including,
Phase control method.
前記検出ステップにて、
前記スピーカ毎に前記第一の振幅特性と前記第二の振幅特性とのレベル差を算出し、
前記各スピーカについて算出されたレベル差に応じた値を比較し、
前記比較の結果に基づいて前記所定の条件を満たすスピーカを検出する、
請求項9に記載の位相制御方法。
In the detection step
The level difference between the first amplitude characteristic and the second amplitude characteristic was calculated for each speaker.
Compare the values according to the level difference calculated for each speaker,
A speaker satisfying the predetermined condition is detected based on the result of the comparison.
The phase control method according to claim 9.
前記検出ステップにて、
前記レベル差を前記周波数スペクトル毎に算出し、
算出された周波数スペクトル毎のレベル差を累積し、
前記各スピーカについて得られた前記レベル差の累積値を比較し、
前記累積値が最も大きいスピーカを前記所定の条件を満たすスピーカとして検出する、
請求項10に記載の位相制御方法。
In the detection step
The level difference is calculated for each frequency spectrum,
Accumulate the calculated level difference for each frequency spectrum,
The cumulative values of the level differences obtained for each of the speakers were compared and compared.
The speaker having the largest cumulative value is detected as a speaker satisfying the predetermined condition.
The phase control method according to claim 10.
前記振幅特性算出ステップにて、
前記フーリエ変換ステップにて得られた前記周波数スペクトル信号毎に次の処理(1)〜(5)を行う、
(1)処理対象の周波数スペクトル信号の位相を変え、前記位相を変える毎に、前記処理対象の周波数スペクトル信号と前記他の周波数スペクトル信号とを合成し、
(2)前記合成の結果に基づいて、前記処理対象のスピーカからの前記音の信号の位相調節量を前記周波数スペクトル毎に求め、
(3)前記求めた周波数スペクトル毎の位相調節量と前記処理対象の周波数スペクトル信号とを複素乗算し、
(4)前記複素乗算された周波数スペクトル信号と前記他の周波数スペクトル信号とを合成することによって第一の振幅特性を得て、
(5)前記位相を変えることなく前記処理対象の周波数スペクトル信号と前記他の周波数スペクトル信号とを合成することによって第二の振幅特性を得る、
請求項9から請求項11の何れか一項に記載の位相制御方法。
In the amplitude characteristic calculation step
The following processes (1) to (5) are performed for each of the frequency spectrum signals obtained in the Fourier transform step.
(1) The phase of the frequency spectrum signal to be processed is changed, and each time the phase is changed, the frequency spectrum signal to be processed and the other frequency spectrum signal are combined.
(2) Based on the result of the synthesis, the phase adjustment amount of the sound signal from the speaker to be processed is obtained for each frequency spectrum.
(3) The amount of phase adjustment for each frequency spectrum obtained is complexly multiplied by the frequency spectrum signal to be processed.
(4) The first amplitude characteristic is obtained by synthesizing the complex-multiplied frequency spectrum signal and the other frequency spectrum signal.
(5) A second amplitude characteristic is obtained by synthesizing the frequency spectrum signal to be processed and the other frequency spectrum signal without changing the phase.
The phase control method according to any one of claims 9 to 11.
前記第一の位相調節用データは、
前記検出されたスピーカから出力される音の位相と他の前記スピーカから出力される音の位相とが前記聴取位置において前記各周波数スペクトルで同相又は逆相となるように、前記検出されたスピーカに出力される音の位相を前記周波数スペクトル毎に調節するためのデータである、
請求項9から請求項12の何れか一項に記載の位相制御方法。
The first phase adjustment data is
In the detected speaker, the phase of the sound output from the detected speaker and the phase of the sound output from the other speaker are in phase or out of phase in each frequency spectrum at the listening position. This is data for adjusting the phase of the output sound for each frequency spectrum.
The phase control method according to any one of claims 9 to 12.
前記生成ステップにて、
前記第一の位相調節用データをもとに、前記複数のスピーカの各々に出力される音の信号に与える位相調節量を前記周波数スペクトル毎に算出し、
算出された周波数スペクトル毎の位相調節量を前記第二の位相調節用データとして得る、
請求項13に記載の位相制御方法。
In the generation step
Based on the first phase adjustment data, the phase adjustment amount given to the sound signal output to each of the plurality of speakers is calculated for each frequency spectrum.
The calculated phase adjustment amount for each frequency spectrum is obtained as the second phase adjustment data.
The phase control method according to claim 13.
前記生成ステップにて、
前記複数のスピーカの各々に出力される音の信号に与える位相調節量の差が各前記周波数スペクトルで180度以内に収まるように、前記位相調節量を算出する、
請求項14に記載の位相制御方法。
In the generation step
The phase adjustment amount is calculated so that the difference in the phase adjustment amount given to the sound signal output to each of the plurality of speakers is within 180 degrees in each frequency spectrum.
The phase control method according to claim 14.
音源から入力される音の信号を前記複数のスピーカに出力する際に、前記第二の位相調節用データを用いて、前記音源から入力されて前記複数のスピーカの各々に出力される音の信号の位相を前記周波数スペクトル毎に調節する調節ステップ
を更に含む、
請求項9から請求項15の何れか一項に記載の位相制御方法。
When the sound signal input from the sound source is output to the plurality of speakers, the sound signal input from the sound source and output to each of the plurality of speakers is used by using the second phase adjustment data. Further includes an adjustment step of adjusting the phase of the frequency spectrum for each frequency spectrum.
The phase control method according to any one of claims 9 to 15.
JP2019031475A 2019-02-25 2019-02-25 PHASE CONTROL DEVICE, AUDIO DEVICE, AND PHASE CONTROL METHOD Active JP7319789B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019031475A JP7319789B2 (en) 2019-02-25 2019-02-25 PHASE CONTROL DEVICE, AUDIO DEVICE, AND PHASE CONTROL METHOD
PCT/JP2020/005724 WO2020175175A2 (en) 2019-02-25 2020-02-14 Phase control device, acoustic device and phase control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019031475A JP7319789B2 (en) 2019-02-25 2019-02-25 PHASE CONTROL DEVICE, AUDIO DEVICE, AND PHASE CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2020137041A true JP2020137041A (en) 2020-08-31
JP7319789B2 JP7319789B2 (en) 2023-08-02

Family

ID=69740477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019031475A Active JP7319789B2 (en) 2019-02-25 2019-02-25 PHASE CONTROL DEVICE, AUDIO DEVICE, AND PHASE CONTROL METHOD

Country Status (2)

Country Link
JP (1) JP7319789B2 (en)
WO (1) WO2020175175A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11546694B2 (en) 2020-06-18 2023-01-03 Faurecia Clarion Electronics Co., Ltd. Signal processing device for filter coefficient generation, signal processing method, and non-transitory computer-readable recording medium therefor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112466274B (en) * 2020-10-29 2024-02-27 中科上声(苏州)电子有限公司 In-vehicle active sounding method and system of electric vehicle
CN112769410B (en) * 2020-12-25 2024-06-11 西安讯飞超脑信息科技有限公司 Filter construction method, audio processing method, electronic equipment and storage device
CN113747326A (en) * 2021-09-29 2021-12-03 歌尔光学科技有限公司 Sound production device, control method thereof, and control device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012366A (en) * 2013-06-27 2015-01-19 クラリオン株式会社 Propagation delay correction device and propagation delay correction method
JP2015015550A (en) * 2013-07-03 2015-01-22 クラリオン株式会社 Sound field correction device, sound field correction filter generation device and sound field correction filter generation
US20150092965A1 (en) * 2013-09-27 2015-04-02 Sony Computer Entertainment Inc. Method of improving externalization of virtual surround sound
WO2016133061A1 (en) * 2015-02-19 2016-08-25 クラリオン株式会社 Phase control signal generation device, phase control signal generation method, and phase control signal generation program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4521549B2 (en) 2003-04-25 2010-08-11 財団法人くまもとテクノ産業財団 A method for separating a plurality of sound sources in the vertical and horizontal directions, and a system therefor
JP4407541B2 (en) 2004-04-28 2010-02-03 ソニー株式会社 Measuring device, measuring method, program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015012366A (en) * 2013-06-27 2015-01-19 クラリオン株式会社 Propagation delay correction device and propagation delay correction method
JP2015015550A (en) * 2013-07-03 2015-01-22 クラリオン株式会社 Sound field correction device, sound field correction filter generation device and sound field correction filter generation
US20150092965A1 (en) * 2013-09-27 2015-04-02 Sony Computer Entertainment Inc. Method of improving externalization of virtual surround sound
WO2016133061A1 (en) * 2015-02-19 2016-08-25 クラリオン株式会社 Phase control signal generation device, phase control signal generation method, and phase control signal generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11546694B2 (en) 2020-06-18 2023-01-03 Faurecia Clarion Electronics Co., Ltd. Signal processing device for filter coefficient generation, signal processing method, and non-transitory computer-readable recording medium therefor

Also Published As

Publication number Publication date
JP7319789B2 (en) 2023-08-02
WO2020175175A2 (en) 2020-09-03

Similar Documents

Publication Publication Date Title
JP7319789B2 (en) PHASE CONTROL DEVICE, AUDIO DEVICE, AND PHASE CONTROL METHOD
US8842845B2 (en) Adaptive bass management
EP2827330B1 (en) Audio signal processing device and audio signal processing method
KR101234973B1 (en) Apparatus and Method for Generating Filter Characteristics
JP6870078B2 (en) Noise estimation for dynamic sound adjustment
WO2007011010A1 (en) Active noise reduction device
JP3505085B2 (en) Audio equipment
WO2009042385A1 (en) Method and apparatus for generating an audio signal from multiple microphones
EP4144100A1 (en) Voice activity detection
JP6083872B2 (en) System and method for reducing unwanted sound in a signal received from a microphone device
JP2006243644A (en) Method for reducing noise, device, program, and recording medium
JP2020137040A (en) Phase control device, acoustic device, and phase control method
JP7488703B2 (en) Signal processing device and signal processing program
JP5883580B2 (en) Filter coefficient determination device
JP2012060599A (en) Acoustic processing apparatus
US11483653B2 (en) Noise reduction device, vehicle, and noise reduction method
JP6434333B2 (en) Phase control signal generation apparatus, phase control signal generation method, and phase control signal generation program
KR20090098552A (en) Apparatus and method for automatic gain control using phase information
JP4522509B2 (en) Audio equipment
JP2004343590A (en) Stereophonic signal processing method, device, program, and storage medium
JP2021106359A (en) Signal processing device, audio device, signal processing method, and signal processing program
JP5224586B2 (en) Audio signal interpolation device
JP5998357B2 (en) In-vehicle sound playback device
JP2012100117A (en) Acoustic processing apparatus and method
JPH10284965A (en) Control band decision method for audio equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230721

R150 Certificate of patent or registration of utility model

Ref document number: 7319789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150