WO2015029205A1 - 音響処理装置、音響処理方法、及び音響処理プログラム - Google Patents

音響処理装置、音響処理方法、及び音響処理プログラム Download PDF

Info

Publication number
WO2015029205A1
WO2015029205A1 PCT/JP2013/073255 JP2013073255W WO2015029205A1 WO 2015029205 A1 WO2015029205 A1 WO 2015029205A1 JP 2013073255 W JP2013073255 W JP 2013073255W WO 2015029205 A1 WO2015029205 A1 WO 2015029205A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
sound image
signal
equalizer
transfer function
Prior art date
Application number
PCT/JP2013/073255
Other languages
English (en)
French (fr)
Inventor
好孝 村山
晃 後藤
Original Assignee
共栄エンジニアリング株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 共栄エンジニアリング株式会社 filed Critical 共栄エンジニアリング株式会社
Priority to JP2015533883A priority Critical patent/JP6161706B2/ja
Priority to EP13892221.6A priority patent/EP3041272A4/en
Priority to CN201380079120.9A priority patent/CN105556990B/zh
Priority to PCT/JP2013/073255 priority patent/WO2015029205A1/ja
Publication of WO2015029205A1 publication Critical patent/WO2015029205A1/ja
Priority to US15/053,097 priority patent/US10524081B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround

Definitions

  • the inventors identified the cause of timbre reproduction failure by uniform equalizer processing for acoustic signals, and found that the sound wave transmission characteristics differ depending on the direction of sound image localization.
  • the frequency change of sound waves localized in one direction may be canceled by chance, but it does not match the frequency change of sound waves localized in the other direction. It was found that the reproduction of the timbre in the case of the sound was different from that in the assumed environment such as the original sound field.
  • the sound processing device of the present embodiment is a sound processing device that corrects differences in timbres heard in different environments, and the same sound is heard in one environment.
  • the equalizer has an equalizer that adjusts the frequency characteristic so that the frequency characteristic of the sound wave when heard in the other environment follows the frequency characteristic of the sound wave of the other sound wave, and the equalizer corresponds to a plurality of sound image signals that are localized in different directions. And a plurality of characteristic frequency characteristic changing processes are performed on corresponding sound image signals.
  • the acoustic processing method of the present embodiment is an acoustic processing method for correcting differences in timbres heard in different environments, and when the same sound is heard in one environment. And adjusting the frequency characteristic so that the frequency characteristic of the sound wave when listened to in the other environment follows the frequency characteristic of the sound wave of the sound wave, and the adjustment step includes a plurality of sound image signals that are localized in different directions. And a characteristic frequency characteristic changing process is performed on the corresponding sound image signal.
  • the equalizers EQ1, EQ2, and EQ3 are, for example, FIR filters and IIR filters.
  • Three types of equalizers EQi correspond to an equalizer EQ2 corresponding to a sound image signal localized at the center, an equalizer EQ1 corresponding to a sound image signal localized in front of the left speaker SaL, and a sound image signal localized in the front of the right speaker SaR. This is an equalizer EQ3.
  • the sound image localization is determined by the sound pressure difference and time difference of sound waves that reach the sound receiving point from the left and right speakers SaL and SaR.
  • the sound image signal that is localized in front of the left speaker SaL is output only from the left speaker SaL, and the sound pressure of the right speaker SaR is set to zero so that the sound image is localized.
  • a sound image signal that is localized in front of the right speaker SaR is output from only the right speaker SaR, and the sound pressure of the left speaker SaL is set to zero so that the sound image is localized.
  • the actual listening environment is a listening environment having a positional relationship between a speaker that actually reproduces an acoustic signal and a sound receiving point.
  • the assumed listening environment is an environment desired by the user, for example, an original sound field, a reference environment defined by ITU-R, a recommended environment recommended by THX, or an environment assumed by a producer such as a mixer. This environment has a positional relationship between the speaker and the sound receiving point in these environments.
  • the sound wave signal that the user's left ear hears at the sound receiving point is the sound wave signal DeL of the following equation (1)
  • the sound wave signal that the user's right ear listens at the sound receiving point is represented by the following equation (2). It becomes a sound wave signal DeR.
  • the output sound of the left speaker SeL reaches the right ear and the output sound of the right speaker SeR also reaches the left ear.
  • the sound wave signal that the user's left ear hears at the sound receiving point is a sound wave signal DaL of the following equation (3)
  • the sound wave signal that the user's right ear listens at the sound receiving point is represented by the following equation (4). It becomes the sound wave signal DaR.
  • the above equations (1) and (2) in the assumed listening environment Can be expressed as the following expression (5)
  • the above expressions (3) and (4) in the actual listening environment can be expressed as the following expression (6).
  • the sound receiving point is assumed to be located on a line orthogonal to the line segment connecting the pair of speakers and passing through the midpoint of the line segment.
  • the sound processing device reproduces, in an actual listening environment, the timbre represented by the above formula (5) when each sound image signal localized at the center is heard at the sound receiving point. That is, the equalizer EQ2 has a transfer function H1 represented by the following expression (7) and is convolved with the sound image signal A to be localized at the center. Then, the equalizer EQ2 equally inputs the sound image signal A after convolution of the transfer function H1 to both adders 10 and 20.
  • the sound processing device reproduces the timbres of the above formulas (8) and (9) in the actual listening environment when the sound image signal that is localized in front of the left speaker SeL is heard at the sound receiving point. That is, the equalizer EQ1 convolves a transfer function H2 represented by the following equation (12) with the sound image signal A to be heard by the left ear, and is represented by the following equation (13) for the sound image signal A to be heard by the right ear.
  • the transfer function H3 to be performed is convolved.
  • An equalizer EQ1 that processes a sound image signal that is localized in front of the left speaker has the transfer functions H2 and H3, and the transfer functions H2 and H3 with respect to the sound image signal A at a constant ratio ⁇ (0 ⁇ ⁇ ⁇ 1).
  • the signal is input to the adder 10 that generates the acoustic signal of the left channel after convolution.
  • the equalizer EQ1 has a transfer function H4 of the following equation (14).
  • a sound image signal that is localized in front of the right speaker is output only from the right speaker SeR and the right speaker SaR, for example, in the assumed listening environment and the actual listening environment.
  • the sound wave signal DeL and the sound wave signal DaL heard in the left ear in the assumed listening environment and the actual listening environment, and the sound wave signal DeR and the sound wave signal DaR heard in the right ear in the assumed listening environment and the actual listening environment are expressed by the following equations: (15) to (18).
  • the equalizer EQ3 that processes the sound image signal that is localized in the front of the right speaker has the transfer functions H5 and H6, and the transfer functions H5 and H6 with respect to the sound image signal B at a constant ratio ⁇ (0 ⁇ ⁇ ⁇ 1).
  • the signal is input to the adder 20 that generates the acoustic signal of the right channel by convolution.
  • the equalizer EQ3 has a transfer function H7 of the following equation (21).
  • the inventors measured the impulse response to the left ear and the 30 ° spread 60 ° spread speaker set and the sound image signal where the sound image was localized in front of the left speaker, and calculated the head-related transfer function.
  • the analysis results in the time domain and the frequency domain are shown in FIG.
  • the sound image localization of the sound image signal was changed to the center, and the impulse response was recorded in the same way.
  • the analysis results in the time domain and frequency domain of the recording results are shown in FIG. In FIGS. 3A and 3B, each upper diagram is a time domain, and each lower diagram is a frequency domain.
  • the frequency characteristic of the impulse response changes with the change of the speaker set. Further, as can be seen from the difference between (a) and (b) of FIG. 3, it can be seen that the degree of change in the frequency characteristics varies depending on the direction of sound image localization.
  • the sound processing device is a device that corrects differences in timbres heard in different environments, and the frequency characteristics of sound waves when the same sound is heard in one environment are the other.
  • Equalizers EQ1, EQ2, and EQ3 for adjusting the frequency characteristics are provided so that the frequency characteristics of the sound waves when the sound is heard in the environment of
  • a plurality of equalizers EQ1, EQ2, and EQ3 are provided corresponding to a plurality of sound image signals that are localized in different directions, and perform a specific frequency characteristic changing process on the corresponding sound image signals.
  • the sound processing apparatus according to the second embodiment is a generalized timbre correction process for each sound image signal, and performs a specific timbre correction process on a sound image signal having an arbitrary sound image localization direction.
  • the transfer function of the frequency change given by the transfer path leading from the left speaker SeL to the left ear is CeLL
  • the transfer function of the frequency change given by the transfer path leading from the left speaker SeL to the right ear is shown.
  • the transfer function of the frequency change given by CeLR and the transfer path from the right speaker SeR to the left ear is CeRL
  • the transfer function of the frequency change given by the transfer path from the right speaker SeR to the right ear is CeRR.
  • the sound image signal S that is localized in a predetermined direction becomes a sound wave signal SeL of the following expression (22) in the assumed listening environment and is heard by the user's left ear, and the sound wave signal of the following expression (23) in the assumed listening environment. SeR is heard by the user's right ear.
  • Fa and Fb are transfer functions for each channel that change the amplitude and delay difference of the sound image signal in order to provide sound image localization in a predetermined direction.
  • Fa is a transfer function that is convoluted with the sound image signal S output from the left speaker SeL
  • Fb is a transfer function that is convoluted with the sound image signal S output from the left speaker SeL.
  • the transfer function of the frequency change given by the transfer path from the left speaker SaL to the left ear is CaLL
  • the transfer function of the frequency change given by the transfer path from the left speaker SaL to the right ear is CaLR
  • the right speaker SaR is CaRL
  • the transfer function of the frequency change given by the transfer path leading from the right to the left ear is CaRL
  • the transfer function of the frequency change given by the transfer path leading from the right speaker SaR to the right ear is CaRR.
  • the sound image signal S that is localized in a predetermined direction becomes a sound wave signal SaL of the following equation (24) in the assumed listening environment and is heard by the user's left ear, and the sound wave signal of the following equation (25) in the assumed listening environment. SaR is heard by the user's right ear.
  • the above formulas (22) to (25) are generalizations of the above formulas (1) to (4), formulas (8) to (11), and formulas (15) to (18).
  • the transfer function Fa transfer function Fb
  • equations (22) to (25) become equations (1) to (4).
  • FIG. 5 is a configuration diagram showing the configuration of the sound processing apparatus based on the above.
  • the sound processing apparatus includes equalizers EQ1, EQ2, EQ3,... EQn corresponding to the number of sound image signals S1, S2, S3,... Sn, and equalizers EQ1, EQ2, EQ3,.
  • the adders 10, 20,... are provided in the subsequent stage of EQn corresponding to the number of channels.
  • Each of the equalizers EQ1, EQ2, EQ3... EQn is based on transfer functions H10 and H11, and includes transfer functions Fa and transfer functions Fb that give amplitude differences and time differences to the processed sound image signals S1, S2, S3. With the identified transfer functions H10 i and H11 i .
  • the equalizer EQi applies specific transfer functions H10 i and H11 i to the sound image signal Si, and applies the sound image signal H10 i ⁇ Si to the channel adder 10 for the left speaker SaL.
  • the sound image signal H11 i ⁇ Si is input to the channel adder 20 for the right speaker SaR.
  • the adder 10 connected to the left speaker SaL adds the sound image signals H10 1 and S1, the sound image signals H10 2 and S2, ... the sound image signals H10 n and Sn, and generates an acoustic signal output from the left speaker SaL. And output to the left speaker SaL.
  • the adder 20 connected to the right speaker SaR generates the acoustic signal output from the right speaker SaR by adding the sound image signals H11 1 and S1, the sound image signals H11 2 and S2, ... the sound image signals H11 n and Sn. And output to the right speaker SaR.
  • the sound image processing apparatus includes an equalizer EQ1, EQ2, EQ3... EQn according to the first and second embodiments, a sound source separation unit 30i, and a sound image localization setting.
  • the unit 40i is provided.
  • the amplitude difference and phase difference between channels are analyzed, statistical analysis, frequency analysis, complex analysis, etc. are performed to detect the difference in waveform structure, and the specific frequency based on the detection result
  • the band sound image signal may be emphasized.
  • the first filter 310 is an LC circuit or the like, which gives a certain delay time to the acoustic signal of one channel and always delays the acoustic signal of one channel with respect to the acoustic signal of the other channel. That is, the first filter delays longer than the time difference set between the channels for sound image localization. As a result, all sound image components contained in the sound signal of the other channel are advanced with respect to all sound image signals contained in the sound signal of the one channel.
  • the coefficient update circuit 330 uses the error signal e (k) as a function of the coefficient m (k ⁇ 1) and calculates a recurrence formula between adjacent binomials of the coefficient m (k) including the error signal e (k). The coefficient m (k) that minimizes the error signal e (k) is searched. The coefficient determination circuit 330 updates the coefficient m (k) in such a direction as to decrease the coefficient m (k) as the time difference is generated between the channels of the acoustic signal by this calculation process. Output close to.
  • the synthesis circuit 340 receives the coefficient m (k) of the coefficient determination circuit 330 and the acoustic signals of both channels.
  • the synthesis circuit 340 may multiply the acoustic signals of both channels by a coefficient m (k) at an arbitrary ratio, add them at an arbitrary ratio, and output a specific sound image signal as a result.
  • the speaker set connected to the sound processing device may be any one that includes two or more speakers such as a stereo speaker, a 5.1 channel speaker, and the like.
  • the equalizer EQi may be provided with a transfer function that takes into account the amplitude difference and the time difference. Further, each equalizer EQ1, EQ2, EQ3,..., EQn prepares a plurality of types of transfer functions according to some aspects of the speaker set, and applies them according to the selection of the speaker set by the user. May be determined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

 異環境で聴取される音色の相違を補正して両環境における音色を良好に符合させる音響処理装置を提供する。同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整するイコライザを備える。このイコライザは、異なる方向に音像定位する複数の音像信号に対応して複数設けられる。そして、イコライザは、対応の音像信号に対して特有の周波数特性変更処理を行う。各イコライザは、音像信号が定位する方向に応じて生じる特有の周波数特性の変化を相殺する伝達関数を有する。

Description

音響処理装置、音響処理方法、及び音響処理プログラム
 本発明は、所定環境用に調整された音響信号を他の環境用に変更する音響処理技術に関する。
 リスナーは、左右の耳に到来する音波の時間差、音圧差、響きなどを感知し、音像を其の方向に知覚する。音源から両耳までの頭部伝達関数(Head-Related Transfer Function)が原音源と再生音場において良好に符合していれば、再生音場にてリスナーに対し原音場を模擬した音像を知覚させ得る。
 また、音波は、空間、頭部、及び耳を経由して鼓膜に至るまでに周波数ごとの特有な音圧レベルの変化が生じる。この周波数ごとに特有な音圧レベルの変化を伝達特性という。原音場と聴取音場の頭部伝達関数が良好に符合してれば、同様な伝達特性によりリスナーに原音と同じ音色を聴取させ得る。
 しかしながら、ほとんどの場合、原音場と聴取音場の頭部伝達関数は異なる。例えば、実際又は仮想のコンサートホールの音場空間をリビングルームに再現することは困難である。そのため、原音場空間の音源と受音点との位置関係に対する聴取空間のスピーカと受音点との位置関係は、距離及び角度において相違し、頭部伝達関数は符合せず、リスナーは、原音の音源位置及び音色と異なる音像位置及び音色を知覚してしまう。原音場空間と聴取空間とにおける音源の数の相違も一因である。すなわち、音像定位方法がステレオスピーカ等のサラウンド出力手法によるものであることも一因となる。
 そこで、一般的には、レコーディングスタジオやミキシングスタジオにおいて、録音又は人工的に作成した音響信号に、原音の音響効果を所定の聴取環境で模擬するための音響処理が加えられる。例えば、スタジオにおいて、ミキサー者は、一定のスピーカ配置と受音点を想定し、各スピーカから出力される複数チャンネルの音響信号に対して、原音の音源位置を摸した音像が知覚されるように意図的に時間差と音圧差を修正し、また、原音の音色と符合するように周波数ごとに音圧レベルを変化させる。
 ITU-R(International Telecommunication Union-Radio sector)では、5.1ch等のスピーカ配置を具体的に推奨し、例えばTHXなどでは、映画館におけるスピーカ配置、音の大きさ、館内の大きさなどの基準を定めている。このような推奨や基準をミキサー者及びリスナーが従うことで、たとえ聴取環境が原音場と相違していても、聴取環境にてリスナーの鼓膜に音響信号が到達するときには、原音の音源位置と音色が良好に模擬される。
 但し、原音場と聴取環境とを一致させる必要はなくなるとはいえ、リスニングルームを都合よく上記推奨や基準に合わせることは敷居が高い。そこで、各メーカは、再生装置に、各再生装置が作り出す聴取環境に合わせて音響信号を再調整し、リスニングルームに原音場を模擬する機能を再生装置に付加している。
 例えば、再生装置に手動の方向調整機能やイコライザを備え、リスナーが位相特性、周波数特性、残響特性等の再生特性を数値入力することで、その操作に従って、音響信号の時間差、音圧差、周波数特性を変化させる手法もある(例えば、特許文献1参照。)。
 また、原音場の周波数特性等を予めマッピングしておき、またマイクロホンで聴取位置での音波信号を収録し、マッピングデータと収録データとを突き合わせて、収録データがマッピングデータと一致するように、スピーカごとの音波信号の時間差、音圧差、及び周波数ごとの音圧レベルを調整していく手法もある(例えば、特許文献2参照。)。
特開2001-224100号公報 WO2006/009004号公報
 特許文献1の手法では、ユーザが原音場をイメージし、その原音場から位相特性、周波数特性、残響特性等を想定し、その想定を数値として再生装置に入力しなくてはならない。このようなユーザ操作は、原音場を模擬した聴取音場を作り出すために極めて煩雑かつ困難な作業となり、原音場と聴取環境の良好な頭部伝達関数の符合はほぼ不可能といってよい。
 特許文献2の手法では、ユーザの手間はなくなるとはいえ、原音場を模擬するためにユーザに負担を与えることに代わりはなく、またマイクロホン、膨大なマッピングデータ、マッピングデータと収録データから音響信号の補正係数を演算する高度な演算ユニットを必要するためにかなりのコスト高となる。
 また、これら手法は、音響信号に対して一律なイコライザ処理を行う。音響信号は、各方向に音像定位された音像信号をダウンミキシングした信号であり、各方向の音像成分が含まれている。一律なイコライザ処理では、特定方向の音像については推奨又は基準に定められた聴取環境に倣った音場空間でリスニングしているかの如く音色を再現するが、他の音像については音色の再現が不良であることが確認された。何れの音像についても音色の再現が不良となることもある。
 本願発明は、上記のような従来技術の問題点を解決するために成されたものであり、その目的は、異なる環境で聴取される音色を良好に符合させる音響処理装置、音響処理方法、及び音響処理プログラムを提供することにある。
 発明者等は、鋭意研究の結果、音響信号に対する一律なイコライザ処理による音色再現の不良原因を特定し、音像定位方向に応じて音波の伝達特性が異なることを突き止めた。一律なイコライザ処理では、ある方向に定位する音波の周波数変化を偶然にも相殺することはあるかもしれないが、他方向に定位する音波の周波数変化とは符合せず、そのため、音像ごとに見た場合の音色の再現が、原音場等の想定される環境における其れと異なることがわかった。
 従って、上記の目的を達成するために、本実施形態の音響処理装置は、異環境で聴取される音色の相違を補正する音響処理装置であって、同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整するイコライザを備え、前記イコライザは、異なる方向に音像定位する複数の音像信号に対応して複数設けられ、対応の音像信号に対して特有の周波数特性変更処理を行うこと、を特徴とする。
 前記各イコライザは、音像定位の方向ごとに特有の伝達関数を有し、対応の音像信号に対して前記特有の伝達関数を適用するようにしてもよい。
 前記イコライザが有する伝達関数は、対応の音像信号が音像定位させるために発生させるチャンネル間の相違に基づくようにしてもよい。
 前記チャンネル間の相違は、出力の際に音像定位の方向に従ってチャンネル間に与えられる振幅差、時間差、又はこれらの両方であるようにしてもよい。
 前記イコライザが有する伝達関数は、前記一方の環境及び他方の環境での各耳に到達する音波の各伝達関数に更に基づくようにしてもよい。
 音像信号を音像定位させるためにチャンネル間に相違を与える音像定位設定手段を更に備え、前記イコライザが有する伝達関数は、前記音像定位設定手段が与える相違に基づくようにしてもよい。
 音像定位方向が異なる複数の音像成分を含む音響信号から各音像成分を分離して各音像信号を生成する音源分離手段を更に備え、前記イコライザは、前記音源分離手段が生成した前記音像信号に対して特有の周波数特性変更処理を行うようにしてもよい。
 前記音源分離手段は、各音像成分に対応して複数設けられ、前記音響信号の一方のチャンネルについて特定時間遅延させて、対応の音像成分を同振幅同位相に調整するフィルタと、前記音響信号の一方のチャンネルに係数mを乗じた上でチャンネル間の誤差信号を生成し、この誤差信号を含む係数mの漸化式を演算する係数決定手段と、前記係数mを前記音響信号に乗じる合成手段と、を備えるようにしてもよい。
 また、上記の目的を達成するために、本実施形態の音響処理方法は、異環境で聴取される音色の相違を補正する音響処理方法であって、同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整する調整ステップを有し、前記調整ステップは、異なる方向に音像定位する複数の音像信号に対応して特有に行われ、対応の音像信号に対して特有の周波数特性変更処理を行うこと、を特徴とする。
 また、上記の目的を達成するために、本実施形態の音響処理プログラムは、コンピュータに異環境で聴取される音色の相違を補正する機能を実現させる音響処理プログラムであって、前記コンピュータを、同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整するイコライザとして機能させ、前記イコライザは、異なる方向に音像定位する複数の音像信号に対応して複数設けられ、対応の音像信号に対して特有の周波数特性変更処理を行うこと、を特徴とする。
 本発明によれば、音響信号に含有の音像成分ごとに特有な周波数特性の調整を行うようにしたため、各音像成分に特有な伝達特性の変化に個別対応が可能となり、各音像成分の音色を良好に再現できる。
第1の実施形態に係る音響処理装置の構成を示すブロック図である。 第1の実施形態に係る想定聴取環境、実際聴取環境、及び各音像定位方向を示す模式図である。 各スピーカセット及び各音像定位方向におけるインパルス応答の時間領域及び周波数領域における解析結果を示すグラフである。 第2の実施形態に係る想定聴取環境、実際聴取環境、及び音像定位方向を示す模式図である。 第2の実施形態に係る音響処理装置の構成を示すブロック図である。 第3の実施形態に係る音響処理装置の構成を示すブロック図である。 第3の実施形態に係る音源分離部の構成を示すブロック図である。
 (第1の実施形態)
 第1の実施形態に係る音響処理装置について図面を参照しつつ詳細に説明する。図1に示すように、音響処理装置は、前段側に3種類のイコライザEQ1、EQ2、EQ3を備え、後段側に2チャンネル分の加算器10、20を備え、左スピーカSaL及び右スピーカSaRに接続される。前段側は、回路上、左スピーカSaL及び右スピーカSaRに遠い側である。左スピーカSaL及び右スピーカSaRは、信号に従って音波を発生させる振動源である。左スピーカSaL及び右スピーカSaRが再生、すなわち音波を発生し、その音波が聴取者の両耳に届き、聴取者は音像を知覚する。
 各イコライザEQ1、EQ2、EQ3には、対応の音像信号が入力される。各イコライザEQ1、EQ2、EQ3は、回路特有の伝達関数を有し、この伝達関数を入力信号に畳み込む。ここで、音響信号は、サラウンドスピーカで再生したときに擬似的に生じる各音像定位方向の音像成分をミキシングした信号であり、各スピーカSaL及びSaRに対応したチャンネル信号で構成され、各音像信号を含有する。音像信号は、音響信号の音像成分である。すなわち、音響信号が音像信号に音源分離され、対応の音像信号が対応のイコライザEQi(i=1,2,3)に入力される。音像信号は、音響信号にミキシングされることなく、当初より区別されて用意されている場合もある。
 イコライザEQ1、EQ2、EQ3は例えばFIRフィルタやIIRフィルタである。3種類のイコライザEQiは、センターに音像定位する音像信号に対応したイコライザEQ2、左スピーカSaLの正面に音像定位する音像信号に対応したイコライザEQ1、右スピーカSaRの正面に音像定位する音像信号に対応するイコライザEQ3である。
 加算器10は、左スピーカSaLから出力する左チャンネルの音響信号を生成する。この加算器10は、イコライザEQ1を経た音像信号とイコライザEQ2を経た音像信号を加算する。加算器20は、右スピーカSaRから出力する右チャンネルの音響信号を生成する。この加算器20は、イコライザEQ2を経た音像信号とイコライザEQ3を経た音像信号を加算する。
 尚、音像定位は、左右スピーカSaL及びSaRから受音点に到達する音波の音圧差及び時間差により決定される。本実施形態において、左スピーカSaLの正面に音像定位する音像信号は、左スピーカSaLのみから出力し、右スピーカSaRの音圧を零とすることで、概ね音像定位させる。右スピーカSaRの正面に音像定位する音像信号は、右スピーカSaRのみから出力し、左スピーカSaLの音圧を零とすることで、概ね音像定位させる。
 このような音響処理装置は、対応のイコライザEQiに対応の音像信号が入力され、音像信号に対して特有の伝達関数を畳み込むことで、他方の環境である実際聴取環境における受音点での音色を一方の環境である想定聴取環境における受音点での音色と一致させる。
 実際聴取環境とは、音響信号を実際に再生するスピーカと受音点との位置関係を有するリスニング環境である。想定聴取環境とは、ユーザが所望する環境であり、例えば、原音場、ITU-Rで定められた基準環境、THXで推奨される推奨環境、或いはミキサー者等の製作者が想定する環境等、これら環境におけるスピーカと受音点との位置関係を有する環境である。
 この音響処理装置の原理と共にイコライザEQiの伝達関数について図2に基づき説明する。想定聴取環境において、左スピーカSeLから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCeLL、左スピーカSeLから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCeLR、右スピーカSeRから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCeRL、右スピーカSeRから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCeRRとする。また、左スピーカSeLから音像信号Aが出力され、右スピーカSeRから音像信号Bが出力されるものとする。
 このとき、受音点でユーザの左耳が聴取する音波信号は、以下式(1)の音波信号DeLとなり、受音点でユーザの右耳が聴取する音波信号は、以下式(2)の音波信号DeRとなる。以下式(1)及び(2)は、左スピーカSeLの出力音が右耳にも到達し、右スピーカSeRの出力音が左耳にも到達することを想定している。
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-I000002
 更に、実際聴取環境において、左スピーカSaLから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCaLL、左スピーカSaLから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCaLR、右スピーカSaRから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCaRL、右スピーカSaRから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCaRRとする。また、左スピーカSaLから音像信号Aが出力され、右スピーカSaRから音像信号Bが出力されるものとする。
 このとき、受音点でユーザの左耳が聴取する音波信号は、以下式(3)の音波信号DaLとなり、受音点でユーザの右耳が聴取する音波信号は、以下式(4)の音波信号DaRとなる。
Figure JPOXMLDOC01-appb-I000003
Figure JPOXMLDOC01-appb-I000004
 ここで、センターに音像定位する音像信号は、左右のチャンネルで振幅差及び時間差は等しく、音像信号A=音像信号Bとすることができるから、想定聴取環境における上記式(1)及び(2)は以下式(5)と表すことができ、実際聴取環境における上記式(3)及び(4)は以下式(6)で表すことができる。尚、受音点は、一対のスピーカを結ぶ線分に直交し、かつ其の線分の中点を通る線上に位置するものとする。
Figure JPOXMLDOC01-appb-I000005
Figure JPOXMLDOC01-appb-I000006
 音響処理装置は、センターに定位する各音像信号を受音点で聴取したときの上記式(5)で表される音色を実際聴取環境で再現する。すなわち、イコライザEQ2は、以下式(7)で表される伝達関数H1を有し、センターに定位させる音像信号Aに畳み込む。そして、イコライザEQ2は、伝達関数H1を畳み込んだ後の音像信号Aを両加算器10,20に等分に入力する。
Figure JPOXMLDOC01-appb-I000007
 次に、左のスピーカの正面に音像定位する音像信号は、例えば、想定聴取環境及び実際聴取環境において左スピーカSeL及び左スピーカSaLからのみ出力される。この場合、想定聴取環境及び実際聴取環境における左耳で聴取される音波信号DeL及び音波信号DaL、想定聴取環境及び実際聴取環境における右耳で聴取される音波信号DeR及び音波信号DaRは、以下式(8)~(11)となる。
Figure JPOXMLDOC01-appb-I000008
Figure JPOXMLDOC01-appb-I000009
Figure JPOXMLDOC01-appb-I000010
Figure JPOXMLDOC01-appb-I000011
 音響処理装置は、左スピーカSeLの正面で音像定位する音像信号を受音点で聴取したときの上記式(8)及び(9)の音色を実際聴取環境で再現する。すなわち、イコライザEQ1は、左耳に聴取させる音像信号Aに対して以下式(12)で表される伝達関数H2を畳み込み、右耳に聴取させる音像信号Aに対して以下式(13)で表される伝達関数H3を畳み込む。
Figure JPOXMLDOC01-appb-I000012
Figure JPOXMLDOC01-appb-I000013
 左スピーカの正面に音像定位する音像信号を処理するイコライザEQ1は、この伝達関数H2及びH3を有し、音像信号Aに対して伝達関数H2及びH3を一定比率α(0≦α≦1)で畳み込み、左側チャンネルの音響信号を生成する加算器10に入力する。換言すると、このイコライザEQ1は、以下式(14)の伝達関数H4を有している。
Figure JPOXMLDOC01-appb-I000014
 次に、右のスピーカの正面に音像定位する音像信号は、例えば、想定聴取環境及び実際聴取環境において右スピーカSeR及び右スピーカSaRからのみ出力される。この場合、想定聴取環境及び実際聴取環境における左耳で聴取される音波信号DeL及び音波信号DaL、想定聴取環境及び実際聴取環境における右耳で聴取される音波信号DeR及び音波信号DaRは、以下式(15)~(18)となる。
Figure JPOXMLDOC01-appb-I000015
Figure JPOXMLDOC01-appb-I000016
Figure JPOXMLDOC01-appb-I000017
Figure JPOXMLDOC01-appb-I000018
 音響処理装置は、右スピーカSeRの正面で音像定位する音像信号を受音点で聴取したときの上記式(15)及び(16)の音色を実際聴取環境で再現する。すなわち、イコライザEQ3は、左耳に聴取させる音像信号Bに対して以下式(19)で表される伝達関数H5を畳み込み、右耳に聴取させる音像信号Bに対して以下式(20)で表される伝達関数H6を畳み込む。
Figure JPOXMLDOC01-appb-I000019
Figure JPOXMLDOC01-appb-I000020
 右スピーカの正面に音像定位する音像信号を処理するイコライザEQ3は、この伝達関数H5及びH6を有し、音像信号Bに対して伝達関数H5及びH6を一定比率α(0≦α≦1)で畳み込み、右側チャンネルの音響信号を生成する加算器20に入力する。換言すると、このイコライザEQ3は、以下式(21)の伝達関数H7を有している。
 発明者らは、左のスピーカの正面に音像が定位する音像信号を見開き30度及び見開き60度のスピーカセットと一方の左耳までのインパルス応答を計測し、頭部伝達関数を算出した。その結果の時間領域及び周波数領域における解析結果を図3の(a)に示す。また、音像信号の音像定位をセンターに変更して、同じようにインパルス応答を収録した。その収録結果の時間領域及び周波数領域における解析結果を図3の(b)に示す。図3の(a)(b)において各上図が時間領域、各下図が周波数領域である。
 図3の(a)(b)に示すように、音像定位する方向が何れであろうとも、スピーカセットの変更に伴ってインパルス応答の周波数特性が変化している。更に、図3の(a)と(b)の違いからわかるように、周波数特性の変化の具合は、音像定位させる方向によってもまるで異なることがわかる。
 一方、第1の実施形態に係る音響処理装置は、センター、左スピーカSaLの正面、及び右スピーカSaRの正面に音像を定位させる各音像信号に特有の3種類のイコライザEQ1、EQ2、EQ3を有する。センターに音像定位する音像信号が入力されるイコライザEQ2は、音像信号に伝達関数H1を畳み込み、左スピーカSaLに音像を定位させる音像信号が入力されるイコライザEQ1は、音像信号に伝達関数H4を畳み込み、右スピーカSaRに音像を定位させる音像信号が入力されるイコライザEQ3は、音像信号に伝達関数H7を畳み込む。
 そして、センターに音像を定位させる音像信号が入力されるイコライザEQ2は、伝達関数H1を畳み込んだ音像信号を、左スピーカSaLから出力する音響信号を生成する加算器10と右スピーカSaRから出力する音響信号を生成する加算器20に等しく入力する。
 左スピーカSaLに音像を定位させる音像信号が入力されるイコライザEQ1は、伝達関数H4を畳み込んだ音像信号を、左スピーカSaLから出力する音響信号を生成する加算器10に入力する。また、右スピーカSaRに音像を定位させる音像信号が入力されるイコライザEQ3は、伝達関数H7を畳み込んだ音像信号を、右スピーカSaRから出力する音響信号を生成する加算器20に入力する。
 以上のように、本実施形態に係る音響処理装置は、異環境で聴取される音色の相違を補正する装置であって、同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整するイコライザEQ1、EQ2、EQ3を備える。このイコライザEQ1、EQ2、EQ3は、異なる方向に音像定位する複数の音像信号に対応して複数設けられ、対応の音像信号に対して特有の周波数特性変更処理を行う。
 これにより、音像定位する方向に応じて周波数特性の変化が異なる各音像信号に対し、その特有の周波数特性の変化を相殺する特有のイコライザ処理を行うこととなり、それぞれの音響信号に最適な音色補正が実施され、出力される音波の音像定位方向が何れであろうとも、実際聴取環境を良好に想定聴取環境に倣わせることができる。
 (第2の実施形態)
 第2の実施形態に係る音響処理装置について図面を参照しながら詳細に説明する。第2の実施形態に係る音響処理装置は、音像信号ごとの音色補正処理を一般化したものであり、任意の音像定位方向を持つ音像信号に対して特有の音色補正処理を行う。
 図4に示すように、想定聴取環境において、左スピーカSeLから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCeLL、左スピーカSeLから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCeLR、右スピーカSeRから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCeRL、右スピーカSeRから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCeRRとする。
 このとき、所定方向に音像定位する音像信号Sは、想定聴取環境において以下式(22)の音波信号SeLとなってユーザの左耳で聴取され、想定聴取環境において以下式(23)の音波信号SeRとなってユーザの右耳で聴取される。式中、Fa及びFbは、所定方向に音像定位を与えるために、音像信号の振幅及び遅延差を変更するチャンネルごとの伝達関数である。Faは、左スピーカSeLから出力される音像信号Sに畳み込まれる伝達関数であり、Fbは、左スピーカSeLから出力される音像信号Sに畳み込まれる伝達関数である。
Figure JPOXMLDOC01-appb-I000022
Figure JPOXMLDOC01-appb-I000023
 更に、実際聴取環境において、左スピーカSaLから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCaLL、左スピーカSaLから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCaLR、右スピーカSaRから左耳へ通じる伝達経路が与える周波数変化の伝達関数をCaRL、右スピーカSaRから右耳へ通じる伝達経路が与える周波数変化の伝達関数をCaRRとする。
 このとき、所定方向に音像定位する音像信号Sは、想定聴取環境において以下式(24)の音波信号SaLとなってユーザの左耳で聴取され、想定聴取環境において以下式(25)の音波信号SaRとなってユーザの右耳で聴取される。
Figure JPOXMLDOC01-appb-I000024
Figure JPOXMLDOC01-appb-I000025
 上記式(22)乃至(25)は、上記式(1)乃至(4)、式(8)乃至(11)、及び式(15)乃至(18)を一般化したものである。センターに音像定位する音像信号に関して、伝達関数Fa=伝達関数Fbとなり、式(22)乃至(25)は式(1)乃至(4)となる。左スピーカ正面に音像定位する音像信号に関して、伝達関数Fb=0となり、式(22)乃至(25)は式(8)乃至(11)となる。右スピーカ正面に音像定位する音像信号に関して、伝達関数Fa=0となり、式(22)乃至(25)は式(15)乃至(18)となる。
 そうすると、以下の式(26)及び(27)で表される伝達関数H8及びH9が上記式(24)及び(25)に畳み込まれれば、上記式(22)及び(23)と一致することとなる。
Figure JPOXMLDOC01-appb-I000026
Figure JPOXMLDOC01-appb-I000027
 伝達関数H8を上記式(24)に畳み込み、伝達関数H9を上記式(25)に畳み込み、左スピーカSaLに対応するチャンネルの音像信号Fa・Sと右スピーカSaRに対応するチャンネルの音像信号Fb・Sごとに整理すると、左スピーカSaLに対応するチャンネルの音像信号に畳み込む以下式(28)の伝達関数H10が導かれ、右スピーカSaRに対応するチャンネルの音像信号に適用する以下式(29)の伝達関数H11が導かれる。式中のαは、重み付けであり、想定音場における音像を知覚させうる左右耳の頭部伝達関数において、音像に近い耳側の伝達関数を実際の聴取環境における、耳側の伝達関数への近似度合いを決定する値(0≦α≦1)である。
Figure JPOXMLDOC01-appb-I000028
Figure JPOXMLDOC01-appb-I000029
 図5は、以上を踏まえた音響処理装置の構成を示す構成図である。図5に示すように、音響処理装置は、音像信号S1、S2、S3・・・Snの数に対応してイコライザEQ1、EQ2、EQ3・・・EQnを備え、イコライザEQ1、EQ2、EQ3・・・EQnの後段にはチャンネル数に対応して加算器10、20・・・を備える。各イコライザEQ1、EQ2、EQ3・・・EQnは、伝達関数H10及びH11を基本とし、処理する音像信号S1、S2、S3・・・Snに振幅差及び時間差を与える伝達関数Fa及び伝達関数Fbにより特定された伝達関数H10及びH11を有する。
 イコライザEQiは、音像信号Siが入力されると、その音像信号Siに対して特有の伝達関数H10及びH11を適用し、音像信号H10・Siを左スピーカSaLに対するチャンネルの加算器10に入力し、音像信号H11・Siを右スピーカSaRに対するチャンネルの加算器20に入力する。
 左スピーカSaLに接続された加算器10は、音像信号H10・S1、音像信号H10・S2、・・・音像信号H10・Snを加算して、左スピーカSaLから出力する音響信号を生成し、左スピーカSaLに出力すればよい。右スピーカSaRに接続された加算器20は、音像信号H11・S1、音像信号H11・S2、・・・音像信号H11・Snを加算して、右スピーカSaRから出力する音響信号を生成し、右スピーカSaRに出力すればよい。
 (第3の実施形態)
 第3の実施形態に係る音像処理装置は、図6に示すように、第1及び第2の実施形態に係るイコライザEQ1、EQ2、EQ3・・・EQnの他、音源分離部30i及び音像定位設定部40iを備える。
 音源分離部30iは、複数のチャンネルで構成される音響信号が入力され、この音響信号から各音像定位方向の音像信号を音源分離する。音源分離部30iで分離された音像信号が各イコライザに入力される。音源分離手法は公知の手法を含む各種手法を用いることができる。
 例えば、音源分離手法としては、チャンネル間の振幅差や位相差を解析し、統計的解析、周波数解析、複素解析等を行い、波形構造の違いを検出し、その検出結果をもとに特定周波数帯の音像信号を強調すればよい。特定周波数帯をずらしつつ複数設定することで、各方向の音像信号を分離することができる。
 音像定位設定部40iは、各イコライザEQ1、EQ2、EQ3・・・EQnと各加算部10、20・・・との間に介在し、音像信号に音像定位方向を再設定する。音像定位設定部40iは、左スピーカSaLから出力する音像信号に伝達関数Fai(i=1,2,3・・・n)を適用するフィルタを備え、右スピーカSaRから出力する音像信号に伝達関数Fbi(i=1,2,3・・・n)を適用するフィルタを備えている。この伝達関数Faiと伝達関数Fbiは、式(26)及び式(27)における伝達関数H8及びH9にも反映される。
 フィルタは、例えばゲイン回路と遅延回路で構成される。このフィルタは、チャンネル間で伝達関数Faiと伝達関数Fbiが示す振幅差及び時間差となるように音像信号を変更する。1つのイコライザEQiには一対のフィルタが接続され、これらフィルタの伝達関数Faiと伝達関数Fbiが音像信号に新たな音像定位方向を与える。
 更に、音源分離部30iについて其の一例を説明する。図7は、音源分離部の構成を示すブロック図である。音響処理装置は複数の音源分離部301、302、303、・・・30nを備える。各音源分離部30iは、それぞれ特定の音像信号を音響信号から抽出する。音像信号の抽出手法は、チャンネル間に位相差のない音像信号を相対的に強調し、その他の音像信号を相対的に抑制するものである。音響信号に含有の各音像信号に対して、特定の音像信号がチャンネル間で有する位相差を零にするディレイを一律に適用することで、特定の音像信号についてのみ、チャンネル間の位相差を一致させる。ディレイの度合いを各音源分離部で異ならせることで、各音像定位方向の音像信号が抽出される。
 この音源分離部30iは、一方のチャンネルの音響信号に対する第1フィルタ310と、他方のチャンネルの音響信号に対する第2フィルタ320とを備える。また、音源分離部30iは、第1フィルタ310と第2フィルタ320を経た信号が入力される係数決定回路及び合成回路を並列接続して備えている。
 第1フィルタ310は、LC回路等であり、一方のチャンネルの音響信号に一定の遅延時間を与えて、他方のチャンネルの音響信号に対して一方のチャンネルの音響信号を常に遅延させる。つまり、第1フィルタは、音像定位のためにチャンネル間に設定される時間差よりも長く遅延させる。これにより、他方のチャンネルの音響信号に含有する総ての音像成分が、一方のチャンネルの音響信号が含有する総ての音像信号に対して進んだ状態となる。
 第2フィルタ320は、例えばFIRフィルタやIIRフィルタである。この第2フィルタの伝達関数T1は、以下式(30)で表される。式中、CeL及びCeRは、想定聴取環境において伝達経路が音波に与える伝達関数であり、その伝達経路は、音源分離部が抽出する音像信号の音像位置から受音点までである。CeLは音像位置から左耳まで、CeRは音像位置から右耳までである。
Figure JPOXMLDOC01-appb-I000030
 第2フィルタ320は、上記式(30)を満たす伝達関数T1を有し、特定方向に定位する音像信号を同振幅同位相に揃える一方、特定方向から逸れた方向に定位する音像信号に対して特定方向から逸れるほど、時間差を付けていく。
 係数決定回路330は、一方のチャンネルの音響信号と他方のチャンネルの音響信号の誤差を計算し、誤差に応じた係数m(k)を決定する。
 ここで、係数決定回路330に同着の音響信号の誤差信号e(k)を以下式(31)のように定義する。式中、A(k)は、一方のチャンネルの音響信号であり、B(k)は、他方のチャンネルの音響信号である。
Figure JPOXMLDOC01-appb-I000031
 係数更新回路330は、誤差信号e(k)を係数m(k-1)の関数とし、誤差信号e(k)を含む係数m(k)の隣接二項間漸化式を演算することで、誤差信号e(k)が最小となる係数m(k)を探索する。係数決定回路330は、この演算処理により、音響信号のチャンネル間に時間差が生じていればいるほど、係数m(k)を減少させる方向で更新し、時間差がなければ係数m(k)を1に近づけて出力する。
 隣接二項間漸化式の一例は、以下式(32)の通りである。
Figure JPOXMLDOC01-appb-I000032
 合成回路340は、係数決定回路330の係数m(k)と両チャンネルの音響信号が入力される。合成回路340は、両チャンネルの音響信号に任意の比率で係数m(k)を乗じ、任意の比率で足し合わせて、その結果として特定の音像信号を出力すればよい。
 (その他の実施形態)
 本明細書においては、本発明に係る実施形態を説明したが、この実施形態は例として提示したものであって、発明の範囲を限定することを意図していない。実施形態で開示の構成の全て又は何れかを組み合わせたものも包含される。以上のような実施形態は、その他の様々な形態で実施されることが可能であり、発明の範囲を逸脱しない範囲で、種々の省略や置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
 例えば、実際聴取環境における出力手段としては、音波を生じさせうる振動源、ヘッドホン、イヤホン様々な形態が考えられる。また、音響信号は実音源でも仮想音源でもよく、その音源数が異なる実音源、仮想音源であってもよい、任意に分離抽出した音像信号の数で対応が可能である。
 また、音源分離装置は、CPUやDSPのソフトウェア処理として実現してもよいし、専用のデジタル回路で構成するようにしてもよい。ソフトウェア処理として実現する場合には、CPU、外部メモリ、RAMを備えるコンピュータにおいて、エコライザEQi、音源分離部30i、音像位置設定部40iと同一の処理内容を記述したプログラムをROMやハードディスクやフラッシュメモリ等の外部メモリに記憶させ、RAMに適宜展開し、CPUで其のプログラムに従って演算を行うようにすればよい。
 このプログラムは、CD-ROM、DVD-ROM、サーバ等の記憶媒体に記憶しておき、ドライブにメディアを挿入することにより、又はネットワークを介してダウンロードすることによりインストールすればよい。
 また、音響処理装置に接続されるスピーカセットは、ステレオスピーカ、5.1chスピーカ等のように2以上のスピーカを備えるものであればよく、スピーカごとの伝達経路に応じた伝達関数、チャンネル間の振幅差及び時間差を加味した伝達関数をイコライザEQiに備えるようにすればよい。更に、各イコライザEQ1、EQ2、EQ3、・・・EQnは、スピーカセットの幾つかの態様に合わせて複数種類の伝達関数を用意しておき、スピーカセットのユーザによる選択に合わせて適用する伝達関数を決定するようにしてもよい。
 EQ1、EQ2、EQ3・・・EQn イコライザ
 10、20 加算器
 301、302、303、・・・30n 音源分離部
 310 第1フィルタ
 320 第2フィルタ
 330 係数決定回路
 340 合成回路
 401、402、403、・・・40n 音像位置設定部
 SaL スピーカ
 SaR スピーカ

Claims (17)

  1.  異環境で聴取される音色の相違を補正する音響処理装置であって、
     同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整するイコライザを備え、
     前記イコライザは、
     異なる方向に音像定位する複数の音像信号に対応して複数設けられ、
     対応の音像信号に対して特有の周波数特性変更処理を行うこと、
     を特徴とする音響処理装置。
  2.  前記各イコライザは、音像定位の方向ごとに特有の伝達関数を有し、対応の音像信号に対して前記特有の伝達関数を適用すること、
     を特徴とする請求項1記載の音響処理装置。
  3.  前記イコライザが有する伝達関数は、対応の音像信号を音像定位させるために発生させるチャンネル間の相違に基づくこと、
     を特徴とする請求項2記載の音響処理装置。
  4.  前記チャンネル間の相違は、出力の際に音像定位の方向に従ってチャンネル間に与えられる振幅差、時間差、又はこれらの両方であること、
     を特徴とする請求項3記載の音響処理装置。
  5.  前記イコライザが有する伝達関数は、前記一方の環境及び他方の環境での各耳に到達する音波の各頭部伝達関数に更に基づくこと、
     を特徴とする請求項2乃至4の何れかに記載の音響処理装置。
  6.  音像信号を音像定位させるためにチャンネル間に相違を与える音像定位設定手段を更に備え、
     前記イコライザが有する伝達関数は、前記音像定位設定手段が与える相違に基づくこと、
     を特徴とする請求項3乃至5の何れかに記載の音響処理装置。
  7.  音像定位方向が異なる複数の音像成分を含む音響信号から各音像成分を分離して各音像信号を生成する音源分離手段を更に備え、
     前記イコライザは、前記音源分離手段が生成した前記音像信号に対して特有の周波数特性変更処理を行うこと、
     を特徴とする請求項1乃至6の何れかに記載の音響処理装置。
  8.  前記音源分離手段は、
     各音像成分に対応して複数設けられ、
     前記音響信号の一方のチャンネルについて特定時間遅延させて、対応の音像成分を同振幅同位相に調整するフィルタと、
     前記音響信号の一方のチャンネルに係数mを乗じた上でチャンネル間の誤差信号を生成し、この誤差信号を含む係数mの漸化式を演算する係数決定手段と、
     前記係数mを前記音響信号に乗じる合成手段と、
     を備えること、
     を特徴とする請求項7記載の音響処理装置。
  9.  異環境で聴取される音色の相違を補正する音響処理方法であって、
     同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整する調整ステップを有し、
     前記調整ステップは、
     異なる方向に音像定位する複数の音像信号に対応して特有に行われ、対応の音像信号に対して特有の周波数特性変更処理を行うこと、
     を特徴とする音響処理方法。
  10.  コンピュータに異環境で聴取される音色の相違を補正する機能を実現させる音響処理プログラムであって、
     前記コンピュータを、
     同一音が一方の環境で聴取されたときの音波の周波数特性に他方の環境で聴取されたときの音波の周波数特性が倣うように、周波数特性を調整するイコライザとして機能させ、
     前記イコライザは、
     異なる方向に音像定位する複数の音像信号に対応して複数設けられ、
     対応の音像信号に対して特有の周波数特性変更処理を行うこと、
     を特徴とする音響処理プログラム。
  11.  前記各イコライザは、音像定位の方向ごとに特有の伝達関数を有し、対応の音像信号に対して前記特有の伝達関数を適用すること、
     を特徴とする請求項10記載の音響処理プログラム。
  12.  前記イコライザが有する伝達関数は、対応の音像信号を音像定位させるために発生させるチャンネル間の相違に基づくこと、
     を特徴とする請求項11記載の音響処理プログラム。
  13.  前記チャンネル間の相違は、出力の際に音像定位の方向に従ってチャンネル間に与えられる振幅差、時間差、又はこれらの両方であること、
     を特徴とする請求項12記載の音響処理プログラム。
  14.  前記イコライザが有する伝達関数は、前記一方の環境及び他方の環境で各耳に到達する異環境での音波の各伝達関数に更に基づくこと、
     を特徴とする請求項11乃至13の何れかに記載の音響処理プログラム。
  15.  音像信号を音像定位させるためにチャンネル間に相違を与える音像定位設定部として更に機能させ、
     前記イコライザが有する伝達関数は、前記音像定位設定部が与える相違に基づくこと、
     を特徴とする請求項12乃至14の何れかに記載の音響処理プログラム。
  16.  音像定位方向が異なる複数の音像成分を含む音響信号から各音像成分を分離して各音像信号を生成する音源分離手段として更に機能させ、
     前記イコライザは、前記音源分離手段が生成した前記音像信号に対して特有の周波数特性変更処理を行うこと、
     を特徴とする請求項10乃至16の何れかに記載の音響処理プログラム。
  17.  前記音源分離手段は、
     各音像成分に対応して複数回機能され、
     前記音響信号の一方のチャンネルについて特定時間遅延させて、対応の音像成分を同振幅同位相に調整するフィルタと、
     前記音響信号の一方のチャンネルに係数mを乗じた上でチャンネル間の誤差信号を生成し、この誤差信号を含む係数mの漸化式を演算する係数決定手段と、
     前記係数mを前記音響信号に乗じる合成手段と、
     を備えること、
     を特徴とする請求項16記載の音響処理プログラム。
PCT/JP2013/073255 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム WO2015029205A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015533883A JP6161706B2 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム
EP13892221.6A EP3041272A4 (en) 2013-08-30 2013-08-30 Sound processing apparatus, sound processing method, and sound processing program
CN201380079120.9A CN105556990B (zh) 2013-08-30 2013-08-30 音响处理装置及音响处理方法
PCT/JP2013/073255 WO2015029205A1 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム
US15/053,097 US10524081B2 (en) 2013-08-30 2016-02-25 Sound processing device, sound processing method, and sound processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/073255 WO2015029205A1 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/053,097 Continuation US10524081B2 (en) 2013-08-30 2016-02-25 Sound processing device, sound processing method, and sound processing program

Publications (1)

Publication Number Publication Date
WO2015029205A1 true WO2015029205A1 (ja) 2015-03-05

Family

ID=52585821

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/073255 WO2015029205A1 (ja) 2013-08-30 2013-08-30 音響処理装置、音響処理方法、及び音響処理プログラム

Country Status (5)

Country Link
US (1) US10524081B2 (ja)
EP (1) EP3041272A4 (ja)
JP (1) JP6161706B2 (ja)
CN (1) CN105556990B (ja)
WO (1) WO2015029205A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104064191B (zh) * 2014-06-10 2017-12-15 北京音之邦文化科技有限公司 混音方法及装置
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
JP6988904B2 (ja) * 2017-09-28 2022-01-05 株式会社ソシオネクスト 音響信号処理装置および音響信号処理方法
CN110366068B (zh) * 2019-06-11 2021-08-24 安克创新科技股份有限公司 音频调节方法、电子设备以及装置
CN112866894B (zh) * 2019-11-27 2022-08-05 北京小米移动软件有限公司 声场控制方法及装置、移动终端、存储介质
CN113596647B (zh) * 2020-04-30 2024-05-28 深圳市韶音科技有限公司 声音输出装置及调节声像的方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08182100A (ja) * 1994-10-28 1996-07-12 Matsushita Electric Ind Co Ltd 音像定位方法および音像定位装置
JP2001224100A (ja) 2000-02-14 2001-08-17 Pioneer Electronic Corp 自動音場補正システム及び音場補正方法
JP2001346299A (ja) * 2000-05-31 2001-12-14 Sony Corp 音場補正方法及びオーディオ装置
WO2006009004A1 (ja) 2004-07-15 2006-01-26 Pioneer Corporation 音響再生システム
JP2010021982A (ja) * 2008-06-09 2010-01-28 Mitsubishi Electric Corp 音響再生装置
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO099696A0 (en) * 1996-07-12 1996-08-08 Lake Dsp Pty Limited Methods and apparatus for processing spatialised audio
JP2003087899A (ja) * 2001-09-12 2003-03-20 Sony Corp 音響処理装置
JP4821250B2 (ja) * 2005-10-11 2011-11-24 ヤマハ株式会社 音像定位装置
CN101529930B (zh) * 2006-10-19 2011-11-30 松下电器产业株式会社 声像定位装置、声像定位系统、声像定位方法、程序及集成电路
KR101567461B1 (ko) * 2009-11-16 2015-11-09 삼성전자주식회사 다채널 사운드 신호 생성 장치
JP2013110682A (ja) * 2011-11-24 2013-06-06 Sony Corp 音響信号処理装置、音響信号処理方法、プログラム、および、記録媒体
KR101871234B1 (ko) * 2012-01-02 2018-08-02 삼성전자주식회사 사운드 파노라마 생성 장치 및 방법
JP2015509212A (ja) * 2012-01-19 2015-03-26 コーニンクレッカ フィリップス エヌ ヴェ 空間オーディオ・レンダリング及び符号化
CN104067632B (zh) * 2012-01-27 2018-04-06 共荣工程株式会社 指向性控制方法及装置
CN102711032B (zh) * 2012-05-30 2015-06-03 蒋憧 一种声音处理再现装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08182100A (ja) * 1994-10-28 1996-07-12 Matsushita Electric Ind Co Ltd 音像定位方法および音像定位装置
JP2001224100A (ja) 2000-02-14 2001-08-17 Pioneer Electronic Corp 自動音場補正システム及び音場補正方法
JP2001346299A (ja) * 2000-05-31 2001-12-14 Sony Corp 音場補正方法及びオーディオ装置
WO2006009004A1 (ja) 2004-07-15 2006-01-26 Pioneer Corporation 音響再生システム
JP2010021982A (ja) * 2008-06-09 2010-01-28 Mitsubishi Electric Corp 音響再生装置
WO2013105413A1 (ja) * 2012-01-11 2013-07-18 ソニー株式会社 音場制御装置、音場制御方法、プログラム、音場制御システム及びサーバ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3041272A4

Also Published As

Publication number Publication date
US20160286331A1 (en) 2016-09-29
CN105556990B (zh) 2018-02-23
EP3041272A1 (en) 2016-07-06
EP3041272A4 (en) 2017-04-05
JP6161706B2 (ja) 2017-07-12
US10524081B2 (en) 2019-12-31
CN105556990A (zh) 2016-05-04
JPWO2015029205A1 (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
US9918179B2 (en) Methods and devices for reproducing surround audio signals
KR101368859B1 (ko) 개인 청각 특성을 고려한 2채널 입체 음향 재생 방법 및장치
JP6161706B2 (ja) 音響処理装置、音響処理方法、及び音響処理プログラム
KR100739798B1 (ko) 청취 위치를 고려한 2채널 입체음향 재생 방법 및 장치
KR101567461B1 (ko) 다채널 사운드 신호 생성 장치
CN113207078B (zh) 在扬声器的任意集合上的基于对象的音频的虚拟渲染
US8605914B2 (en) Nonlinear filter for separation of center sounds in stereophonic audio
JP2008522483A (ja) 多重チャンネルオーディオ入力信号を2チャンネル出力で再生するための装置及び方法と、これを行うためのプログラムが記録された記録媒体
EP3613219B1 (en) Stereo virtual bass enhancement
US9607622B2 (en) Audio-signal processing device, audio-signal processing method, program, and recording medium
RU2006126231A (ru) Способ и устройство для воспроизведения обширного монофонического звука
EP2484127B1 (en) Method, computer program and apparatus for processing audio signals
US9510124B2 (en) Parametric binaural headphone rendering
JP4951985B2 (ja) 音声信号処理装置、音声信号処理システム、プログラム
JP6124143B2 (ja) サラウンド成分生成装置
CN110312198B (zh) 用于数字影院的虚拟音源重定位方法及装置
JP7332745B2 (ja) 音声処理方法及び音声処理装置
Cecchi et al. Crossover Networks: A Review
US11039266B1 (en) Binaural reproduction of surround sound using a virtualized line array
JP2011015118A (ja) 音像定位処理装置、音像定位処理方法およびフィルタ係数設定装置
JP2006042316A (ja) 音像上方拡大回路
JP2004166212A (ja) ヘッドホン再生方法及び装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380079120.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13892221

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015533883

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2013892221

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013892221

Country of ref document: EP