WO2007119330A1 - 音像定位装置 - Google Patents

音像定位装置 Download PDF

Info

Publication number
WO2007119330A1
WO2007119330A1 PCT/JP2007/054773 JP2007054773W WO2007119330A1 WO 2007119330 A1 WO2007119330 A1 WO 2007119330A1 JP 2007054773 W JP2007054773 W JP 2007054773W WO 2007119330 A1 WO2007119330 A1 WO 2007119330A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound image
image localization
transfer function
head
frequency component
Prior art date
Application number
PCT/JP2007/054773
Other languages
English (en)
French (fr)
Inventor
Gempo Ito
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2008510761A priority Critical patent/JP4846790B2/ja
Priority to US12/282,414 priority patent/US8135137B2/en
Priority to CN2007800127227A priority patent/CN101422054B/zh
Priority to EP07738245.5A priority patent/EP1995993B1/en
Publication of WO2007119330A1 publication Critical patent/WO2007119330A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing

Definitions

  • the present invention relates to a sound image localization device that localizes a sound image at an arbitrary position in a three-dimensional space.
  • a conventional sound image localization device includes a head-related transfer function storage unit 901 that stores a head-related transfer function created for each position where a sound image is localized, and a target for localizing a sound image. Based on the position information, the head-related transfer function selection unit 902 that selects the head-related transfer function, and based on the selected head-related transfer function, performs the sound source signal filtering! A sound image localization processing unit 903 that outputs a sound image localization signal that has been subjected to localization processing.
  • the input sound source signal is convoluted using a head-related transfer function based on the set target position information, and the sound image is localized. It is output as a localization signal to a sound reproduction device such as a headphone or a speaker.
  • a sound image localization signal is output to the sound reproduction device, as shown in Fig. 21, if the peak (crest) band included in the amplitude component of the head-related transfer function H (f) exceeds OdB, the output sound image A distortion called clipping may occur in the localization signal.
  • the conventional sound image localization apparatus uses a head-related transfer function that reduces the gain of the entire frequency band and prevents the peak frequency band from exceeding OdB, as shown in FIG. It is done.
  • processing that does not cause clipping on the sound image localization signal is performed using a volume compression method called a limiter and a compressor.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 07-059187
  • methods such as a limiter and a compressor are compression methods for nonlinearly manipulating the signal on the time axis, and therefore cause a nonlinear change in the frequency characteristics of the output signal, and the amplitude of the head-related transfer function
  • the component for sound image localization included in the sound image localization signal is deteriorated, such as peak (crest) and dip (valley) of the component.
  • Patent Document 1 when a means for suppressing the sound quality adjustment function is applied to a sound image localization device, the peak or dip of the amplitude component of the head-related transfer function is reduced. In addition, the problem that the sound image localization component included in the sound image localization signal is degraded.
  • the present invention has been made to solve the conventional problems, and suppresses volume reduction of a sound image localization signal, prevents occurrence of clipping, and is used for sound image localization included in the sound image localization signal.
  • the present invention provides a sound image localization apparatus capable of preventing deterioration of components.
  • the sound image localization apparatus of the present invention is a sound image localization apparatus that performs sound image localization processing using a head-related transfer function, and also obtains a frequency component obtained from a sound source signal and a head-related transfer function force corresponding to a target position.
  • the frequency component of the sound source signal or the head-related transfer function is determined when the clipping occurs.
  • a sound image localization processing unit that performs calculation processing using the sound source signal corrected by the frequency component comparison correction unit and the head-related transfer function and outputs a sound image localization signal.
  • the frequency component comparison / correction unit has a configuration in which the amplitude component suppression processing is performed in units of each dip at the peak of the head-related transfer function.
  • the amplitude component is suppressed in units of the peak of the head-related transfer function or each dip. It is possible to suppress the decrease in the amount, prevent the occurrence of clipping, and not deteriorate the sound image localization component included in the sound image localization signal.
  • the sound image localization apparatus of the present invention is a sound image localization apparatus that performs sound image localization processing using a head-related transfer function, and calculates and processes a sound source signal using a head-related transfer function corresponding to a target position.
  • a sound image localization processing unit that outputs a sound image localization signal, and whether or not clipping is generated depending on a specific frequency band of the sound image localization signal. When the clipping occurs, the frequency of the sound image localization signal is determined.
  • a frequency component correction unit that corrects the component, and the frequency component correction unit has a configuration that performs amplitude component suppression processing in units of each dip at the peak of the head-related transfer function. .
  • the amplitude component is suppressed in units of the peak of the head related transfer function or each dip, so that volume reduction of the sound image localization signal is suppressed and clipping is generated.
  • the sound image localization component included in the sound image localization signal can be prevented from being deteriorated.
  • the present invention can reduce the volume of the sound image localization signal, prevent the occurrence of clipping, and can reduce the sound image localization component included in the sound image localization signal.
  • a sound image localization apparatus is provided.
  • FIG. 1 is a block diagram of a sound image localization apparatus according to a first embodiment of the present invention.
  • FIG.5 Diagram showing an example of the configuration of an IIR filter for correcting the head-related transfer function
  • FIG. 8 Diagram showing an example configuration of an IIR filter for correcting the head-related transfer function
  • FIG. 9 Diagram showing an example configuration of an IIR filter for correcting the head-related transfer function
  • FIG.10 Diagram showing an example configuration of an IIR filter for correcting the head related transfer function
  • FIG. 12 Diagram showing an example of the configuration of a bike saddle type IIR filter
  • FIG. 13 Diagram showing an example of the configuration of a bike saddle type IIR filter
  • FIG.14 Diagram showing an example of the configuration of a bike-head type IIR filter
  • FIG. 2 is a block diagram of a sound image localization apparatus according to the first other aspect of the embodiment of FIG.
  • FIG. 21 Diagram showing the band that may cause clipping in the head-related transfer function
  • FIG. 22 Diagram showing an example of the head-related transfer function that suppresses the occurrence of clipping
  • FIG. 1 is a block diagram of a sound image localization apparatus according to the first embodiment of the present invention.
  • the sound image localization apparatus shown in FIG. 1 is based on a head-related transfer function storage unit 101 that stores a head-related transfer function created for each position where a sound image is localized, and target position information that localizes a sound image.
  • V head-related transfer function selection unit 102 that selects the head-related transfer function
  • frequency component analysis unit 103 that analyzes the frequency component of the head-related transfer function
  • the component analysis unit 104 and a frequency component comparison correction unit 105 that determines whether or not the sound image localization signal subjected to the sound image localization process causes clipping. If clipping occurs, the frequency component comparison correction unit 105 corrects the frequency component of the head related transfer function. And based on the head-related transfer function! ⁇ Do not show the sound localization signal that has been subjected to sound localization processing! And a sound image localization processing unit 106 for outputting to a sound reproducing device such as headphones.
  • the head-related transfer function storage unit 101 stores in advance the head-related transfer function created for each position where the sound image is to be localized as a coefficient of a FIR (Finite Impulse Response) filter.
  • FIR Finite Impulse Response
  • the volume is reduced compared to the sound source signal. It may have special characteristics. In other words, this head-related transfer function may be such that the peak band exceeds OdB as shown in Fig. 21.
  • These components constituting the sound image localization apparatus shown in FIG. 1 may be realized by an integrated circuit, and if the sound image localization apparatus is driven by a processor such as a CPU, these component elements Is realized by a program module.
  • the head-related transfer function selection unit 102 selects a head-related transfer function from the head-related transfer function storage unit 101 according to the set target position information, The selected head-related transfer function is output to the frequency component analysis unit 103.
  • the head-related transfer function corresponding to the target position does not exist, for example, based on the head-related transfer function of the target position that is close to the target position, a general interpolation process or the like is used. You can create a corresponding head-related transfer function.
  • the frequency component analysis unit 103 converts the output head-related transfer function into a frequency component using a technique such as Fourier transform, and the converted frequency component is a frequency component comparison and correction unit.
  • the frequency component analysis unit 104 converts the input sound source signal into a frequency component using a technique such as Fourier transform, and outputs the converted frequency component to the frequency component comparison and correction unit 105.
  • the frequency component comparison / correction unit 105 determines whether clipping occurs in a specific frequency band by comparing the frequency component of the head-related transfer function with the frequency component of the sound source signal, and performs clipping. If this occurs, the frequency component of the head-related transfer function is corrected and output to the sound image localization processing unit 106.
  • the specific operation of the frequency component comparison / correction unit 105 includes an amplitude component IS (f) I obtained by taking the absolute value of the normalized frequency component of the sound source signal, and head transmission. Compare the amplitude component, which is the absolute value of the frequency component of the function, with the component IH (f) I, with the sign reversed.
  • the frequency fl, fu at both ends of the peak is prepared as the additional information of the HRTF in the direction of reproduction, or given force. Automatically calculated from H RTF. Based on these frequencies, an IIR filter is configured to suppress only the frequency components that cause clipping and is applied to the HRTF.
  • the peak center frequency fc and bandwidth w are automatically calculated for each HRTF in the direction of reproduction. To do. Based on these frequencies, an IIR filter is constructed and applied to the HRTF so that the frequency components that cause clipping are suppressed by A L.
  • the present inventor can also achieve the target by suppressing the amplitude component of at least one frequency band among the both ends of the frequency band corresponding to the peak appearing in the amplitude component of the head-related transfer function. It has been clarified that the sound image can be localized at the position (see Japanese Patent Application No. 20 04-270316).
  • the frequency of the dip at both ends of the peak or the frequency at which the dip is created is fl, fu, and the HR in the direction of reproduction is shown. It is automatically calculated from the force prepared as companion information of TF or the given HRTF. Based on these frequencies, an IIR filter is constructed and applied to the HRTF so that the frequency components that cause clipping are suppressed by AL.
  • the center frequency fc and the bandwidth w are set to include the dip at both ends of the peak or the dip to be created, and for each HRTF in the reproduction direction. Prepare in advance or calculate automatically from the given HRTF. Based on these frequencies, an IIR filter is constructed and applied to the HRTF so that the frequency component that causes clipping is suppressed by ⁇ L.
  • the sound image localization processing unit 106 performs a multiplication operation of the frequency component corresponding to the convolution operation on the waveform of the time axis on the frequency component of the sound source signal and the frequency component of the head related transfer function, and performs the inverse operation.
  • a sound image localization signal converted into a time-axis waveform is output using a technique such as Fourier transform.
  • the frequency components of the sound source signal and the head-related transfer function are compared, and the frequency band in which clipping occurs and its peripheral band are used.
  • the sound image localization process is performed by correcting the head-related transfer function in units of peaks or dips, thereby suppressing the volume reduction of the sound image localization signal and preventing the occurrence of clipping, and the sound image localization included in the sound image localization signal. It is possible not to degrade the ingredients for
  • the frequency component comparison / correction unit 105 corrects the head-related transfer function to suppress the occurrence of clipping, but corrects the sound source signal. Therefore, an equivalent effect can be obtained.
  • the head related transfer function storage unit 111 stores FIR (Finite Impulse Response).
  • FIR Finite Impulse Response
  • the head-related transfer function converted into frequency components is stored in advance using a method such as Fourier transform that is not a filter coefficient, and the head-related transfer function selection unit 112 is stored in the head-related transfer function storage unit 111.
  • the selected head-related transfer function is selected and output according to the input target position information.
  • the HRTF is configured with a plurality of IIR filters.
  • the bike pad (biqu ad) Here is an example of a type IIR filter! /, but other types of IIR filters can be used!
  • the head-related transfer function storage unit 101 has each IIR
  • the parameters constituting the filter that is, the center frequency fc, the level L, and the sharpness Q are held, and the frequency component analysis unit 103 uses the head-related transfer function output by the head-related transfer function selection unit 102 as the frequency. analyse.
  • the frequency component comparison / correction unit 105 compares the frequency component obtained from the head-related transfer function with the frequency component obtained from the sound source signal, and generates clipping. In this case, as shown in FIG. 13, the level L of the IIR filter constituting the corresponding peak is corrected so that the clipping frequency component is suppressed by AL.
  • the level of the IIR filter is corrected so as to emphasize the dip at both ends, or Alternatively, an additional IIR filter may be configured to create a new dip.
  • the sound image localization processing unit 106 performs filter processing on the sound source signal based on the corrected IIR filter parameters, and outputs a sound image localization signal.
  • FIG. 15 is a block diagram of a sound image localization apparatus according to the second embodiment of the present invention.
  • the sound image localization apparatus shown in FIG. 15 is based on a head-related transfer function storage unit 101 that stores a head-related transfer function created for each position where a sound image is localized, and target position information that localizes a sound image.
  • a head-related transfer function selection unit 102 that selects a head-related transfer function; and a sound image localization processing unit 201 that performs filtering on the input sound source signal based on the head-related transfer function and performs sound image localization processing;
  • a frequency component analysis unit 202 that analyzes the frequency components that make up the sound image localization signal computed by the sound image localization processing unit 201, and a frequency component correction unit that corrects the frequency component when clipping occurs in the sound image localization signal.
  • the sound image localization processing unit 201 shown in FIG. 15 performs a convolution operation on the input sound source signal using the head-related transfer function output by the head-related transfer function selection unit 102, and the processed sound image
  • the localization signal is output to the frequency component analysis unit 202 as an output signal. Since it is necessary to prevent clipping of the output signal, keep a wide range of output signal values. For example, when the sound image localization processing unit 201 performs digital signal processing, for example, when the output signal is 16 bits or more, the output signal is represented by a force representing an integer of 16 bits or more, or a floating point.
  • the frequency component analysis unit 202 converts the sound image localization signal calculated by the sound image localization processing unit 201 into a frequency component using a technique such as Fourier transform, and outputs the frequency component to the frequency component correction unit 203.
  • the frequency component correction unit 203 determines whether or not clipping occurs in a specific frequency band, and when it is determined that clipping occurs, the frequency described in the first embodiment of the present invention. Similar to the component comparison / correction unit 105, for example, by preparing the frequencies at both ends of the peak of the head-related transfer function in advance or by automatically calculating the peak or dip of the head-related transfer function, The sound image localization signal is corrected for each unit, and the sound image localization signal converted into a time-axis waveform is output using a technique such as inverse Fourier transform.
  • the amplitude component IP (f) I force obtained by taking the absolute value of the frequency component of the sound image localization signal does not exceed OdB in all frequency bands. If it is ⁇ , it is determined that clipping does not occur.
  • the frequency band in which clipping occurs and the amplitude corresponding to the surrounding band are generated.
  • the volume reduction of the sound localization signal is suppressed.
  • clipping does not occur, and the sound image localization component included in the sound image localization signal can be prevented from being deteriorated.
  • the sound image localization processing section 201 and the frequency component analysis section 202 described in the second embodiment of the present invention instead, the frequency component analysis units 103 and 104 and the sound image localization processing unit 211 are provided, and the frequency corresponding to the convolution operation on the time axis waveform is applied to the sound source signal converted to the frequency component and the head related transfer function. Component multiplication is performed.
  • a head-related transfer function storage unit 111 and a head-related transfer function selection unit 112 are provided instead of the component analysis unit 103, and sound image localization processing is performed using a head-related transfer function previously converted to a frequency component.
  • the time length when the frequency component analysis unit 103 converts the head-related transfer function or the sound source signal into the frequency component may be the same as or shorter than the time length of the input sound source signal. It may be a long time.
  • the amount of suppression of the amplitude component corresponding to the frequency band where clipping occurs is slightly reduced. May be. In this way, non-linear changes in frequency components caused by limiter and compressor processing can be reduced. It is possible not to degrade the components for sound image localization included in the sound image localization signal.
  • the peak when it coincides with the direction determination band of the target direction, the peak is an important component for sound image localization, and therefore, in addition to suppressing the peak, at least one of its both ends Some dips (valleys) may be emphasized or some may be corrected to create dips.
  • the peak if it does not match the direction determination band of the target direction, the peak is not an important component for sound localization, so it can be used as a correction that only suppresses the peak.
  • the sound image localization apparatus uses the head-related transfer function storage unit 101 to convert the head-related transfer function to the frequency. Since it is stored as component data, it is possible to realize sound image localization with a smaller amount of computation by omitting the process of performing frequency analysis of the head-related transfer function.
  • the sound image localization apparatus is limited to a frequency band in which the amplitude component corresponding to the frequency component of the head related transfer function exceeds a predetermined magnitude such as OdB.
  • OdB a predetermined magnitude
  • the frequency band for determining whether or not the force that causes clipping can be limited, and sound image localization can be realized with a smaller amount of computation.
  • the present invention can suppress the volume reduction of the sound image localization signal, prevent the occurrence of clipping, and not deteriorate the sound image localization component included in the sound image localization signal. It is useful for all devices that perform sound reproduction, such as mobile phones that perform sound image localization processing, sound playback devices, sound recording devices, information terminal devices, game machines, conference devices, communication and broadcast systems, etc. is there.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

 音像定位信号の音量低下を抑止すると共にクリッピングの発生を防止し、かつ音像定位信号に含まれる音像定位のための成分を劣化させないことが可能な音像定位装置を提供すること。  音源信号から得られた周波数成分の分析を行う周波数成分分析部104と、目標位置に対応する頭部伝達関数から得られる周波数成分の分析を行う周波数成分分析部103と、分析された音源信号から得られた周波数成分および頭部伝達関数から得られる周波数成分とを比較し、特定の周波数帯域によってクリッピングが発生するか否かを判定する周波数成分比較補正部105と、周波数成分比較補正部105によってクリッピングが発生すると判定された場合、音源信号または頭部伝達関数の特定の周波数帯域に対応する振幅成分が抑圧された音像定位信号を音響再生装置に出力する音像定位処理部106と、を備えて構成する。

Description

明 細 書
音像定位装置
技術分野
[0001] 本発明は、三次元空間の任意の位置に音像を定位させる音像定位装置に関する。
背景技術
[0002] 従来の音像定位装置は、図 20に示すように、音像を定位させる位置毎に作成され た頭部伝達関数を記憶する頭部伝達関数記憶部 901と、音像を定位させるための 目標位置情報に基づ!、て頭部伝達関数を選択する頭部伝達関数選択部 902と、選 択された頭部伝達関数に基づ!/ヽて音源信号のフィルタ処理を行!ヽ、音像定位処理 を施された音像定位信号を出力する音像定位処理部 903とを備えている。
[0003] また、上述した従来の音像定位装置において、入力された音源信号は、設定され た目標位置情報に基づ!、た頭部伝達関数を用いて畳み込まれ、音像定位された音 像定位信号としてヘッドホンやスピーカなどの音響再生装置に出力される。音像定位 信号が音響再生装置に出力されたとき、図 21に示すように、頭部伝達関数 H (f)の 振幅成分に含まれるピーク(山)の帯域が OdBを超える場合、出力される音像定位信 号にクリッピングと呼ばれるひずみが発生することがある。
[0004] このため、従来の音像定位装置では、図 22に示すように、全周波数帯域のゲイン を落し、かつピークとなる周波数帯域が OdBを超えな 、ようにする頭部伝達関数が用 いられる。また、他の従来の音像定位装置では、リミッタおよびコンプレッサと呼ばれ る音量圧縮手法を用いて、音像定位信号に対しクリッピングを起こさないような処理 が施される。
[0005] 一方、スピーカ等の音響再生装置から出力される音声の音質を制御する装置とし ては、音量が大きくなるにつれて音質調整の機能を抑圧することにより、音声にクリツ ビングが発生することを防止できるものが知られている(例えば、特許文献 1参照。 ) o 特許文献 1 :特開平 07— 059187号公報
発明の開示
発明が解決しょうとする課題 [0006] し力しながら、上述した音像定位装置では、図 22に示すような、ピークが OdBを超 えな 、ようにする頭部伝達関数を用いて音像定位処理を行った場合、出力される音 像定位信号の音量が、入力された元の音源信号と比べて著しく小さくなつてしまうと いう問題があった。
[0007] また、リミッタおよびコンプレッサ等の手法は、信号を時間軸で非線形に操作する圧 縮手法であるため、出力される信号の周波数特性にも非線形な変化を引き起こし、 頭部伝達関数の振幅成分のピーク(山)やディップ (谷)と 、つた、音像定位信号に含 まれる音像定位のための成分を劣化させてしまうという問題点があった。
[0008] また、特許文献 1のように、音質調整の機能を抑圧する手段を音像定位装置に応 用した場合、頭部伝達関数の振幅成分のピークやディップを小さくしてしまうため、同 様に音像定位信号に含まれる音像定位のための成分を劣化させてしまうという問題 点がめった。
[0009] 本発明は、従来の問題を解決するためになされたもので、音像定位信号の音量低 下を抑止すると共にクリッピングの発生を防止し、かつ音像定位信号に含まれる音像 定位のための成分を劣化させないことが可能な音像定位装置を提供するものである 課題を解決するための手段
[0010] 本発明の音像定位装置は、頭部伝達関数を用いて音像定位処理を行う音像定位 装置であって、音源信号から得られる周波数成分と、目標位置に対応する頭部伝達 関数力も得られる周波数成分とを比較することにより、特定の周波数帯域によってタリ ッビングが発生する力否かを判定し、前記クリッピングが発生する場合、前記音源信 号の周波数成分または前記頭部伝達関数の周波数成分を補正する周波数成分比 較補正部と、前記周波数成分比較補正部によって補正された音源信号と頭部伝達 関数を用いて演算処理を行 、、音像定位信号を出力する音像定位処理部とを備え、 前記周波数成分比較補正部は、前記頭部伝達関数のピークある 、はディップごとの 単位で振幅成分の抑圧処理を行う構成を有して!/、る。
[0011] この構成により、クリッピングが発生すると判定された場合、頭部伝達関数のピーク あるいはディップごとの単位で、振幅成分の抑圧処理を行うため、音像定位信号の音 量低下を抑止すると共にクリッピングの発生を防止し、かつ音像定位信号に含まれる 音像定位のための成分を劣化させないことが可能である。
[0012] また、本発明の音像定位装置は、頭部伝達関数を用いて音像定位処理を行う音像 定位装置であって、目標位置に対応する頭部伝達関数を用いて音源信号を演算処 理して音像定位信号を出力する音像定位処理部と、前記音像定位信号の特定の周 波数帯域によってクリッピングが発生する力否かを判定し、前記クリッピングが発生す る場合、前記音像定位信号の周波数成分を補正する周波数成分補正部を備え、前 記周波数成分補正部は、前記頭部伝達関数のピークある 、はディップごとの単位で 振幅成分の抑圧処理を行う構成を有して!/ヽる。
[0013] この構成により、クリッピングが発生する場合には、頭部伝達関数のピークあるいは ディップごとの単位で、振幅成分の抑圧処理を行うため、音像定位信号の音量低下 を抑止すると共にクリッピングの発生を防止し、かつ音像定位信号に含まれる音像定 位のための成分を劣化させないことが可能である。
発明の効果
[0014] 以上のように本発明は、音像定位信号の音量低下を抑止すると共にクリッピングの 発生を防止し、かつ音像定位信号に含まれる音像定位のための成分を劣化させな V、ことが可能な音像定位装置を提供するものである。
図面の簡単な説明
[0015] [図 1]本発明の第 1の実施の形態に係る音像定位装置のブロック図
[図 2]音源信号と頭部伝達関数の比較分析を行う例を示す図
[図 3]音源信号と頭部伝達関数の比較分析を行う例を示す図
[図 4]頭部伝達関数の補正を行う例を示す図
[図 5]頭部伝達関数の補正を行うための IIRフィルタの構成例を示す図
[図 6]頭部伝達関数の補正を行うための IIRフィルタの構成例を示す図
[図 7]頭部伝達関数の補正を行う例を示す図
[図 8]頭部伝達関数の補正を行うための IIRフィルタの構成例を示す図
[図 9]頭部伝達関数の補正を行うための IIRフィルタの構成例を示す図
[図 10]頭部伝達関数の補正を行うための IIRフィルタの構成例を示す図
圆 11]本発明の第 1の実施の形態における他の態様に係る音像定位装置のブロック 図〇
1—
[図 12]バイクヮッド型 IIRフィルタの構成例を示す図
[図 13]バイクヮッド型 IIRフィルタの構成例を示す図
[図 14]バイクヮッド型 IIRフィルタの構成例を示す図
圆 15]本発明の第 2の実施の形態に係る音像定位装置のブロック図
圆 16]本発明の第 2の実施の形態におけるクリッピング判定の例を示す図 圆 17]本発明の第 2の実施の形態におけるクリッピング判定の例を示す図 圆 18]本発明の第 2の実施の形態における第 1の他の態様に係る音像定位装置のブ ロック図
圆 19]本発明の第 2の実施の形態における第 2の他の態様に係る音像定位装置のブ ロック図
[図 20]従来の音像定位装置のブロック図
圆 21]頭部伝達関数においてクリッピングを引き起こす可能性がある帯域を示す図 [図 22]クリッピングの発生を抑える頭部伝達関数の例を示す図
符号の説明
頭部伝達関数記憶部
102 頭部伝達関数選択部
103 周波数成分分析部
104 周波数成分分析部
105 周波数成分比較補正部
106 音像定位処理部
111 頭部伝達関数記憶部
112 頭部伝達関数選択部
201 音像定位処理部
202 周波数成分分析部
203 周波数成分補正部
211 音像定位処理部 901 頭部伝達関数記憶部
902 頭部伝達関数選択部
903 音像定位処理部
発明を実施するための最良の形態
[0017] 以下、本発明の実施の形態に係る音像定位装置について、図面を参照して説明 する。
[0018] (本発明の第 1の実施の形態)
図 1は、本発明の第 1の実施の形態に係る音像定位装置のブロック図である。
[0019] 図 1に示した音像定位装置は、音像を定位させる位置毎に作成された頭部伝達関 数を記憶する頭部伝達関数記憶部 101と、音像を定位させる目標位置情報に基づ V、て頭部伝達関数を選択する頭部伝達関数選択部 102と、頭部伝達関数の周波数 成分の分析を行う周波数成分分析部 103と、音源信号を構成する周波数成分の分 析を行う周波数成分分析部 104と、音像定位処理を施された音像定位信号がクリツ ビングを起こすかどうかを判定し、クリッピングが発生する場合、頭部伝達関数の周波 数成分を補正する周波数成分比較補正部 105と、頭部伝達関数に基づ!/ヽてフィルタ 処理を行!ヽ、音像定位処理を施された音像定位信号を図示しな!、ヘッドホンゃスピ 一力などの音響再生装置に出力する音像定位処理部 106とを備えている。
[0020] なお、頭部伝達関数記憶部 101は、音像を定位させたい位置毎に作成された頭部 伝達関数を、 FIR (Finite Impulse Response)フィルタの係数として予め記憶している。
[0021] ここで、頭部伝達関数記憶部 101に記憶されて 、る頭部伝達関数を用いて、入力 される音源信号が畳み込まれたとき、音源信号と比較して音量の低下が起きな ヽ特 性を有するものでもよい。つまり、この頭部伝達関数は、図 21に示すような、ピークの 帯域が OdBを超えるようなものであってもよ ヽ。
[0022] 図 1に示した音像定位装置を構成するこれらの構成要素は、集積回路で実現され てもよく、音像定位装置が CPU等のプロセッサで駆動するものであれば、これらの構 成要素は、プログラムのモジュールで実現される。
[0023] 以上のように構成された本発明の第 1の実施の形態に係る音像定位装置の動作に ついて以下に説明する。 [0024] まず、目標位置情報が設定されたとき、頭部伝達関数選択部 102は、頭部伝達関 数記憶部 101から、設定された目標位置情報に応じて頭部伝達関数を選択し、選択 した頭部伝達関数を周波数成分分析部 103に出力する。
[0025] このとき、目標位置に対応する頭部伝達関数が存在しない場合には、例えば、近 接する目標位置の頭部伝達関数を基に、一般的な補間処理等を用いて、目標位置 に対応した頭部伝達関数を作成してもよ ヽ。
[0026] 次に、周波数成分分析部 103は、出力された頭部伝達関数を、フーリエ変換等の 手法を用いて周波数成分に変換し、変換した周波数成分を周波数成分比較補正部
105に出力する。
[0027] 一方、周波数成分分析部 104は、入力された音源信号を、フーリエ変換等の手法 を用いて、周波数成分に変換し、変換した周波数成分を周波数成分比較補正部 10 5に出力する。
[0028] 周波数成分比較補正部 105は、頭部伝達関数の周波数成分と、音源信号の周波 数成分とを比較することにより、特定の周波数帯域によってクリッピングが発生するか 否かを判定し、クリッピングが発生する場合には、頭部伝達関数の周波数成分を補 正して音像定位処理部 106に出力する。
[0029] 具体的な周波数成分比較補正部 105の動作としては、図 2に示すように、正規化し た音源信号の周波数成分の絶対値を取った振幅成分 I S (f) Iと、頭部伝達関数の 周波数成分の絶対値を取った振幅成分の、正負を逆転した成分 I H (f) Iとを比 較する。
[0030] 例えば、全ての周波数帯域において、 I H (f) I > I S (f) Iとなる場合には、こ のまま畳み込み演算を行ってもクリッピングは発生しな 、ものと判定し、頭部伝達関 数の補正は行わずそのまま音像定位処理部 106に処理させる。
[0031] また、図 3に示すように、 I H (f) I < I S (f) Iとなる周波数帯域が存在する場 合には、この周波数帯域によってクリッピングが発生するものと判定し、この周波数帯 域に対し I H (f) I > I s(f) Iとなるように、頭部伝達関数を補正して音像定位 処理部 106に出力することにより、クリッピングの発生を抑えることができる。
[0032] このとき、 I H (f) I < I S (f) Iとなる周波数帯域だけを補正するのではなぐ図 4に示すように、この周波数帯域を含むピークごとの単位で、その差分である A Lだけ 抑圧するように、頭部伝達関数 H (f)を補正することにより、音像定位の成分を劣化さ せないことが可能となる。
[0033] 補正の具体的な例としては、図 5に示すように、ピークの両端の周波数 fl、 fuを、再 現する方向の HRTFの付随情報としてあら力じめ用意する力、あるいは与えられた H RTFから自動的に算出する。そして、これらの周波数を基にして、クリッピングが発生 する周波数成分を だけ抑圧するように、 IIRフィルタを構成し、 HRTFに適用する
[0034] あるいは、図 6に示すように、ピークの中心周波数 fcと帯域幅 wを、再現する方向の HRTFごとにあら力じめ用意する力、ある ヽは与えられた HRTFから自動的に算出 する。そして、これらの周波数を基にして、クリッピングが発生する周波数成分を A L だけ抑圧するように、 IIRフィルタを構成し、 HRTFに適用する。
[0035] さらに、本発明者は、頭部伝達関数の振幅成分に現れるピークに対応する周波数 帯域の両端部のうち、少なくとも一方の周波数帯域の振幅成分を抑圧することによつ ても、目標位置に音像を定位させることが可能であることを明らかにしている (特願 20 04— 270316参照)。
[0036] 従って、図 4に示したように、頭部伝達関数 H (f)のピークを抑圧するのに加え、例 えば、図 7に示すように、ピークに対応する周波数帯域の両端部のうち少なくとも一方 にあるディップ (谷)を強調するか、ある 、はディップを作成するように補正することに より、ピークを抑圧しても、音像定位信号に含まれる音像定位のための成分を劣化さ せないことが可能であり、さらにクリッピングの発生を抑えることができる。
[0037] この場合の補正の具体的な例としては、図 8に示すように、ピークの両端にあるディ ップの周波数、あるいはディップを作成する周波数を fl、 fuとし、再現する方向の HR TFの付随情報としてあら力じめ用意する力、あるいは与えられた HRTFから自動的 に算出する。そして、これらの周波数を基にして、クリッピングが発生する周波数成分 を A Lだけ抑圧するように、 IIRフィルタを構成し、 HRTFに適用する。
[0038] あるいは、図 9に示すように、中心周波数 fcと帯域幅 wを、ピークの両端にあるディ ップ、あるいは作成するディップを包含するようにし、再現する方向の HRTFごとにあ らかじめ用意するか、あるいは与えられた HRTFから自動的に算出する。そして、こ れらの周波数を基にして、クリッピングが発生する周波数成分を Δ Lだけ抑圧するよう に、 IIRフィルタを構成し、 HRTFに適用する。
[0039] V、ずれの場合でも、ピークの両端のディップが十分に強調できな 、場合や、新たな ディップが作成できないようであれば、図 10に示すように、該当する帯域に対して, II
Rフィルタを追加して構成してもよ!/、。
[0040] 音像定位処理部 106は、音源信号の周波数成分と頭部伝達関数の周波数成分と に対し、時間軸の波形での畳み込み演算に相当する、周波数成分の掛け合わせ演 算を行い、逆フーリエ変換等の手法を用いて、時間軸の波形に変換した音像定位信 号を出力する。
[0041] 以上説明したように、本発明の第 1の実施の形態では、音源信号と頭部伝達関数と の周波数成分を比較し、クリッピングが発生する周波数帯域とその周辺帯域にっ 、 て、ピークあるいはディップごとの単位で頭部伝達関数を補正して音像定位処理を行 うことにより、音像定位信号の音量低下を抑止すると共にクリッピングの発生を防止し 、かつ音像定位信号に含まれる音像定位のための成分を劣化させな 、ことが可能で ある。
[0042] なお、本発明の第 1の実施の形態において、周波数成分比較補正部 105は、頭部 伝達関数を補正することにより、クリッピングの発生を抑えていたが、音源信号を補正 することによつても、同等の効果を得ることができる。
[0043] 本発明の第 1の実施の形態における他の態様としては、図 1で説明した構成に替え て、図 11に示すように、頭部伝達関数記憶部 111に、 FIR (Finite Impulse Response )フィルタの係数ではなぐフーリエ変換等の手法を用いて、周波数成分に変換され た頭部伝達関数を予め記憶しておき、頭部伝達関数選択部 112は頭部伝達関数記 憶部 111に記憶された頭部伝達関数を、入力された目標位置情報に応じて選択し 出力するようにする。このように構成することによって、図 1で説明した頭部伝達関数 を周波数分析する手間が省け、より少ない演算量で音像定位を行うことができる。
[0044] 本発明の第 1の実施の形態における他の態様としては、まず、図 12に示すように、 HRTFを複数の IIRフィルタで構成する。なお、図 12においては、バイクヮッド(biqu ad)型 IIRフィルタの例を示して!/、るが、他の型の IIRフィルタを用いてもよ!、。
[0045] そして、図 1で説明した構成において、頭部伝達関数記憶部 101はそれぞれの IIR
(Infinite Impulse Response)フィルタを構成するパラメータ、すなわち中心周波数 fc、 レベル L、先鋭度 Qを保持し、周波数成分分析部 103は、頭部伝達関数選択部 102 によって出力された頭部伝達関数を周波数分析する。
[0046] 周波数成分比較補正部 105は、図 2あるいは図 3と同様に、頭部伝達関数から得ら れた周波数成分と、音源信号で得られた周波数成分とを比較し、クリッピングが発生 する場合には、図 13に示すように、該当するピークを構成する IIRフィルタのレベル L を、クリッピングする周波数成分が A Lだけ抑圧されるように補正する。
[0047] このとき、図 14に示すように、該当するピークを構成する IIRフィルタのレベルを抑 圧するのに加え、その両端にあるディップを強調するように IIRフィルタのレベルを補 正するか、あるいは新たにディップを作成するように IIRフィルタを追加で構成してもよ い。
[0048] 音像定位処理部 106は、補正された IIRフィルタのパラメータを基に、音源信号に 対してフィルタ処理を行い、音像定位信号を出力する。
[0049] このように構成することによって、 FIRフィルタを用いる場合に比べて、より少な ヽ演 算量で音像定位処理を行うことができる。
[0050] (本発明の第 2の実施の形態)
図 15は、本発明の第 2の実施の形態に係る音像定位装置のブロック図である。
[0051] 図 15に示した音像定位装置は、音像を定位させる位置毎に作成された頭部伝達 関数を記憶する頭部伝達関数記憶部 101と、音像を定位させる目標位置情報に基 づいて頭部伝達関数を選択する頭部伝達関数選択部 102と、入力された音源信号 に対し頭部伝達関数に基づ ヽてフィルタ処理を行 ヽ、音像定位処理を施す音像定 位処理部 201、音像定位処理部 201で演算処理された音像定位信号を構成する周 波数成分の分析を行う周波数成分分析部 202と、音像定位信号にクリッピングが発 生する場合、周波数成分を補正する周波数成分補正部 203とを備えて ヽる。
[0052] なお、本発明の第 2の実施の形態に係る音像定位装置を構成する構成要素のうち 、本発明の第 1の実施の形態に係る音像定位装置を構成する構成要素と同一のもの には、同一の符号を付している。
[0053] 以上のように構成された本発明の第 2の実施の形態に係る音像定位装置の動作に ついて以下に説明する。
[0054] 図 15に示した音像定位処理部 201は、入力された音源信号に、頭部伝達関数選 択部 102によって出力された頭部伝達関数を用いて畳み込み演算し、演算処理され た音像定位信号を出力信号として周波数成分分析部 202に出力する。なお、出力 信号がクリッピングを起こさないようにする必要があるため、出力信号の値の範囲を広 く取っておく。例えば、音像定位処理部 201がディジタル信号処理を行う場合、一例 としてその出力信号が 16ビット以上になるとき、出力信号を 16ビット以上の整数で表 す力 あるいは、浮動小数点等で表す。
[0055] 周波数成分分析部 202は、音像定位処理部 201で演算処理された音像定位信号 を、フーリエ変換等の手法を用いて周波数成分に変換して周波数成分補正部 203 に出力する。
[0056] 周波数成分補正部 203は、特定の周波数帯域によってクリッピングが発生するか 否かを判定し、クリッピングが発生すると判定された場合には、本発明の第 1の実施 の形態で説明した周波数成分比較補正部 105と同様に、例えば頭部伝達関数のピ ークの両端の周波数をあらかじめ用意しておくか、あるいは自動的に算出しておくこ とにより、頭部伝達関数のピークあるいはディップごとの単位で音像定位信号の補正 を行い、逆フーリエ変換等の手法を用いて、時間軸の波形に変換した音像定位信号 を出力する。
[0057] クリッピング判定の具体的な例としては、図 16に示すように、音像定位信号の周波 数成分の絶対値を取った振幅成分 I P (f) I力 全ての周波数帯域において OdBを 超えな ヽ場合は、クリッピングは発生しな ヽものと判定する。
[0058] また、図 17に示すように、 I P (f) I力OdBを越える周波数帯域が存在する場合に は、この周波数帯域によってクリッピングが発生するものと判定する。
[0059] 以上説明したように、本発明の第 2の実施の形態では、音源信号に頭部伝達関数 を畳み込んだ信号に対し、クリッピングが発生する周波数帯域とその周辺帯域に対 応する振幅成分のみを抑圧して出力することにより、音像定位信号の音量低下を抑 え、クリッピングも発生せず、なおかつ、音像定位信号に含まれる音像定位のための 成分を劣化させな 、ことが可能である。
[0060] 図 18に示すように、本発明の第 2の実施の形態における他の態様としては、本発明 の第 2の実施の形態で説明した音像定位処理部 201および周波数成分分析部 202 の替わりに、周波数成分分析部 103、 104と音像定位処理部 211とを設け、周波数 成分に変換された音源信号と頭部伝達関数とに対し、時間軸の波形での畳み込み 演算に相当する、周波数成分の掛け合わせ演算を行うようにする。
[0061] さらに、図 19に示すように、本発明の第 2の実施の形態における他の態様としては 、図 18に示した頭部伝達関数記憶部 101、頭部伝達関数選択部 102と周波数成分 分析部 103の替わりに頭部伝達関数記憶部 111と頭部伝達関数選択部 112を設け 、予め周波数成分に変換された頭部伝達関数を用いて音像定位処理を行うようにす る。
[0062] なお、上述した各実施の形態において、クリッピングが発生するかどうかを判定する ための周波数帯域が、限定できる場合には、全帯域にわたって判定する必要はなく 、該当する周波数帯域についてのみ判定を行っても、同等の効果を得ることができる
[0063] 例えば、図 21に示すように、頭部伝達関数のゲインが OdBを超えない周波数帯域 では、クリッピングを引き起こす可能性はないので、クリッピングが発生するか否かを 判定するための周波数帯域を、頭部伝達関数のゲインが OdBを超える周波数帯域 だけに限定しても、同等の効果を得ることができ、さらに、音像定位に関わる演算量 を減らすことも可能となる。
[0064] また、周波数成分分析部 103が、頭部伝達関数や音源信号を周波数成分に変換 する際の時間長は、入力される音源信号の時間長と同じとしてもよいし、それよりも短 い時間長にしてもよい。
[0065] また、従来の音像定位装置に用いられているリミッタとコンプレッサを併用する場合 には、上述の各実施形態において、クリッピングが発生する周波数帯域に対応する 振幅成分の抑圧量は若干少なめにしてもよい。このようにすれば、リミッタとコンプレツ サの処理によって引き起こされる周波数成分の非線形な変化を低減させることができ 、音像定位信号に含まれる音像定位のための成分を劣化させな 、ことが可能である
[0066] また、ブラウエルトによる「空間音響」(鹿島出版会)によると、聴覚事象の一つであ る「方向決定帯域」と、音像定位の手がかりとの間に深い関連があることが明らかにな つている。この知見に基づき、クリッピングの発生するピーク力 目標方向の方向決定 帯域と一致する場合としな!/ヽ場合で、処理の内容を変えてもよ!ヽ。
[0067] 例えば、目標方向の方向決定帯域と一致する場合には、そのピークは音像定位の ための重要な成分であるので、ピークを抑圧するのに加え、その両端部のうち少なく とも一方にあるディップ (谷)を強調するか、ある 、はディップを作成するように補正し てもよい。一方、目標方向の方向決定帯域と一致しない場合には、そのピークは音 像定位のための重要な成分ではな 、ので、ピークを抑圧するだけの補正としてもょ ヽ
[0068] 以上、本発明の第 1および第 2の実施の形態について説明したが、本発明の実施 の形態に係る音像定位装置は、頭部伝達関数記憶部 101で頭部伝達関数を周波 数成分のデータとして記憶して 、るため、頭部伝達関数の周波数分析を行う処理を 省き、より少ない演算量で音像定位を実現することができる。
[0069] さらに、本発明の実施の形態に係る音像定位装置は、頭部伝達関数の周波数成 分に対応する振幅成分が、 OdBなどの所定の大きさを超える周波数帯域にっ 、ての み、クリッピングが発生する力否かを判定するため、クリッピングが発生する力否かを 判定するための周波数帯域を限定することができ、より少ない演算量で音像定位を 実現することができる。
産業上の利用可能性
[0070] 以上のように、本発明は、音像定位信号の音量低下を抑止すると共にクリッピング の発生を防止し、かつ音像定位信号に含まれる音像定位のための成分を劣化させ ないことが可能であるという効果を有し、音像定位処理を行う携帯電話機、音声再生 装置、音声記録装置、情報端末装置、ゲーム機、会議装置、通信および放送システ ムなど、音声再生等を行う装置全般において有用である。

Claims

請求の範囲
[1] 頭部伝達関数を用いて音像定位処理を行う音像定位装置であって、
音源信号から得られる周波数成分と、目標位置に対応する頭部伝達関数から得ら れる周波数成分とを比較することにより、特定の周波数帯域によってクリッピングが発 生する力否かを判定し、前記クリッピングが発生する場合、前記音源信号の周波数 成分または前記頭部伝達関数の周波数成分を補正する周波数成分比較補正部と、 前記周波数成分比較補正部によって補正された音源信号と頭部伝達関数を用い て演算処理を行 ヽ、音像定位信号を出力する音像定位処理部とを備え、
前記周波数成分比較補正部は、前記頭部伝達関数のピークあるいはディップごと の単位で振幅成分の抑圧処理を行うことを特徴とする音像定位装置。
[2] 前記周波数成分比較補正部は、ピーク単位で振幅成分を抑圧するととともに、ピー クの周辺帯域に新たなディップを形成するよう、前記音源信号の周波数成分または 前記頭部伝達関数の周波数成分を補正することを特徴とする請求項 1に記載の音像 定位装置。
[3] 頭部伝達関数を用いて音像定位処理を行う音像定位装置であって、
目標位置に対応する頭部伝達関数を用いて音源信号を演算処理して音像定位信 号を出力する音像定位処理部と、
前記音像定位信号の特定の周波数帯域によってクリッピングが発生するか否かを 判定し、前記クリッピングが発生する場合、前記音像定位信号の周波数成分を補正 する周波数成分補正部を備え、
前記周波数成分補正部は、前記頭部伝達関数のピークあるいはディップごとの単 位で振幅成分の抑圧処理を行うことを特徴とする音像定位装置。
[4] 前記周波数成分補正部は、ピーク単位で振幅成分を抑圧するととともに、ピークの 周辺帯域に新たなディップを形成するよう、前記音像定位信号の周波数成分を補正 することを特徴とする請求項 3に記載の音像定位装置。
[5] 前記頭部伝達関数を周波数成分のデータとして記憶する頭部伝達関数記憶部を 備えたことを特徴とする請求項 1又は請求項 2に記載の音像定位装置。
[6] 前記頭部伝達関数の振幅成分が所定の大きさを超える周波数帯域にっ 、てのみ 、前記クリッピングが発生する力否かを判定することを特徴とする請求項 1又は請求 項 2に記載の音像定位装置。
[7] 前記所定の大きさは、 0デシベルであることを特徴とする請求項 6に記載の音像定 位装置。
[8] 前記クリッピングが発生する周波数帯域が方向決定帯域である力否かによって、振 幅成分の抑圧の方法を変更することを特徴とする請求項 1又は請求項 2に記載の音 像定位装置。
PCT/JP2007/054773 2006-03-13 2007-03-12 音像定位装置 WO2007119330A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008510761A JP4846790B2 (ja) 2006-03-13 2007-03-12 音像定位装置
US12/282,414 US8135137B2 (en) 2006-03-13 2007-03-12 Sound image localization apparatus
CN2007800127227A CN101422054B (zh) 2006-03-13 2007-03-12 声像定位装置
EP07738245.5A EP1995993B1 (en) 2006-03-13 2007-03-12 Sound image localizer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006067631 2006-03-13
JP2006-067631 2006-03-13

Publications (1)

Publication Number Publication Date
WO2007119330A1 true WO2007119330A1 (ja) 2007-10-25

Family

ID=38609134

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/054773 WO2007119330A1 (ja) 2006-03-13 2007-03-12 音像定位装置

Country Status (5)

Country Link
US (1) US8135137B2 (ja)
EP (1) EP1995993B1 (ja)
JP (1) JP4846790B2 (ja)
CN (1) CN101422054B (ja)
WO (1) WO2007119330A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018506222A (ja) * 2015-04-22 2018-03-01 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 音声信号処理装置および方法
JP2019535216A (ja) * 2016-09-28 2019-12-05 ノキア テクノロジーズ オーユー 空間オーディオシステムにおける利得制御

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2540199A (en) 2015-07-09 2017-01-11 Nokia Technologies Oy An apparatus, method and computer program for providing sound reproduction
CN113138367A (zh) * 2020-01-20 2021-07-20 中国科学院上海微系统与信息技术研究所 一种目标定位方法、装置、电子设备及存储介质
US11496852B2 (en) 2020-12-03 2022-11-08 Snap Inc. Head-related transfer function

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05175773A (ja) * 1991-12-20 1993-07-13 Alpine Electron Inc オーディオイコライザ
JPH0759187A (ja) 1993-08-18 1995-03-03 Matsushita Electric Ind Co Ltd 音響再生装置の音量、音質調整回路
JPH08154294A (ja) * 1994-09-27 1996-06-11 Victor Co Of Japan Ltd オーディオ信号の伝送制御装置
JP2003299181A (ja) * 2002-04-03 2003-10-17 Sony Corp オーディオ信号処理装置及びオーディオ信号処理方法
JP2004270316A (ja) 2003-03-10 2004-09-30 Matsushita Electric Works Ltd 玄関框の表装方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5404406A (en) * 1992-11-30 1995-04-04 Victor Company Of Japan, Ltd. Method for controlling localization of sound image
US5598478A (en) * 1992-12-18 1997-01-28 Victor Company Of Japan, Ltd. Sound image localization control apparatus
US5761315A (en) * 1993-07-30 1998-06-02 Victor Company Of Japan, Ltd. Surround signal processing apparatus
JPH11275696A (ja) * 1998-01-22 1999-10-08 Sony Corp ヘッドホン、ヘッドホンアダプタおよびヘッドホン装置
GB0015419D0 (en) * 2000-06-24 2000-08-16 Adaptive Audio Ltd Sound reproduction systems
US7451006B2 (en) * 2001-05-07 2008-11-11 Harman International Industries, Incorporated Sound processing system using distortion limiting techniques
JP4867121B2 (ja) * 2001-09-28 2012-02-01 ソニー株式会社 音声信号処理方法および音声再生システム
DE10232645A1 (de) 2002-07-18 2004-02-05 Harman/Becker Automotive Systems Gmbh (Straubing Division) Schaltungsanordnung zur Verringerung des Dynamikbereichs von Audiosignalen
US7676047B2 (en) * 2002-12-03 2010-03-09 Bose Corporation Electroacoustical transducing with low frequency augmenting devices
US20070165890A1 (en) * 2004-07-16 2007-07-19 Matsushita Electric Industrial Co., Ltd. Sound image localization device
EP1791394B1 (en) * 2004-09-16 2011-11-09 Panasonic Corporation Sound image localization apparatus
US20100027799A1 (en) * 2008-07-31 2010-02-04 Sony Ericsson Mobile Communications Ab Asymmetrical delay audio crosstalk cancellation systems, methods and electronic devices including the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05175773A (ja) * 1991-12-20 1993-07-13 Alpine Electron Inc オーディオイコライザ
JPH0759187A (ja) 1993-08-18 1995-03-03 Matsushita Electric Ind Co Ltd 音響再生装置の音量、音質調整回路
JPH08154294A (ja) * 1994-09-27 1996-06-11 Victor Co Of Japan Ltd オーディオ信号の伝送制御装置
JP2003299181A (ja) * 2002-04-03 2003-10-17 Sony Corp オーディオ信号処理装置及びオーディオ信号処理方法
JP2004270316A (ja) 2003-03-10 2004-09-30 Matsushita Electric Works Ltd 玄関框の表装方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BLAUERT: "Spatial Hearing", KAJIMA INSTITUTE PUBLISHING
See also references of EP1995993A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018506222A (ja) * 2015-04-22 2018-03-01 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 音声信号処理装置および方法
US10412226B2 (en) 2015-04-22 2019-09-10 Huawei Technologies Co., Ltd. Audio signal processing apparatus and method
JP2019535216A (ja) * 2016-09-28 2019-12-05 ノキア テクノロジーズ オーユー 空間オーディオシステムにおける利得制御
JP7229925B2 (ja) 2016-09-28 2023-02-28 ノキア テクノロジーズ オーユー 空間オーディオシステムにおける利得制御

Also Published As

Publication number Publication date
CN101422054A (zh) 2009-04-29
JP4846790B2 (ja) 2011-12-28
EP1995993A4 (en) 2010-07-14
CN101422054B (zh) 2011-04-13
JPWO2007119330A1 (ja) 2009-08-27
EP1995993A1 (en) 2008-11-26
US20090046865A1 (en) 2009-02-19
US8135137B2 (en) 2012-03-13
EP1995993B1 (en) 2016-05-11

Similar Documents

Publication Publication Date Title
US8554349B2 (en) High-frequency interpolation device and high-frequency interpolation method
EP1202602B1 (en) Zoom microphone device
JP6038135B2 (ja) 信号処理装置
US6449368B1 (en) Multidirectional audio decoding
US20070019812A1 (en) Method and apparatus to reproduce wide mono sound
JP2004187283A (ja) マイクロホン装置および再生装置
JP6479287B1 (ja) オーディオ再生のためのサブバンド空間クロストークキャンセル
US9552826B2 (en) Frequency characteristic modification device
KR20200081514A (ko) 매칭되지 않은 트랜스오럴 라우드스피커 시스템용 강화된 가상 스테레오 재생
JP2006303799A (ja) 音響信号再生装置
US8031883B2 (en) Crosstalk cancellation system with sound quality preservation and parameter determining method thereof
JP2010021982A (ja) 音響再生装置
JP4846790B2 (ja) 音像定位装置
US20080152152A1 (en) Sound Image Localization Apparatus
US8553893B2 (en) Sound processing device, speaker apparatus, and sound processing method
JP4368917B2 (ja) 音響再生装置
US8340322B2 (en) Acoustic processing device
US10771895B2 (en) Audio signal processing device
JP7371065B2 (ja) オーディオ処理装置、およびオーディオ処理方法
US8948417B2 (en) Characteristic correcting device and characteristic correcting method
JP5774218B2 (ja) 周波数特性変形装置
JP2005341204A (ja) 音場補正方法及び音場補正装置
JP2011015118A (ja) 音像定位処理装置、音像定位処理方法およびフィルタ係数設定装置
TW202018700A (zh) 用於立體聲信號的空間串擾處理

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07738245

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008510761

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12282414

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007738245

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200780012722.7

Country of ref document: CN