JP2013190470A - 音響信号処理装置および音響信号処理方法 - Google Patents

音響信号処理装置および音響信号処理方法 Download PDF

Info

Publication number
JP2013190470A
JP2013190470A JP2012054560A JP2012054560A JP2013190470A JP 2013190470 A JP2013190470 A JP 2013190470A JP 2012054560 A JP2012054560 A JP 2012054560A JP 2012054560 A JP2012054560 A JP 2012054560A JP 2013190470 A JP2013190470 A JP 2013190470A
Authority
JP
Japan
Prior art keywords
spectrum signal
amplitude
amplitude spectrum
signal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012054560A
Other languages
English (en)
Other versions
JP5898534B2 (ja
Inventor
Takeshi Hashimoto
武志 橋本
Tetsuo Watanabe
哲生 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012054560A priority Critical patent/JP5898534B2/ja
Priority to US14/381,989 priority patent/US9280986B2/en
Priority to CN201380013601.XA priority patent/CN104185870B/zh
Priority to PCT/JP2013/051273 priority patent/WO2013136846A1/ja
Priority to EP13760657.0A priority patent/EP2827330B1/en
Publication of JP2013190470A publication Critical patent/JP2013190470A/ja
Application granted granted Critical
Publication of JP5898534B2 publication Critical patent/JP5898534B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/057Time compression or expansion for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2227/00Details of public address [PA] systems covered by H04R27/00 but not provided for in any of its subgroups
    • H04R2227/007Electronic adaptation of audio signals to reverberation of the listening space for PA

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】アタック音と余韻とノイズ成分とを調節し、出力音を聴取者の嗜好に合わせる。
【解決手段】音響信号処理装置は、入力されたオーディオ信号を時間領域から周波数領域に変換して周波数スペクトル信号を求めて、第1振幅スペクトル信号と位相スペクトル信号とを生成するFFT手段と、第1振幅スペクトル信号のアタック成分の制御を行って第2振幅スペクトル信号を生成するアタック成分制御手段10と、第1振幅スペクトル信号の余韻成分の制御を行って第3振幅スペクトル信号を生成する余韻成分制御手段20と、第1振幅スペクトル信号と第2振幅スペクトル信号と第3振幅スペクトル信号とを合成して第4振幅スペクトル信号を生成する第1加算手段40と、第4振幅スペクトル信号と、FFT手段により生成された位相スペクトル信号とに基づいて、周波数領域から時間領域に変換されたオーディオ信号を生成するIFFT手段とを備える。
【選択図】図5

Description

本発明は、音響信号処理装置および音響信号処理方法に関し、より詳細には、入力されるオーディオ信号におけるアタック音や余韻の強調・低減処理や、ノイズ低減処理などを行うことが可能な音響信号処理装置および音響信号処理方法に関する。
今日では、データの圧縮が行われたデジタル音声信号を用いて音楽の生成が行われることが多い。データ圧縮されたデジタル音声信号の1つとして、MP3(MPEG Audio Layer-3)がよく知られている。MP3は、デジタル技術によって音響データを扱うための圧縮技術の1つであり、今日では、携帯型音楽プレーヤーなどで多く用いられている。
ところで、一般的なMP3などのデジタル音声信号では、伸長されたデジタル音声信号をそのままアナログ変換して出力するとアタック音(アタック成分)の劣化により、音質が損なわれてしまうという問題があった。このため、アタック音の信号出力を増幅させるデジタル信号処理装置が提案されている(例えば、特許文献1参照)。
このデジタル信号処理装置では、帯域分割フィルタを介して抽出された所定周波数領域の信号レベルと、予め設定されたスレッショルドレベルとを比較し、スレッショルド以上のデジタル信号を検出することによってアタック音を検出する。そして、デジタル信号処理装置は、検出されたアタック音を増幅し、増幅されたアタック音を帯域分割前のデジタル信号に合成することによって、アタック音を強調させる。
このように、所定の周波数帯域に含まれるアタック音のみをその信号レベルに応じて増幅して強調することができるので、例えば、低域アタック音を増幅する場合には、ドラムなどの迫力ある音の躍動感を増加させることができる。また、高域アタック音を増幅する場合には、シンバルなどの音をより透明感のあるクリアな音にすることができる。
このように、アタック音のみをその信号レベルに応じて増幅して強調することにより、総じてメリハリのある表現を出力音に発現させることが可能となる。このため、アタック音の劣化が激しいMP3などの圧縮音声の高音質化に高い効果を発揮することができる。
特開2007−36710号公報
上述したデジタル信号処理装置では、音源に含まれるアタック音を、所定のスレッショルドに基づいて検出している。しかしながら、音源はあらゆる振幅レベルで収録されているので、スレッショルドだけで十分にアタック音を検出することが困難であった。
また、楽器音と音声とが含まれている音源においては、双方が合成されて音源の振幅が示されるため、スレッショルドにより楽器音のアタック音と音声の信号レベルとを識別することが困難であり、楽器音のアタック音だけでなく音声信号まで増幅されてしまうおそれがあった。
さらに、楽器音等は、波形の立ち上がり時のアタック音とその後に持続する余韻(余韻成分)によって形成されるが、上述したデジタル信号処理装置では、アタック音の制御のみを行うことを特徴としており、余韻において特に制御は行われていない。このため、アタック音の増幅によりメリハリのある出力音を実現することは可能であるが、メリハリ感のみが余韻に比べて強く強調されすぎてしまうおそれがあった。
また、上述したデジタル信号処理装置では、所定の周波数領域を一様に増幅する従来のイコライザなどの増幅方式に比べて、S/N比(信号とノイズの比)を下げずに出力音を強調することが可能である。しかしながら、音源の収録環境においてノイズが常に存在する場合、特に、アタック音の抽出帯域において定常的なノイズが含まれる場合には、ノイズが含まれたアタック音をブーストして合成してしまうおそれがあるので、S/N比が大きく低下するおそれがあった。
さらに、音楽の聴取において、聴取者にとっての良好な音は嗜好によるものが大きい。このため、メリハリのある音を好む聴取者もいれば、メリハリのある音を耳障りと感じる聴取者も存在する。余韻においても余韻の多く含まれる音を好む聴取者もいれば、好まない聴取者も存在する。また、音源そのものに含まれる定常的な信号成分(響き)や音源の収録環境に含まれる定常的なノイズ成分を含めた音を、臨場感のある音として好む聴取者もいれば、クリアな音を好む聴取者も存在する。このため、上述したデジタル信号処理装置を用いて、単にアタック音の増幅によりメリハリのある音を実現するだけは、多様な聴取者の嗜好(要望)を必ずしも満たすことが容易ではないという問題があった。
本発明は、上記問題に鑑みてなされたものであり、楽器音等の音源に含まれるアタック音と、その後に持続する余韻と、収録環境の定常的なノイズ成分や音源に含まれる定常的な信号成分とを調節することにより、聴取者の嗜好にあった出力音を作り出すことが可能な音響信号処理装置および音響信号処理方法を提供することを課題とする。
上記課題を解決するために、本発明に係る音響信号処理装置は、入力されたオーディオ信号に対して、フーリエ変換長とオーバーラップ長との差分時間ずつ時間シフトしながら短時間フーリエ変換を行うことにより、差分時間ずつ時間が異なる複数の振幅スペクトルを求め、求められた各振幅スペクトルの周波数毎の時間変動を求めることにより、前記入力されたオーディオ信号を時間領域から周波数領域に変換して周波数スペクトル信号を求め、さらに、該周波数スペクトル信号に基づいて、第1振幅スペクトル信号と位相スペクトル信号とを生成するFFT手段と、該FFT手段により生成された前記第1振幅スペクトル信号のアタック成分の制御を行うアタック成分制御手段と、前記FFT手段により生成された前記第1振幅スペクトル信号の余韻成分の制御を行う余韻成分制御手段と、前記FFT手段により生成された前記第1振幅スペクトル信号と、前記アタック成分制御手段によりアタック成分の制御が行われた第2振幅スペクトル信号と、前記余韻成分制御手段により余韻成分の制御が行われた第3振幅スペクトル信号とを合成する第1加算手段と、該第1加算手段により合成された第4振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて周波数スペクトル信号を求め、求められた該周波数スペクトル信号に短時間逆フーリエ変換処理とオーバーラップ加算とを行うことによって、周波数領域から時間領域に変換されたオーディオ信号を生成するIFFT手段と
を備え、前記アタック成分制御手段は、設定された第1カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行う第1HPF手段と、該第1HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号のアタック成分を検出する第1リミッタ手段と、設定された第1重み付け量に基づいて、前記第1リミッタ手段により検出された振幅スペクトル信号のアタック成分の重み付け処理を行う第1ゲイン手段とを有し、前記余韻成分制御手段は、設定された第2カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行う第2HPF手段と、該第2HPF手段においてフィルタリング処理された振幅スペクトル信号に−1を乗算して振幅の反転を行う振幅反転手段と、該振幅反転手段により振幅の反転が行われた振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号の余韻成分を検出する第2リミッタ手段と、設定された第2重み付け量に基づいて、前記第2リミッタ手段により検出された振幅スペクトル信号の余韻成分の重み付け処理を行う第2ゲイン手段とを有することを特徴とする。
また、本発明に係る音響信号処理方法は、入力されたオーディオ信号を時間領域から周波数領域に変換して周波数スペクトル信号を求めて、第1振幅スペクトル信号と位相スペクトル信号とを生成するFFT手段と、該FFT手段により生成された前記第1振幅スペクトル信号のアタック成分の制御を行うアタック成分制御手段と、前記FFT手段により生成された前記第1振幅スペクトル信号の余韻成分の制御を行う余韻成分制御手段と、前記FFT手段により生成された前記第1振幅スペクトル信号と、前記アタック成分制御手段によりアタック成分の制御が行われた第2振幅スペクトル信号と、前記余韻成分制御手段により余韻成分の制御が行われた第3振幅スペクトル信号とを合成する第1加算手段と、該第1加算手段により合成された第4振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数領域から時間領域に変換されたオーディオ信号を生成するIFFT手段とを備え、前記入力されたオーディオ信号に対してアタック成分制御と余韻成分制御とを行う音響信号処理装置の音響信号処理方法であって、前記FFT手段は、入力された前記オーディオ信号に対して、フーリエ変換長とオーバーラップ長との差分時間ずつ時間シフトしながら短時間フーリエ変換を行うことにより、差分時間ずつ時間が異なる複数の振幅スペクトルを求め、求められた各振幅スペクトルの周波数毎の時間変動を求めることにより前記周波数スペクトル信号を求め、さらに、当該周波数スペクトル信号に基づいて、前記第1振幅スペクトル信号と前記位相スペクトル信号とを生成し、前記アタック成分制御手段は、第1HPF手段により、設定された第1カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行い、第1リミッタ手段により、前記第1HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号のアタック成分を検出し、第1ゲイン手段により、設定された第1重み付け量に基づいて、前記第1リミッタ手段により検出された振幅スペクトル信号のアタック成分の重み付け処理を行い、前記余韻成分制御手段は、第2HPF手段により、設定された第2カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行い、振幅反転手段により、前記第2HPF手段においてフィルタリング処理された振幅スペクトル信号に−1を乗算して振幅の反転を行い、第2リミッタ手段により、前記振幅反転手段により振幅の反転が行われた振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号の余韻成分を検出し、第2ゲイン手段により、設定された第2重み付け量に基づいて、前記第2リミッタ手段により検出された振幅スペクトル信号の余韻成分の重み付け処理を行い、前記第1加算手段は、前記第1振幅スペクトル信号と、前記第1ゲイン手段によりアタック成分の重み付け処理が行われた前記第2振幅スペクトル信号と、前記第2ゲイン手段により余韻成分の重み付け処理が行われた前記第3振幅スペクトル信号とを合成して前記第4振幅スペクトル信号を生成し、前記IFFT手段は、前記第4振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数スペクトル信号を求め、求められた該周波数スペクトル信号に短時間逆フーリエ変換処理とオーバーラップ加算とを行うことによって、周波数領域から時間領域に変換された前記オーディオ信号を生成することを特徴とする。
本発明に係る音響信号処理装置および音響信号処理方法では、アタック成分制御手段における第1ゲイン手段の第1重み付け量を調整することにより、オーディオ信号のアタック成分(アタック音)の増強・低減を行うことができ、さらに、第1HPF手段において、第1カットオフ周波数を調整することにより、アタック成分の制御時間(増強時間、低減時間)を変化させることができる。このため、アタック成分を信号レベルに応じて増幅して強調することにより、総じてメリハリのある表現を出力音に発現させることが可能となる。また、一般的なMP3などのデジタル音声信号において劣化するおそれのあるアタック成分の制御を行うことにより、デジタル音声信号の音質向上を図ることが可能となる。
また、本発明に係る音響信号処理装置および音響信号処理方法では、余韻成分制御手段における第2ゲイン手段の第2重み付け量を調整することにより、オーディオ信号の余韻成分(余韻)の増強・低減を行うことができ、さらに、第2HPF手段において、第2カットオフ周波数を調整することにより、余韻の制御時間(増強時間、低減時間)を変化させることができる。このため、聴取者の好みに応じ、余韻を強調させたり低減させたりすることが可能となる。
さらに、アタック成分制御手段によるアタック成分の制御処理および余韻成分制御手段による余韻成分の制御処理は、周波数領域の振幅スペクトル毎の変化量に基づいて行われる。このため、従来技術のようなスレッショルドを用いてアタック音などを識別する場合のように、音源の振幅レベルによって検出状態が大きく左右されてしまうことがない。
また、アタック成分制御手段および余韻成分制御手段におけるカットオフ周波数(第11カットオフ周波数および第2カットオフ周波数)の設定や重み付け量(第1重み付け量
および第2重み付け量)の設定は、振幅スペクトル毎に個別に設定することもできるので、周波数帯域を複数の帯域に分けて、それぞれ設定することも可能である。
例えば、入力されるオーディオ信号を低域、中域、高域の3つの帯域に分け、低域では、アタック成分を増強して余韻を低減することで、ドラム等の迫力と応答性のある音を再現し、中域では余韻成分を増強して音声の響きを強調し、高域ではアタック成分を増強することで、シンバルなどの音がより透明感のあるクリアな音にすることが可能となる。
また、上述した音響信号処理装置は、前記第1加算手段により合成された前記第4振幅スペクトル信号のノイズ制御を行うノイズ制御手段を備え、前記IFFT手段は、前記ノイズ制御手段によりノイズ制御処理された第5振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数領域から時間領域に変換された前記オーディオ信号を生成し、前記ノイズ制御手段は、設定された第3カットオフ周波数に基づいて、前記第1加算手段により合成された前記第4振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行う第3HPF手段と、該第3HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定する第3リミッタ手段と、設定された0以上1以下の値からなる第3重み付け量に基づいて、前記第3リミッタ手段によりマイナス側の振幅が制限された前記振幅スペクトル信号の重み付け処理を行う第3Aゲイン手段と、1から前記第3重み付け量の値を減じた重み付け量に基づいて、前記第1加算手段において合成された前記第4振幅スペクトル信号の重み付け処理を行う第3Bゲイン手段と、前記第3Aゲイン手段により重み付け処理が行われた振幅スペクトル信号と、前記第3Bゲイン手段により重み付け処理が行われた振幅スペクトル信号とを合成して前記第5振幅スペクトル信号を生成する第2加算手段とを有するものであってもよい。
さらに、上述した音響信号処理方法は、前記第1加算手段により合成された前記第4振幅スペクトル信号のノイズ制御を行うノイズ制御手段を備え、前記IFFT手段は、前記ノイズ制御手段によりノイズ制御処理された第5振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数領域から時間領域に変換された前記オーディオ信号を生成し、前記ノイズ制御手段は、第3HPF手段により、設定された第3カットオフ周波数に基づいて、前記第1加算手段により合成された前記第4振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行い、第3リミッタ手段により、前記第3HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定し、第3Aゲイン手段により、設定された0以上1以下の値からなる第3重み付け量に基づいて、前記第3リミッタ手段によりマイナス側の振幅が制限された前記振幅スペクトル信号の重み付け処理を行い、第3Bゲイン手段により、1から前記第3重み付け量の値を減じた重み付け量に基づいて、前記第1加算手段において合成された前記第4振幅スペクトル信号の重み付け処理を行い、第2加算手段により、前記第3Aゲイン手段により重み付け処理が行われた振幅スペクトル信号と、前記第3Bゲイン手段により重み付け処理が行われた振幅スペクトル信号とを合成して前記第5振幅スペクトル信号を生成するものであってもよい。
本発明に係る音響信号処理装置および音響信号処理方法では、ノイズ制御手段において第3Aゲイン手段および第3Bゲイン手段の重み付け量を調整することにより、ノイズ低減量の調整を行うことができる。さらに、第3HPF手段において、第3カットオフ周波数を調整することにより、ノイズのDC成分を抑圧(抑制)することができる。このため、音源の収録環境や音源そのものに含まれる定常的なノイズを調節することが可能となる。
また、ノイズ制御手段によるノイズ低減処理は、周波数領域の振幅スペクトル毎の変化量に基づいて行われるため、従来技術のようなスレッショルドを用いてアタック音などを識別する場合のように、音源の振幅レベルによって検出状態が大きく左右されてしまうことがない。
さらに、音源そのものに含まれる定常的な信号成分や音源の収録環境に含まれる定常的なノイズ成分が含まれるオーディオ信号を再生した場合は、ノイズ等が収録環境の臨場感となって聴取される場合があるが、その一方で、楽器音や音声の鮮明感が低下してしまう傾向がある。この場合において、本発明に係る音響信号処理装置および音響信号処理方法を用いることによって、ノイズ制御手段でノイズ制御を行ってノイズ量の低減調節を行うことができるので、臨場感をある程度維持したまま、楽器音や音声の音響成分をクリアな音で出力することが可能となる。
本発明に係る音響信号処理装置および音響信号処理方法では、楽器音等の音源に含まれるアタック成分(アタック音)とその後に持続する余韻成分(余韻)、収録環境の定常的なノイズ成分や音源に含まれる定常的な信号成分を調節することができるので、多様な聴取者の嗜好に対応することが可能となる。
実施の形態に係る音響信号処理装置の概略構成を示したブロック図である。 実施の形態に係るFFT部へ入力されるオーディオ信号と、このオーディオ信号に対して短時間フーリエ変換処理を行う場合のフーリエ変換長Nとオーバーラップ長Mとを示した図である。 実施の形態に係るFFT部における時間シフト毎の振幅スペクトルを示した図である。 実施の形態に係るFFT部における振幅スペクトルの時間変動を示した図である。 実施の形態に係る周波数スペクトル領域フィルタリング部の概略構成を示したブロック図である。 実施の形態に係る音響信号処理装置の処理が、周波数毎に実行される状態を説明するための図である。 (a)は、第1ゲイン部および第2ゲイン部で設定される重み付け量に対応する増強量・低減量の関係を示した図である。(b)は、第1HPF部および第2HPF部において設定されるカットオフ周波数と、設定されたカットオフ周波数に応じて変化するアタック音または余韻の制御時間との関係を示した図である。 (a)は、ノイズ制御部の第3Aゲイン部における重み付け量とノイズ低減量との関係を示した図である。(b)は、音響信号処理に用いられる入力されたオーディオ信号の信号状態の一例を示した図である。 (a)は、アタック音制御部の第1HPF部と第1リミッタ部のみを動作させたときの出力信号を示した図である。(b)は、第1HPF部と第1リミッタ部を動作させ、第1ゲイン部の重み付け量の値を1に設定したオーディオ信号と周波数スペクトル領域フィルタリング部に入力されたオーディオ信号とを合成した信号を示した図である。 (a)は、アタック音制御部の第1HPF部と第1リミッタ部を動作させ、第1ゲイン部の重み付け量の値を−1に設定したオーディオ信号と、周波数スペクトル領域フィルタリング部に入力されたオーディオ信号とを合成した信号を示した図である。(b)は、図9(b)に示す信号の設定条件おいて、第1HPF部のカットオフ周波数を2.5Hzから1.25Hzへと変更した場合の合成された信号を示した図である。 (a)は、余韻制御部の第2HPF部、振幅反転部および第2リミッタ部のみを動作させたときの出力信号を示した図である。(b)は、図9(b)に示す信号と、第2HPF部、振幅反転部および第2リミッタ部を動作させ、第2ゲイン部の重み付け量の値を−1に設定したオーディオ信号と、周波数スペクトル領域フィルタリング部に入力されたオーディオ信号とを合成した信号を示した図である。 アタック音制御部でアタック音の低減が行われた図10(a)に示すオーディオ信号と、余韻制御部において第2HPF部、振幅反転部および第2リミッタ部を動作させ、第2ゲイン部の重み付け量の値を1に設定したオーディオ信号と、周波数スペクトル領域フィルタリング部に入力されたオーディオ信号とを合成した信号を示した図である。 (a)は、入力されたオーディオ信号にノイズとして定常性のある1.2kHzの正弦波を加えた入力信号を示した図である。(b)は、ノイズ制御部で(a)に示す信号に対してノイズ制御処理を行った信号を示した図である。
以下、本発明に係る音響信号処理装置の一例を示して、詳細に説明を行う。図1は、音響信号処理装置の概略構成を示したブロック図である。音響信号処理装置1は、図1に示すように、FFT(Fast Fourier Transform:高速フーリエ変換)部(FFT手段)2と、周波数スペクトル領域フィルタリング部3と、IFFT(Inverse Fast Fourier Transform:逆高速フーリエ変換)部(IFFT手段)4とを有している。図示を省略したオーディオ信号再生装置によって再生されたオーディオ信号は、音響信号処理装置1のFFT部2へと入力され、音響信号処理装置1において、音響処理が行われた信号は、IFFT部4より出力されて、図示を省略したスピーカより出力される。
[FFT部]
FFT部2は、入力されたオーディオ信号に対して、オーバーラップ処理と窓関数により重み付けを行った後、短時間フーリエ変換処理により、時間領域から周波数領域に変換して、実数と虚数の周波数スペクトルを求める。また、FFT部2は、求められた周波数スペクトルを振幅スペクトル信号(第1振幅スペクトル信号)と位相スペクトル信号に変換する。FFT部2は、振幅スペクトル信号(第1振幅スペクトル信号)を、周波数スペクトル領域フィルタリング部3に出力し、位相スペクトル信号をIFFT部4に出力する。
図2には、入力されるオーディオ信号と、このオーディオ信号に対して短時間フーリエ変換処理を行う場合のフーリエ変換長Nとオーバーラップ長Mとを示した図である。FFT部2は、図2に示すように、フーリエ変換長Nとオーバーラップ長Mとの差分時間ずつ時間シフトしながら短時間フーリエ変換を行う。具体的には、図2に示すように、フーリエ変換長Nとオーバーラップ長Mとの差分時間ずつ時間をシフト(時間t1,t2,t3,t4,t5,t6, ・・・・・)したtn(n=1,2,・・・n)個の周波数スペクトルを求める。
図3は、時間シフト毎の振幅スペクトルを示した図である。具体的に、図3には、時間t1の振幅スペクトルと、時間t2の振幅スペクトルと、時間t3の振幅スペクトルとが示されており、周波数毎(f1,f2,f3,f4,f5,f6,f7,f8,・・・,fn-1,fn)の振幅が示されている。音楽等の非定常的な信号がオーディオ信号としてFFT部2に入力された場合には、図3に示すように、時間シフト毎にそれぞれの振幅スペクトルが変動することになる。フーリエ変換長Nの場合には、振幅スペクトルの総数はN個となる。
図4は、振幅スペクトルの時間変動を示した図である。具体的に、図4には、周波数f1の振幅スペクトルの時間変動と、周波数f2の時間変動と、周波数f3の時間変動とが示されており、時間変動毎(t1,t2,t3,t4,t5,・・・,tk)の振幅が示されている。時間のシフト間隔は、周波数スペクトルのサンプリング周波数となる。
[周波数スペクトル領域フィルタリング部]
図5は、周波数スペクトル領域フィルタリング部3の概略構成を示したブロック図である。周波数スペクトル領域フィルタリング部3は、図5に示すように、アタック音制御部(アタック成分制御手段)10と、余韻制御部(余韻成分制御手段)20と、ノイズ制御部(ノイズ制御手段)30と、第1加算部(第1加算手段)40と、第4リミッタ部41とを有している。
FFT部2から周波数スペクトル領域フィルタリング部3に向けて出力された振幅スペクトル信号(第1振幅スペクトル信号)の一部は、アタック音制御部10と、余韻制御部20とにそれぞれ入力される。アタック音制御部10および余韻制御部20において処理された各振幅スペクトル信号(第2振幅スペクトル信号、第3振幅スペクトル信号)は、第1加算部40へそれぞれ出力される。また、FFT部2から周波数スペクトル領域フィルタリング部3へ出力された振幅スペクトル信号(第1振幅スペクトル信号)の残りは、直接に第1加算部40へと出力される。
ここで、周波数スペクトル領域フィルタリング部3は、FFT部2から入力されたオーディオ信号(第1振幅スペクトル信号)を振幅スペクトル毎に、フィルタリング処理や振幅制限処理、振幅重み付け処理を行うものであり、入力されたオーディオ信号の位相スペクトルについては、図1に示すように、処理を行わない。
[アタック音制御部]
アタック音制御部10は、第1HPF(High-pass filter:ハイパスフィルタ)部(第1HPF手段)11と、第1リミッタ部(第1リミッタ手段)12と、第1ゲイン部(第1ゲイン手段)13とを有している。
第1HPF部11は、入力された振幅スペクトル信号(第1振幅スペクトル信号)に対して、スペクトル毎にハイパスフィルタリング処理、すなわち微分処理を行う。第1リミッタ部12は、ハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して、0に設定する。このようにマイナス側の振幅を0に設定することによって、スペクトル毎の信号の立ち上がり成分、すなわちアタック成分(アタック音)を検出することが可能となる。
なお、第1HPF部11において設定されるカットオフ周波数(第1カットオフ周波数)の値が大きくなるほど、アタック音の制御時間は短くなり、小さくなると制御時間が長くなる。カットオフ周波数は、図1に示すようにパラメータとして設定することが可能となっている。
第1ゲイン部13は、第1リミッタ部12により検出された振幅スペクトル信号のアタック成分の重み付け(乗算)を行う。第1ゲイン部13により重み付けが行われた信号は、第1加算部40へと出力される。第1加算部40において、もとの振幅スペクトル信号(アタック音制御部10および余韻制御部20において音響処理されていない振幅スペクトル信号:第1振幅スペクトル信号)に対して、アタック音制御部10でアタック成分の音響処理が行われた振幅スペクトル信号(第2振幅スペクトル信号)が合成されることによって、重み付け量(第1重み付け量)がプラスの値の場合には、もとの振幅スペクトル信号(第1振幅スペクトル信号)に対してアタック音の増強が行われ、マイナスの値の場合にはアタック音の低減が行われる。
さらに、重み付け量のプラスまたはマイナスの値が大きくなるほど増強または低減の度合いが大きくなる。この重み付け量(第1重み付け量)は、図1に示すようにパラメータとして設定することが可能となっている。本実施の形態では、後述するように−1以上1以下の値が設定される。
[余韻制御部]
余韻制御部20は、第2HPF部(第2HPF手段)21と、振幅反転部(振幅反転手段)22と、第2リミッタ部(第2リミッタ手段)23と、第2ゲイン部(第2ゲイン手段)24とを有している。
第2HPF部21は、入力された振幅スペクトル信号(第1振幅スペクトル信号)に対して、スペクトル毎にハイパスフィルタリング処理、すなわち微分処理を行う。振幅反転部22は、第2HPF部21においてフィルタリング処理された振幅スペクトル信号に−1を乗算して、振幅の反転を行う。
第2リミッタ部23は、振幅の反転が行われた振幅スペクトル信号のマイナス側の振幅を制限して、0に設定する。このようにマイナス側の振幅を0に設定することによって、スペクトル毎の信号の立ち下がり成分、すなわち余韻成分を検出することが可能となる。
なお、第2HPF部21において設定されるカットオフ周波数(第2カットオフ周波数)の値が大きくなるほど、余韻の制御時間は短くなり、小さくなると制御時間が長くなる。カットオフ周波数は、図1に示すようにパラメータとして設定することが可能となっている。
第2ゲイン部24は、第2リミッタ部23により検出された振幅スペクトル信号の余韻成分の重み付け(乗算)を行う。第2ゲイン部24により重み付けが行われた信号は、第1加算部40へと出力される。第1加算部40において、もとの振幅スペクトル信号(アタック音制御部10および余韻制御部20において音響処理されていない振幅スペクトル信号:第1振幅スペクトル信号)に対して、余韻制御部20で余韻成分の音響処理が行われた振幅スペクトル信号が合成されることによって、重み付け量(第2重み付け量)がプラスの値の場合にはもとの振幅スペクトル信号(第1振幅スペクトル信号)に対して余韻の増強が行われ、マイナスの値の場合には余韻の低減が行われる。
さらに、重み付け量のプラスまたはマイナスの値が大きくなるほど増強または低減の度合いが大きくなる。この重み付け量(第2重み付け量)は、図1に示すようにパラメータとして設定することが可能となっている。本実施の形態では、後述するように−1以上1以下の値が設定される。
[第1加算部]
第1加算部40は、アタック音制御部10においてアタック音の音響処理が行われた振幅スペクトル信号(第2振幅スペクトル信号)と、余韻制御部20において余韻の音響処理が行われた振幅スペクトル信号(第3振幅スペクトル信号)と、FFT部2より入力されたもとの振幅スペクトル信号(第1振幅スペクトル信号)とを合成する役割を有している。第1加算部40において合成された振幅スペクトル信号(第4振幅スペクトル信号)は、もとの振幅スペクトル信号(第1振幅スペクトル信号)に対して、アタック音および余韻の増強あるいは低減がなされた状態となって、ノイズ制御部30へ出力される。
[ノイズ制御部]
ノイズ制御部30は、S/N比を向上させる役割を有している。ノイズ制御部30は、第3HPF部(第3HPF手段)31と、第3リミッタ部(第3リミッタ手段)32と、第3Aゲイン部(第3Aゲイン手段)33と、第3Bゲイン部(第3Bゲイン手段)34と、第2加算部(第2加算手段)35とを有している。第1加算部40において合成された振幅スペクトル信号(第4振幅スペクトル信号)は、第3HPF部31と第3Bゲイン部34とにそれぞれ出力される。
第3HPF部31は、第1加算部40において合成された振幅スペクトル信号(第4振幅スペクトル信号)に対して、スペクトル毎にハイパスフィルタリング処理、すなわち微分処理を行う。第3リミッタ部32は、ハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して、0に設定する。
第3HPF部31および第3リミッタ部32によって、同一周波数の振幅スペクトルにおいて、CW(Constant Wave)等の定常的に存在する信号をノイズと判断し、微分処理により定常成分すなわちDC(Direct Current)成分を抑圧することが可能となる。一般に、ハイパスフィルタのカットオフ周波数(第3カットオフ周波数)が小さくなるほど、DC近傍を抑圧することになるため、より定常性のある信号を抑圧(抑制)することが可能となる。
第3HPF部31では、後述するように、第1HPF部11および第2HPF部21において設定されるカットオフ周波数(第1カットオフ周波数、第2カットオフ周波数)よりも低い周波数がカットオフ周波数(第3カットオフ周波数)として設定される。カットオフ周波数は、図1に示すようにパラメータとして設定することが可能となっている。
定常成分を抑圧された信号は、第3Aゲイン部33で重み付けを行い、第2加算部35へ出力される。一方で、第3Bゲイン部34には、第3HPF部31とは別に、第1加算部40において合成された振幅スペクトル信号(第4振幅スペクトル信号)が入力される。第3Bゲイン部34では、入力された振幅スペクトル信号に対して重み付けを行った後に、第2加算部35へ信号を出力する。
第2加算部35は、第3Aゲイン部33において重み付けされた振幅スペクトル信号と、第3Bゲイン部34において重み付けされた振幅スペクトル信号とを合成する処理を行う。第2加算部35において合成された信号は、第3Aゲイン部33と第3Bゲイン部34との重み付け処理によって、ノイズ低減量の調整が行われた信号(第5振幅スペクトル信号)となる。
第3Aゲイン部33の重み付け量(第3重み付け量)と、第3Bゲイン部34の重み付け量とを、図1に示すようにパラメータとして設定することが可能となっている。本実施の形態では、第3Aゲイン部33の重み付け量(第3重み付け量)として0以上1以下の値が設定され、第3Bゲイン部34の重み付け量として、1から第3Aゲイン部33で設定される重み付け量(第3重み付け量)を減算した値が設定される。
S/N比を大きく向上させる場合には、例えば、第3Aゲイン部33の重み付け量を1に設定し、第3Bゲイン部34の重み付け量を0(1−1=0)に設定する。また、S/N比をやや向上させる場合には、例えば、第3Aゲイン部33の重み付け量を0.5に設定し、第3Bゲイン部34の重み付け量を0.5(1−0.5=0.5)に設定する。
[第4リミッタ部]
第4リミッタ部41は、第2加算部35における合成処理が行われた信号(第5振幅スペクトル信号)の振幅が、より詳細には、アタック音制御部10によりアタック音の調整が行われ、余韻制御部20により余韻の調整が行われ、ノイズ制御部30によりノイズ低減量の調整が行われた信号の振幅が、マイナスの値にならないように調整を行う役割を有している。第4リミッタ部41は、マイナス側の振幅を制限して、0に設定する。
上述したアタック音制御部10、余韻制御部20、第1加算部40、ノイズ制御部30および第4リミッタ部41による音響処理は、振幅スペクトル毎に行われる。従って、図6のように、周波数スペクトル信号が、周波数毎(f1,f2,・・・fn)に、アタック音制御部10、余韻制御部20、第1加算部40、ノイズ制御部30および第4リミッタ部41により、アタック音の調整、余韻の調整およびノイズ低減量の調整がそれぞれになされて、周波数毎に出力される(f1',f2',・・・fn')ことになる。フーリエ変換長Nが1,024の場合には、周波数毎の数が1,024となり、1,024個の周波数スペクトル信号が処理されることになる。
第4リミッタ部41において振幅調整が行われた周波数スペクトル信号は、IFFT部4へ出力される。
[IFFT部]
IFFT部4は、周波数スペクトル領域フィルタリング部3においてフィルタリング処理された振幅スペクトル信号と、FFT部2より出力される位相スペクトル信号とに基づいて、取得した信号を実数と虚数との周波数スペクトルに変換する。取得した信号を周波数スペクトルに変換した後、IFFT部4は、窓関数により重み付けを行い、短時間逆フーリエ変換処理とオーバーラップ加算とを行うことによって、周波数領域から時間領域に信号を変換する。このようにして周波数領域から時間領域へと変換されたオーディオ信号は、図示を省略したスピーカによって出力される。音響信号処理装置1により音響処理が行われたオーディオ信号は、楽器音等の音源に含まれるアタック音とその後に持続する余韻とが制御され、さらにS/N比が向上された信号として、スピーカより出力されることになる。
[設定値調整]
図7(a)は、アタック音制御部10の第1ゲイン部13および余韻制御部20の第2ゲイン部24で設定される重み付け量(第1重み付け量および第2重み付け量)の値と、重み付け量に対応する増強量・低減量の関係を示した図である。図7(a)に示すように、第1ゲイン部13および第2ゲイン部24で設定される重み付け量は、−1から1までの間のいずれかの値となる。図7(a)に示すように、重み付け量がプラスの場合(重み付け量の設定値が0より大きい場合)には、重み付け量の値の増加量に比例するようにして、第1ゲイン部13でアタック音の増強が行われ、第2ゲイン部24で余韻の増強が行われる。また、図7(a)に示すように、重み付け量がマイナスの場合(重み付け量の設定値が0より小さい場合)には、重み付け量の値の低減量に比例するようにして、第1ゲイン部13でアタック音の低減が行われ、第2ゲイン部24で余韻の低減が行われる。
一方で、図7(b)は、アタック音制御部10の第1HPF部11および余韻制御部20の第2HPF部21において設定されるカットオフ周波数(フィルタカットオフ周波数:第1カットオフ周波数)の値と、設定されたカットオフ周波数の値に応じて変化するアタック音または余韻の制御時間との関係を示した図である。
図7(b)に示すように、カットオフ周波数が大きくなるほど、アタック音の制御時間および余韻の制御時間が短くなり、小さくなるほど制御時間が長くなる。つまり、カットオフ周波数が大きくなるほど、アタック音・余韻が増強あるいは低減される時間が短くなり、カットオフ周波数が小さくなるほど、アタック音・余韻が増強あるいは低減される時間が長くなる。なお、カットオフ周波数の逆数がほぼ制御時間となる。本実施の形態では、カットオフ周波数の範囲を0.5Hz〜10Hz(制御時間:2秒〜0.1秒)とする。
図8(a)は、ノイズ制御部30の第3Aゲイン部33における、重み付け量(第3重み付け量)とノイズ低減量との関係を示した図である。ノイズ制御部30の第3HPF部31では、前述したように、定常成分すなわちDC成分を抑圧するため、0.031Hz(制御時間:32秒)のような、非常に小さい値がカットオフ周波数(フィルタカットオフ周波数:第3カットオフ周波数)として設定される。
その後に、第3Aゲイン部33において設定される重み付け量の値に比例するようにして、ノイズ制御部30において低減されるノイズの低減量が変動する。ここで、第3Aゲイン部33における重み付け量の値は、0以上1以下の値が設定され、重み付け量の値が0から1へと変化するのに対応して、ノイズ低減量が小量から大量へと変化される。なお、第3Bゲイン部34の重み付け量の値は、1から第3Aゲイン部33で設定される重み付け量(0以上1以下の値)を減算した値に設定される。
このように、第1ゲイン部13および第2ゲイン部24において設定される重み付け量(第1重み付け量、第2重み付け量)の値を調整することにより、アタック音と余韻とをそれぞれ増強あるいは低減し、また、第1HPF部11と第2HPF部21とにおいて設定されるカットオフ周波数(第1カットオフ周波数、第2カットオフ周波数)の値を調整することにより、アタック音および余韻の制御時間の長短調整を行うことができる。また、第3Aゲイン部33および第3Bゲイン部34において設定される重み付け量(第3重み付け量など)の値を調整することにより、ノイズの低減量の調整を行うことができる。このように各重み付け量および各カットオフ周波数を適宜調整することによって、楽器音等の音源に含まれるアタック音とその後に持続する余韻、収録環境の定常的なノイズ成分や音源に含まれる定常的な信号成分を調節することができ、オーディオ信号を聴取者の嗜好に合うように調整することが可能となる。
[音響信号処理例]
次に、本実施の形態に係る音響信号処理装置に対して、図8(b)に示すようなオーディオ信号が入力された場合に、周波数スペクトル領域フィルタリング部3で、重み付け量やカットオフ周波数などのパラメータを調節したときの出力信号の一例について説明を行う。
ここで、入力されるオーディオ信号のサンプリング周波数は、44.1kHzとする。また、入力されるオーディオ信号は、図8(b)に示すように、アタック音と余韻によって構成され、周波数成分は1kHzである。
また、FFT部2のフーリエ変換長Nは、4,096sample、オーバーラップ長Mは、フーリエ変換長Nの15/16倍となる3,840sample、窓関数はブラックマン、振幅スペクトルのサンプリング周波数は、それぞれ172Hz(44,100/(4,096−3,840)≒172)とする。
さらに、第1HPF部11、第2HPF部21および第3HPF部31は、一次のバタワースハイパスフィルタであり、カットオフ周波数は、第1HPF部11が2.5Hz、第2HPF部21が1.25Hz、第3HPF部31が0.031Hzとする。また、第1ゲイン部13、第2ゲイン部24、第3Aゲイン部33および第3Bゲイン部34の重み付け量は、−1,0,1のいずれかを、ゲイン部毎に個別に設定する。
図9(a)は、周波数スペクトル領域フィルタリング部3において、アタック音制御部10の第1HPF部11と第1リミッタ部12のみを動作させたときの出力信号を示した図である。ここで、第1HPF部11のカットオフ周波数は、2.5Hzである。
アタック音制御部10の第1HPF部11と第1リミッタ部12のみを動作させた場合には、図9(a)に示すように、入力されたオーディオ信号の立ち上がり成分、すなわち、アタック音(アタック成分)が検出される。
さらに、アタック音制御部10の第1HPF部11と第1リミッタ部12を動作させ、第1ゲイン部13の重み付け量の値を1に設定することによりアタック音が強調されたオーディオ信号と、周波数スペクトル領域フィルタリング部3に入力されたオーディオ信号(図8(b)に示される信号)とを合成した信号を、図9(b)に実線で示す。図9(b)において、破線で示される信号は、図8(b)に示した入力されたオーディオ信号の状態を示している。図9(b)に実線で示すように、合成された信号は、図8(b)に示したオーディオ信号に対してアタック音(アタック成分)が増強された状態となる。
一方で、アタック音制御部10の第1HPF部11と第1リミッタ部12を動作させ、第1ゲイン部13の重み付け量の値を−1に設定することによりアタック音が低減されたオーディオ信号と、周波数スペクトル領域フィルタリング部3に入力されたオーディオ信号(図8(b)に示される信号)とを合成した信号を、図10(a)に実線で示す。図10(a)において、破線で示される信号は、図8(b)に示した入力されたオーディオ信号の状態を示している。図10(a)に実線で示すように、合成された信号は、図8(b)に示したオーディオ信号に対してアタック音(アタック成分)が低減された状態となる。
また、図9(b)に示した条件に対して、第1HPF部11のカットオフ周波数を2.5Hzから1.25Hzへと変更した場合の合成された信号を、図10(b)に実線で示す。図10(b)において、破線で示される信号は、図8(b)に示した入力されたオーディオ信号の状態を示している。カットオフ周波数を2.5Hzから1.25Hzへと変更することにより、制御時間が大きくなるので(図7(b)参照)、合成された信号は、図8(b)に示したオーディオ信号に対して、アタック音が増強されているだけでなく、アタック時間も増大していることがわかる。
図11(a)は、周波数スペクトル領域フィルタリング部3において、余韻制御部20の第2HPF部21、振幅反転部22および第2リミッタ部23のみを動作させたときの出力信号を示した図である。ここで、第2HPF部21のカットオフ周波数は、2.5Hzである。
余韻制御部20の第2HPF部21、振幅反転部22および第2リミッタ部23のみを動作させた場合には、図11(a)に示すように、入力されたオーディオ信号の立ち下がり成分、すなわち、余韻(余韻成分)が検出される。
さらに、図9(b)に示したようにアタック音制御部10でアタック音が強調されたオーディオ信号と、余韻制御部20の第2HPF部21、振幅反転部22および第2リミッタ部23を動作させ、第2ゲイン部24の重み付け量の値を−1に設定することにより余韻の低減が行われるオーディオ信号と、周波数スペクトル領域フィルタリング部3に入力されたオーディオ信号(図8(b)に示される信号)とを合成した信号を、図11(b)に実線で示す。図11(b)において、破線で示される信号は、図8(b)に示した入力されたオーディオ信号の状態を示している。図11(b)に実線で示す合成された信号を、図8(b)に示す入力されたオーディオ信号と比較すると、図8(b)に比べてアタック音が増強されるが、余韻は減少した状態となる。また、図11(b)に実線で示すように、合成された信号は、図9(b)に示したオーディオ信号に対して余韻(余韻成分)が低減された状態となる。
さらに、図10(a)に示したようにアタック音制御部10でアタック音の低減が行われたオーディオ信号と、余韻制御部20の第2HPF部21、振幅反転部22および第2リミッタ部23を動作させ、第2ゲイン部24の重み付け量の値を1に設定することにより余韻の増強が行われたオーディオ信号と、周波数スペクトル領域フィルタリング部3に入力されたオーディオ信号(図8(b)に示される信号)とを合成した信号を、図12に実線で示す。図12において、破線で示される信号は、図8(b)に示した信号の状態を示している。
図12に示す合成された信号を、図8(b)に示す入力されたオーディオ信号と比較すると、図8(b)に比べてアタック音が低減されるが、余韻が増大した状態となる。また、図12に実線で示すように、合成された信号は、図10(a)に示したオーディオ信号に対して余韻(余韻成分)が増大された状態となる。
図13(a)は、入力されたオーディオ信号(図8(b)に示す信号)にノイズとして定常性のある1.2kHzの正弦波を加えた入力信号に対して、アタック音制御部10の第1HPF部11のカットオフ周波数を2.5Hzに設定し、第1ゲイン部13の重み付け量を1に設定した場合の出力信号の状態を示している。図13(a)に示す信号は、ノイズが付加されたオーディオ信号に対して、アタック音制御部10でアタック音制御処理が行われるため、アタック音が増強された状態となる。
一方で、図13(b)は、図13(a)に示す信号に対して、ノイズ制御部30の第3HPF部31のカットオフ周波数を0.031Hzに設定し、第3Aゲイン部33の重み付け量を1、第3Bゲイン部34の重み付け量を0に設定することにより、ノイズ制御部30でノイズ制御処理を行った信号を示している。図13(b)に示すように、第3HPF部31のカットオフ周波数を低い値(0.031Hz)に設定することにより、DC近傍を抑圧(抑制)することができるので、アタック音の増強を維持したまま定常性のあるノイズのみを低減することが可能となる。
以上、説明したように、本実施の形態に係る音響信号処理装置1では、アタック音制御部10の第1ゲイン部13の重み付け量を調整することにより、オーディオ信号のアタック音の増強・低減を行うことができ、さらに、第1HPF部11において、カットオフ周波数を調整することにより、アタック音の制御時間(増強時間、低減時間)を変化させることができる。このため、アタック音を信号レベルに応じて増幅して強調することにより、総じてメリハリのある表現を出力音に発現させることが可能となる。また、一般的なMP3などのデジタル音声信号において劣化するおそれのあるアタック音の制御を行うことにより、デジタル音声信号の音質向上を図ることが可能となる。
さらに、本実施の形態に係る音響信号処理装置1では、余韻制御部20の第2ゲイン部24の重み付け量を調整することにより、オーディオ信号の余韻の増強・低減を行うことができ、さらに、第2HPF部21において、カットオフ周波数を調整することにより、余韻の制御時間(増強時間、低減時間)を変化させることができる。このため、聴取者の好みに応じ、余韻を強調させたり低減させたりすることが可能となる。
また、本実施の形態に係る音響信号処理装置1では、ノイズ制御部30の第3Aゲイン部33および第3Bゲイン部34の重み付け量を調整することにより、ノイズ低減量の調整を行うことができ、さらに、第3HPF部31において、カットオフ周波数を調整することにより、ノイズのDC成分を抑圧することができる。このため、音源の収録環境や音源そのものに含まれる定常的なノイズを調節することが可能となる。
さらに、上述したアタック音制御処理、余韻制御処理およびノイズ低減処理は、周波数領域の振幅スペクトル毎の変化量に基づいて行われることを特徴とする。このため、従来技術のようなスレッショルドを用いてアタック音などを識別する場合のように、音源の振幅レベルによって検出状態が大きく左右されてしまうことがない(音源の振幅レベル依存性は存在しない)。
例えば、楽器音と音声とが含まれているオーディオ信号においては、楽器音のアタック音の立ち上がり時間に対して、音声の立ち上がり時間が遅く、振幅スペクトル毎の変化量も音声の方が小さいため、アタック音制御部10における第1HPF部11のカットオフ周波数の設定により、楽器音のみにアタック音を付加することができる。このようにして楽器音のアタック音のみを増強することによって、音声の抑揚感を維持したまま楽器のメリハリ感を強調することが可能となる。
また、アタック音制御部10、余韻制御部20およびノイズ制御部30におけるカットオフ周波数の設定や重み付け量の設定は、振幅スペクトル毎に個別に設定することもできるので、周波数帯域を複数の帯域に分けて、それぞれ設定することも可能である。
例えば、入力されるオーディオ信号を低域、中域、高域の3つの帯域に分け、低域では、アタック音を増強して余韻を低減することで、ドラム等の迫力と応答性のある音を再現し、中域では余韻を増強して音声の響きを強調し、高域ではアタック音を増強することで、シンバルなどの音をより透明感のあるクリアな音にすることが可能となる。
また、音源そのものに含まれる定常的な信号成分や音源の収録環境に含まれる定常的なノイズ成分が含まれるオーディオ信号を再生した場合は、ノイズ等が収録環境の臨場感となって聴取される場合があるが、その一方で、楽器音や音声の鮮明感が低下してしまう傾向がある。この場合には、ノイズ制御部30でノイズ制御を行ってノイズ量を僅かに低減させることにより、臨場感をある程度維持したまま、楽器や音声の音響成分をクリアな音で出力することが可能となる。
このように、本実施の形態に係る音響信号処理装置1を用いることにより、楽器音等の音源に含まれるアタック音とその後に持続する余韻、収録環境の定常的なノイズ成分や音源に含まれる定常的な信号成分を調節することができるので、多様な聴取者の嗜好に対応することができる。
以上、本発明に係る音響信号処理装置について、音響信号処理装置1を一例として示して詳細に説明を行ったが、本発明に係る音響信号処理装置および音響信号処理方法は、上述した実施の形態に示した内容には限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到しうることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
1 …音響信号処理装置
2 …FFT部(FFT手段)
3 …周波数スペクトル領域フィルタリング部
4 …IFFT部(IFFT手段)
10 …アタック音制御部(アタック成分制御手段)
11 …(アタック音制御部の)第1HPF部(第1HPF手段)
12 …(アタック音制御部の)第1リミッタ部(第1リミッタ手段)
13 …(アタック音制御部の)第1ゲイン部(第1ゲイン手段)
20 …余韻制御部(余韻成分制御手段)
21 …(余韻制御部の)第2HPF部(第2HPF手段)
22 …(余韻制御部の)振幅反転部(振幅反転手段)
23 …(余韻制御部の)第2リミッタ部(第2リミッタ手段)
24 …(余韻制御部の)第2ゲイン部(第2ゲイン手段)
30 …ノイズ制御部(ノイズ制御手段)
31 …(ノイズ制御部の)第3HPF部(第3HPF手段)
32 …(ノイズ制御部の)第3リミッタ部(第3リミッタ手段)
33 …(ノイズ制御部の)第3Aゲイン部(第3Aゲイン手段)
34 …(ノイズ制御部の)第3Bゲイン部(第3Bゲイン手段)
35 …(ノイズ制御部の)第2加算部(第2加算手段)
40 …第1加算部(第1加算手段)
41 …第4リミッタ部

Claims (4)

  1. 入力されたオーディオ信号に対して、フーリエ変換長とオーバーラップ長との差分時間ずつ時間シフトしながら短時間フーリエ変換を行うことにより、差分時間ずつ時間が異なる複数の振幅スペクトルを求め、求められた各振幅スペクトルの周波数毎の時間変動を求めることにより、前記入力されたオーディオ信号を時間領域から周波数領域に変換して周波数スペクトル信号を求め、さらに、該周波数スペクトル信号に基づいて、第1振幅スペクトル信号と位相スペクトル信号とを生成するFFT手段と、
    該FFT手段により生成された前記第1振幅スペクトル信号のアタック成分の制御を行うアタック成分制御手段と、
    前記FFT手段により生成された前記第1振幅スペクトル信号の余韻成分の制御を行う余韻成分制御手段と、
    前記FFT手段により生成された前記第1振幅スペクトル信号と、前記アタック成分制御手段によりアタック成分の制御が行われた第2振幅スペクトル信号と、前記余韻成分制御手段により余韻成分の制御が行われた第3振幅スペクトル信号とを合成する第1加算手段と、
    該第1加算手段により合成された第4振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて周波数スペクトル信号を求め、求められた該周波数スペクトル信号に短時間逆フーリエ変換処理とオーバーラップ加算とを行うことによって、周波数領域から時間領域に変換されたオーディオ信号を生成するIFFT手段と
    を備え、
    前記アタック成分制御手段は、
    設定された第1カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行う第1HPF手段と、
    該第1HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号のアタック成分を検出する第1リミッタ手段と、
    設定された第1重み付け量に基づいて、前記第1リミッタ手段により検出された振幅スペクトル信号のアタック成分の重み付け処理を行う第1ゲイン手段とを有し、
    前記余韻成分制御手段は、
    設定された第2カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行う第2HPF手段と、
    該第2HPF手段においてフィルタリング処理された振幅スペクトル信号に−1を乗算して振幅の反転を行う振幅反転手段と、
    該振幅反転手段により振幅の反転が行われた振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号の余韻成分を検出する第2リミッタ手段と、
    設定された第2重み付け量に基づいて、前記第2リミッタ手段により検出された振幅スペクトル信号の余韻成分の重み付け処理を行う第2ゲイン手段とを有すること
    を特徴とする音響信号処理装置。
  2. 前記第1加算手段により合成された前記第4振幅スペクトル信号のノイズ制御を行うノイズ制御手段を備え、
    前記IFFT手段は、前記ノイズ制御手段によりノイズ制御処理された第5振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数領域から時間領域に変換された前記オーディオ信号を生成し、
    前記ノイズ制御手段は、
    設定された第3カットオフ周波数に基づいて、前記第1加算手段により合成された前記第4振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行う第3HPF手段と、
    該第3HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定する第3リミッタ手段と、
    設定された0以上1以下の値からなる第3重み付け量に基づいて、前記第3リミッタ手段によりマイナス側の振幅が制限された前記振幅スペクトル信号の重み付け処理を行う第3Aゲイン手段と、
    1から前記第3重み付け量の値を減じた重み付け量に基づいて、前記第1加算手段において合成された前記第4振幅スペクトル信号の重み付け処理を行う第3Bゲイン手段と、
    前記第3Aゲイン手段により重み付け処理が行われた振幅スペクトル信号と、前記第3Bゲイン手段により重み付け処理が行われた振幅スペクトル信号とを合成して前記第5振幅スペクトル信号を生成する第2加算手段とを有すること
    を特徴とする請求項1に記載の音響信号処理装置。
  3. 入力されたオーディオ信号を時間領域から周波数領域に変換して周波数スペクトル信号を求めて、第1振幅スペクトル信号と位相スペクトル信号とを生成するFFT手段と、
    該FFT手段により生成された前記第1振幅スペクトル信号のアタック成分の制御を行うアタック成分制御手段と、
    前記FFT手段により生成された前記第1振幅スペクトル信号の余韻成分の制御を行う余韻成分制御手段と、
    前記FFT手段により生成された前記第1振幅スペクトル信号と、前記アタック成分制御手段によりアタック成分の制御が行われた第2振幅スペクトル信号と、前記余韻成分制御手段により余韻成分の制御が行われた第3振幅スペクトル信号とを合成する第1加算手段と、
    該第1加算手段により合成された第4振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数領域から時間領域に変換されたオーディオ信号を生成するIFFT手段と
    を備え、
    前記入力されたオーディオ信号に対してアタック成分制御と余韻成分制御とを行う音響信号処理装置の音響信号処理方法であって、
    前記FFT手段は、入力された前記オーディオ信号に対して、フーリエ変換長とオーバーラップ長との差分時間ずつ時間シフトしながら短時間フーリエ変換を行うことにより、差分時間ずつ時間が異なる複数の振幅スペクトルを求め、求められた各振幅スペクトルの周波数毎の時間変動を求めることにより前記周波数スペクトル信号を求め、さらに、当該周波数スペクトル信号に基づいて、前記第1振幅スペクトル信号と前記位相スペクトル信号とを生成し、
    前記アタック成分制御手段は、
    第1HPF手段により、設定された第1カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行い、
    第1リミッタ手段により、前記第1HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号のアタック成分を検出し、
    第1ゲイン手段により、設定された第1重み付け量に基づいて、前記第1リミッタ手段により検出された振幅スペクトル信号のアタック成分の重み付け処理を行い、
    前記余韻成分制御手段は、
    第2HPF手段により、設定された第2カットオフ周波数に基づいて、前記FFT手段により生成された前記第1振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行い、
    振幅反転手段により、前記第2HPF手段においてフィルタリング処理された振幅スペクトル信号に−1を乗算して振幅の反転を行い、
    第2リミッタ手段により、前記振幅反転手段により振幅の反転が行われた振幅スペクトル信号のマイナス側の振幅を制限して0に設定することによって、スペクトル毎に振幅スペクトル信号の余韻成分を検出し、
    第2ゲイン手段により、設定された第2重み付け量に基づいて、前記第2リミッタ手段により検出された振幅スペクトル信号の余韻成分の重み付け処理を行い、
    前記第1加算手段は、前記第1振幅スペクトル信号と、前記第1ゲイン手段によりアタック成分の重み付け処理が行われた前記第2振幅スペクトル信号と、前記第2ゲイン手段により余韻成分の重み付け処理が行われた前記第3振幅スペクトル信号とを合成して前記第4振幅スペクトル信号を生成し、
    前記IFFT手段は、前記第4振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数スペクトル信号を求め、求められた該周波数スペクトル信号に短時間逆フーリエ変換処理とオーバーラップ加算とを行うことによって、周波数領域から時間領域に変換された前記オーディオ信号を生成すること
    を特徴とする音響信号処理装置の音響信号処理方法。
  4. 前記第1加算手段により合成された前記第4振幅スペクトル信号のノイズ制御を行うノイズ制御手段を備え、
    前記IFFT手段は、前記ノイズ制御手段によりノイズ制御処理された第5振幅スペクトル信号と、前記FFT手段により生成された前記位相スペクトル信号とに基づいて、周波数領域から時間領域に変換された前記オーディオ信号を生成し、
    前記ノイズ制御手段は、
    第3HPF手段により、設定された第3カットオフ周波数に基づいて、前記第1加算手段により合成された前記第4振幅スペクトル信号に対して、スペクトル毎にハイパスフィルタリング処理を行い、
    第3リミッタ手段により、前記第3HPF手段によりハイパスフィルタリング処理された振幅スペクトル信号のマイナス側の振幅を制限して0に設定し、
    第3Aゲイン手段により、設定された0以上1以下の値からなる第3重み付け量に基づいて、前記第3リミッタ手段によりマイナス側の振幅が制限された前記振幅スペクトル信号の重み付け処理を行い、
    第3Bゲイン手段により、1から前記第3重み付け量の値を減じた重み付け量に基づいて、前記第1加算手段において合成された前記第4振幅スペクトル信号の重み付け処理を行い、
    第2加算手段により、前記第3Aゲイン手段により重み付け処理が行われた振幅スペクトル信号と、前記第3Bゲイン手段により重み付け処理が行われた振幅スペクトル信号とを合成して前記第5振幅スペクトル信号を生成すること
    を特徴とする請求項3に記載の音響信号処理装置の音響信号処理方法。
JP2012054560A 2012-03-12 2012-03-12 音響信号処理装置および音響信号処理方法 Active JP5898534B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012054560A JP5898534B2 (ja) 2012-03-12 2012-03-12 音響信号処理装置および音響信号処理方法
US14/381,989 US9280986B2 (en) 2012-03-12 2013-01-23 Acoustic signal processing device and acoustic signal processing method
CN201380013601.XA CN104185870B (zh) 2012-03-12 2013-01-23 声学信号处理装置和声学信号处理方法
PCT/JP2013/051273 WO2013136846A1 (ja) 2012-03-12 2013-01-23 音響信号処理装置および音響信号処理方法
EP13760657.0A EP2827330B1 (en) 2012-03-12 2013-01-23 Audio signal processing device and audio signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012054560A JP5898534B2 (ja) 2012-03-12 2012-03-12 音響信号処理装置および音響信号処理方法

Publications (2)

Publication Number Publication Date
JP2013190470A true JP2013190470A (ja) 2013-09-26
JP5898534B2 JP5898534B2 (ja) 2016-04-06

Family

ID=49160768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012054560A Active JP5898534B2 (ja) 2012-03-12 2012-03-12 音響信号処理装置および音響信号処理方法

Country Status (5)

Country Link
US (1) US9280986B2 (ja)
EP (1) EP2827330B1 (ja)
JP (1) JP5898534B2 (ja)
CN (1) CN104185870B (ja)
WO (1) WO2013136846A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122324A1 (ja) * 2014-02-17 2015-08-20 クラリオン株式会社 音響処理装置、音響処理方法及び音響処理プログラム
JP2015195432A (ja) * 2014-03-31 2015-11-05 Pioneer DJ株式会社 音声信号処理装置、音声信号処理装置の制御方法およびプログラム
JP2020030373A (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 音源強調装置、音源強調学習装置、音源強調方法、プログラム
KR102096588B1 (ko) * 2018-12-27 2020-04-02 인하대학교 산학협력단 음향 장치에서 맞춤 오디오 잡음을 이용해 사생활 보호를 구현하는 기술
US11251890B2 (en) 2019-06-04 2022-02-15 Clarion Co., Ltd. Mixing apparatus and mixing method

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2014204540B1 (en) * 2014-07-21 2015-08-20 Matthew Brown Audio Signal Processing Methods and Systems
EP3121814A1 (en) * 2015-07-24 2017-01-25 Sound object techology S.A. in organization A method and a system for decomposition of acoustic signal into sound objects, a sound object and its use
BR112018068892A2 (pt) * 2016-03-18 2019-01-22 Fraunhofer Ges Forschung aparelho para reconstrução de fase a partir de um espectrograma de magnitude de um sinal de áudio, sistema, codificador e método para reconstrução de fase a partir de um espectrograma de magnitude de um sinal de áudio
EP3270378A1 (en) * 2016-07-14 2018-01-17 Steinberg Media Technologies GmbH Method for projected regularization of audio data
CN106847249B (zh) * 2017-01-25 2020-10-27 得理电子(上海)有限公司 一种发音处理方法及系统
DE102017204181A1 (de) 2017-03-14 2018-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sender zum Emittieren von Signalen und Empfänger zum Empfangen von Signalen
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
EP3382700A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
CN107623962B (zh) * 2017-08-25 2019-06-07 广州飞达音响股份有限公司 一种利用led灯指示音频压缩限幅效果的系统及方法
CN108804072A (zh) * 2018-06-13 2018-11-13 广州酷狗计算机科技有限公司 音频处理方法、装置、存储介质及终端
DE102018213834B3 (de) 2018-07-02 2020-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur modifizierung eines lautsprechersignals zur vermeidung einer membranüberauslenkung
TWI719429B (zh) * 2019-03-19 2021-02-21 瑞昱半導體股份有限公司 音訊處理方法與音訊處理系統
CN112447166A (zh) * 2019-08-16 2021-03-05 阿里巴巴集团控股有限公司 一种针对目标频谱矩阵的处理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005799A (ja) * 2001-06-21 2003-01-08 Sharp Corp 符号化装置
WO2004013840A1 (en) * 2002-08-06 2004-02-12 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
JP2012002858A (ja) * 2010-06-14 2012-01-05 Pioneer Electronic Corp タイムスケーリング方法、ピッチシフト方法、オーディオデータ処理装置およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7272556B1 (en) * 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
JP2000101439A (ja) * 1998-09-24 2000-04-07 Sony Corp 情報処理装置および方法、情報記録装置および方法、記録媒体、並びに提供媒体
US7353169B1 (en) * 2003-06-24 2008-04-01 Creative Technology Ltd. Transient detection and modification in audio signals
US7876909B2 (en) * 2004-07-13 2011-01-25 Waves Audio Ltd. Efficient filter for artificial ambience
US8116471B2 (en) * 2004-07-22 2012-02-14 Koninklijke Philips Electronics, N.V. Audio signal dereverberation
JP2007036710A (ja) * 2005-07-27 2007-02-08 Victor Co Of Japan Ltd アタック信号増幅デジタル信号処理装置
US7783488B2 (en) * 2005-12-19 2010-08-24 Nuance Communications, Inc. Remote tracing and debugging of automatic speech recognition servers by speech reconstruction from cepstra and pitch information
CA2697920C (en) 2007-08-27 2018-01-02 Telefonaktiebolaget L M Ericsson (Publ) Transient detector and method for supporting encoding of an audio signal
US8706496B2 (en) * 2007-09-13 2014-04-22 Universitat Pompeu Fabra Audio signal transforming by utilizing a computational cost function
US7594423B2 (en) * 2007-11-07 2009-09-29 Freescale Semiconductor, Inc. Knock signal detection in automotive systems
US8143620B1 (en) * 2007-12-21 2012-03-27 Audience, Inc. System and method for adaptive classification of audio sources
US8804977B2 (en) * 2011-03-18 2014-08-12 Dolby Laboratories Licensing Corporation Nonlinear reference signal processing for echo suppression
US9635474B2 (en) * 2011-05-23 2017-04-25 Sonova Ag Method of processing a signal in a hearing instrument, and hearing instrument
JP5654955B2 (ja) * 2011-07-01 2015-01-14 クラリオン株式会社 直接音抽出装置および残響音抽出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003005799A (ja) * 2001-06-21 2003-01-08 Sharp Corp 符号化装置
WO2004013840A1 (en) * 2002-08-06 2004-02-12 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
JP2012002858A (ja) * 2010-06-14 2012-01-05 Pioneer Electronic Corp タイムスケーリング方法、ピッチシフト方法、オーディオデータ処理装置およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122324A1 (ja) * 2014-02-17 2015-08-20 クラリオン株式会社 音響処理装置、音響処理方法及び音響処理プログラム
JP2015154305A (ja) * 2014-02-17 2015-08-24 クラリオン株式会社 音響処理装置、音響処理方法及び音響処理プログラム
US9986352B2 (en) 2014-02-17 2018-05-29 Clarion Co., Ltd. Acoustic processing device, acoustic processing method, and acoustic processing program
JP2015195432A (ja) * 2014-03-31 2015-11-05 Pioneer DJ株式会社 音声信号処理装置、音声信号処理装置の制御方法およびプログラム
JP2020030373A (ja) * 2018-08-24 2020-02-27 日本電信電話株式会社 音源強調装置、音源強調学習装置、音源強調方法、プログラム
KR102096588B1 (ko) * 2018-12-27 2020-04-02 인하대학교 산학협력단 음향 장치에서 맞춤 오디오 잡음을 이용해 사생활 보호를 구현하는 기술
US11251890B2 (en) 2019-06-04 2022-02-15 Clarion Co., Ltd. Mixing apparatus and mixing method

Also Published As

Publication number Publication date
EP2827330B1 (en) 2016-12-14
CN104185870A (zh) 2014-12-03
CN104185870B (zh) 2016-10-26
US9280986B2 (en) 2016-03-08
US20150030171A1 (en) 2015-01-29
EP2827330A4 (en) 2015-11-11
EP2827330A1 (en) 2015-01-21
WO2013136846A1 (ja) 2013-09-19
JP5898534B2 (ja) 2016-04-06

Similar Documents

Publication Publication Date Title
JP5898534B2 (ja) 音響信号処理装置および音響信号処理方法
JP4747835B2 (ja) オーディオ再生の効果付加方法およびその装置
JP5453740B2 (ja) 音声強調装置
JP5098404B2 (ja) 音声処理方法および音声処理装置
JP5012995B2 (ja) オーディオ信号処理装置及びオーディオ信号処理方法
JPWO2010005033A1 (ja) 音響処理装置
JP6533959B2 (ja) 音声信号処理装置および音声信号処理方法
JP5654955B2 (ja) 直接音抽出装置および残響音抽出装置
JP2011114772A (ja) オーディオ信号再生装置
JP2008072600A (ja) 音響信号処理装置、音響信号処理プログラム、音響信号処理方法
JP2006324786A (ja) 音響信号処理装置およびその方法
JP5985306B2 (ja) 雑音低減装置および雑音低減方法
JP6155132B2 (ja) 低域補完装置および低域補完方法
JP5375861B2 (ja) オーディオ再生の効果付加方法およびその装置
JP5268581B2 (ja) 低域補完装置
JP5841405B2 (ja) ダイナミックレンジ拡張装置
JP5998357B2 (ja) 車載用音響再生装置
JP2012027101A (ja) 音声再生装置、音声再生方法、プログラム、及び、記録媒体
JP2012187995A (ja) 車載用音響再生装置
JP6531418B2 (ja) 信号処理装置
JP6314803B2 (ja) 信号処理装置、信号処理方法及びプログラム
JP5494085B2 (ja) 音響処理装置
Heutschi Acoustics II: audio signal processing
JPWO2017056216A1 (ja) 音声信号生成装置、音声信号生成方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160304

R150 Certificate of patent or registration of utility model

Ref document number: 5898534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250