JP2018510374A - 目標時間領域エンベロープを用いて処理されたオーディオ信号を得るためにオーディオ信号を処理するための装置および方法 - Google Patents

目標時間領域エンベロープを用いて処理されたオーディオ信号を得るためにオーディオ信号を処理するための装置および方法 Download PDF

Info

Publication number
JP2018510374A
JP2018510374A JP2017545563A JP2017545563A JP2018510374A JP 2018510374 A JP2018510374 A JP 2018510374A JP 2017545563 A JP2017545563 A JP 2017545563A JP 2017545563 A JP2017545563 A JP 2017545563A JP 2018510374 A JP2018510374 A JP 2018510374A
Authority
JP
Japan
Prior art keywords
audio signal
frequency domain
time domain
envelope
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017545563A
Other languages
English (en)
Other versions
JP2018510374A5 (ja
JP6668372B2 (ja
Inventor
クリスティアン ディットマー
クリスティアン ディットマー
メイナード ミュラー
メイナード ミュラー
サッシャ ディスヒ
サッシャ ディスヒ
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ, フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2018510374A publication Critical patent/JP2018510374A/ja
Publication of JP2018510374A5 publication Critical patent/JP2018510374A5/ja
Application granted granted Critical
Publication of JP6668372B2 publication Critical patent/JP6668372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

発明の手段は、処理されたオーディオ信号6を得るために、オーディオ信号4を処理するための概略ブロック図に記載された装置2である。装置2は、オーディオ信号4のオーバーラップしているフレームを表現している一連の周波数領域フレーム12のスペクトル値のための位相値10を計算するための位相計算機8を含む。さらに、位相計算機8は、処理されたオーディオ信号6に関連した目標時間領域エンベロープ14についての情報に基づいて、位相値10を計算するように構成され、その結果、処理されたオーディオ信号が、少なくとも近似に、目標時間領域エンベロープ14および一連の周波数領域フレーム12によって決定されたスペクトル・エンベロープを持つ。【選択図】図1

Description

本発明は、処理されたオーディオ信号を得るためにオーディオ信号を処理するための装置および方法に関する。さらなる実施例は、装置を含むオーディオデコーダおよび対応するオーディオエンコーダ、オーディオソース分離プロセッサおよび帯域幅エンハンスメントプロセッサ、両方を含む装置を示す。さらなる実施例によれば、信号再構成における過渡部の修復(transient restoration)およびスコア情報に基づいたオーディオ分解が示される。
重畳されたサウンドソースのミクスチャーをその要素の構成要素に分離する作業は、デジタルオーディオ信号処理において重要性を有する。話し言葉の処理において、これらの構成要素は、通常、ノイズによって干渉される目標と話し手の発言、あるいは同時に話す人である。音楽において、これらの構成要素は、個々の楽器であるか、ボーカルのメロディ、打楽器、あるいは個々のノートイベントでありうる。関連した主題は、信号の再構成、過渡部の保護、およびスコア情報に基づくオーディオ構成(すなわち、ソース分離)である。
音楽ソース分離は、歌声、楽器のメロディ、打楽器、または混合信号(mixture signal)において起こる個々のノートイベントのような要素信号に、多声のマルチティンバーな音楽を分解することを意図する。多くの音楽分析および検索作業における重要なステップである傍らで、音楽ソースの分離は、音楽の復元、アップミックスおよびリミックスのようなアプリケーションの基本的な前提条件でもある。これらの目的のために、分離された構成要素の知覚的な品質に関する高い忠実性が望ましい。大多数の既存の分離技術は、混合信号の時間−周波数(TF)表現(しばしば短時間フーリエ変換(Short−Time Fourier Transform:STFT))の開発に取り組む。目標要素信号は、通常、適切な逆変換を用いて再構成される。そして、それは、次々に、音楽的なノイズ、傷ついた過渡部(smeared transients)あるいはエコーのような聞こえるアーティファクトを発生する。既存の方法は、音楽的なノイズ、位相干渉およびプレエコーの形で聞き取れるアーティファクトに悩まされる。これらのアーティファクトは、しばしば、人間のリスナーに対して極めて憂慮させる。
音楽ソース分離に関する多くの最新のレポートがある。大部分の方法において、分離は、マグニチュードスペクトルを修正することによって、時間−周波数(TF)領域において行われる。分離された構成要素に対応する時間領域信号は、元の位相情報を使用し、そして、最適な逆変換を適応することによって導出される。分離された単独の信号の良好な知覚的な品質を得ようと努力する場合、多くの著者は、スコア情報に基づいて分解技術に立ち戻る。これは、分離が時間(オンセット、オフセット)および周波数(ピッチ、音質)における構成要素信号の近似の位置に関する情報によって導かれうる効果を有する。少数の刊行物は、ドラムのような過渡信号のソース分離を取扱う。他は、ハーモニック対打楽器の構成要素の分離にフォーカスされる[5]。
さらに、プリエコーの問題は、知覚的なオーディオ信号の分野において対処されている。ここで、プリエコーは、心理音響モデルによってスペクトルマグニチュードの量子化のようなTFビンの中間の操作に関連して、比較的長い分析および合成ウィンドウを用いて典型的に生じされうる。過渡部のイベントの近似において、ブロック−スイッチングを使用することは最新の技術と考えられうる[6]。興味深い方法は、[13]において提案され、ここで、スペクトル係数が周波数軸に沿って線形予測によって符号化され、そして、自動的にプリエコーが低減される。後のワークは、過渡部および残余の構成要素に信号を分解させ、そして、各ストリームに対して最適化された符号化パラメータを使用することが提案される[3]。過渡部の保護は、位相−ボコーダに基づいて時間−スケール修正の方法のコンテキストにおいても調査される。過渡部の構成要素の最適化された処理に加えて、数人の著者は、位相固定の原則または過渡フレームの位相の再初期化に従う[8]。
マグニチュードスペクトログラムの反転または位相評価としても知られる信号の再構成の問題は、よく研究された主題である。それらの古典レポートにおいて[1]、グリフィン(Griffin)およびリム(Lim)は、修正されたSTFTマグニチュード(MSTFTM)スペクトログラムから、繰返しのブラインド信号再構成のためのいわゆるLSEE−MSTFTMアルゴリズムを提案した。[2]において、Le Rouxらは、TF整合性基準を用いたそれを記載することによって、この方法に関する異なる見解を開発した。必要な動作をTF領域に完全に保つことによって、最初の処置と比較して計算負荷を下げるいくつかの簡略化したものおよび近似値が導かれうる。LSEE−MSTFTMを用いて得られた位相評価は、ローカルの最適条件にのみ収束するのみであるので、いくつかの文献は、位相情報[3,4]のための良好な最初の評価を見つけることに関連していた。SturmelおよびDaudet[5]は、信号再構成の方法の徹底的な再調査を提供して、未解決の課題を指し示した。収束速度に関するLSEE−MSTFTMの拡張は、[6]において提案された。他の著者は、凸面最適化方式として位相評価の問題を公式化しようとして、高い計算量[7]によって妨げられる有望な結果に達した。他の研究[8]は、ウェーブレットベースのマグニチュードスペクトログラムからスペクトログラム整合性フレームワークを信号の再構成に適用することに関した。
しかしながら、信号の再構成のための記載されている方法は、例えば、過渡部についての典型的であるオーディオ信号の急激な変化の問題が、例えば、プリエコーのような以前から記載されるアーティファクトから悩まされる。
従って、改良された方法を必要とする。
Daniel W. Griffin and Jae S. Lim, "Signal estimation from modified short-time Fourier transform", IEEE Transactions on Acoustics, Speech and Signal Processing, vol. 32, no. 2, pp. 236-243, April 1984. Jonathan Le Roux, Nobutaka Ono, and Shigeki Sagayama, "Explicit consistency constraints for STFT spectrograms and their application to phase reconstruction" in Proceedings of the ISCA Tutorial and Research Workshop on Statistical And Perceptual Audition, Brisbane, Australia, September 2008, pp. 23-28. Xinglei Zhu, Gerald T. Beauregard, and Lonce L. Wyse, "Real-time signal estimation from modified short-time Fourier transform magnitude spectra", IEEE Transactions on Audio, Speech, and Language Processing, vol. 15, no. 5, pp. 1645-1653, July 2007. Jonathan Le Roux, Hirokazu Kameoka, Nobutaka Ono, and Shigeki Sagayama, "Phase initialization schemes for faster spectrogram-consistency-based signal reconstruction" in Proceedings of the Acoustical Society of Japan Autumn Meeting, September 2010, number 3-10-3. Nicolas Sturmel and Laurent Daudet, "Signal reconstruction from STFT magnitude: a state of the art" in Proceedings of the International Conference on Digital Audio Effects (DAFx), Paris, France, September 2011, pp. 375-386. Nathanaoel Perraudin, Peter Balazs, and Peter L. Soendergaard, "A fast Griffin-Lim algorithm" in Proceedings IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA), New Paltz, NY, USA, October 2013, pp. 1-4. Dennis L. Sun and Julius O. Smith III, "Estimating a signal from a magnitude spectrogram via convex optimization" in Proceedings of the Audio Engineering Society (AES) Convention, San Francisco, USA, October 2012, Preprint 8785. Tomohiko Nakamura and Hiokazu Kameoka, "Fast signal reconstruction from magnitude spectrogram of continuous wavelet transform based on spectrogram consistency" in Proceedings of the International Conference on Digital Audio Effects (DAFx), Erlangen, Germany, September 2014, pp. 129-135. Volker Gnann and Martin Spiertz, "Inversion of shorttime fourier transform magnitude spectrograms with adaptive window lengths" in Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing, (ICASSP), Taipei, Taiwan, April 2009, pp. 325-328. Jonathan Le Roux, Hirokazu Kameoka, Nobutaka Ono, and Shigeki Sagayama, "Fast signal reconstruction from magnitude STFT spectrogram based on spectrogram consistency" in Proceedings International Conference on Digital Audio Effects (DAFx), Graz, Austria, September 2010, pp. 397-403.
本発明の目的は、改良された概念を、オーディオ信号を処理するために提供する。この目的は、独立請求項の主題によって解決される。
本発明は、目標時間領域振幅エンベロープが時間または周波数領域における一連の周波数領域フレームのスペクトル値に適用されうるという知見に基づく。換言すると、信号の位相は、時間−周波数および周波数−時間の変換を使用して信号処理の後、修正されうる。ここで、振幅または信号のマグニチュードは、維持されるか、また(不変に)保たれる。位相は、例えば、グリフィンおよびリムによって提案されたアルゴリズムのような繰返しのアルゴリズムを使用して復元されうる。しかしながら、目標時間領域エンベロープを使用することは、位相回復の品質を大幅に向上させる。そして、繰返しのアルゴリズムが用いられる場合、それは、低減された数の繰返しに結果として得る。目標時間領域エンベロープは、算出されうるかまたは近似されうる。
実施例は、処理されたオーディオ信号を得るために、オーディオ信号を処理するための装置を示す。装置は、オーディオ信号のオーバーラップしているフレームを表現している一連の周波数領域フレームのスペクトル値のための位相値を計算するための位相計算機を含む。位相計算機は、処理されたオーディオ信号に関連した目標時間領域エンベロープについての情報に基づいて、位相値を計算するように構成され、その結果、処理されたオーディオ信号が、少なくとも近似に、目標時間領域エンベロープおよび一連の周波数領域フレームによって決定されたスペクトル・エンベロープを持つ。目標時間領域振幅エンベロープに関する情報は、時間または周波数領域における周波数領域フレームに適用されうる。
周知の方法の上述した限定を克服するために、実施例は、より優れて再構成されたソース信号の過渡部の構成要素を保存することの技術、方法または装置を示す。特に、目的は、ドラムおよび打楽器からピアノおよびギターと同様にノート情報のオンセットの明快さを悪化させるプリエコーを減らすことでありうる。
さらなる実施例は、例えばよりよく過渡信号の構成要素を保存するグリフィンおよびリム[1]によって信号再構成処理に拡張または改良を示す。最初の方法はSTFTおよび時間領域信号との間に行ったり来たりすることによってSTFTマグニチュード(STFTM)から繰返して時間領域再構成のために必要な位相情報を推定する。そして、位相情報を更新するだけである、その一方で、固定するSTFTMを保つ。提案された拡張または改良は、潜在的に過渡部に先行するプリエコーを減らすために、中間的な時間領域再構成を操作する。
第1実施例によれば、目標時間領域エンベロープに関する情報は、時間領域の一連の周波数領域フレームに適用される。従って、修正された短時間フーリエ変換(MSTFT)は、一連の周波数領域フレームから導出されうる。修正された短時間フーリエ変換に基づいて、逆短時間フーリエ変換が、実行されうる。逆短時間フーリエ変換(ISTFT)が重畳加算処理(overlap−and−add procedure)を実行するので、初期のMSTFTのマグニチュード値および位相値は変わる(更新されたか、構成されるか、調整される)。これは、オーディオ信号の中間の時間領域再構成に至る。さらに、目標時間領域エンベロープは、中間的な時間領域再構成に適用されうる。これは、インパルス応答による時間領域信号を畳み込むことによって、または、伝達関数によりスペクトルに乗算することによって、例えば実行されうる。目標時間領域エンベロープ(の近似値)を有しているオーディオ信号の中間的な時間領域再構成は、短時間フーリエ変換(STFT)を使用して変換される時間−周波数でもよい。従って、重なり合う分析−および/または合成ウィンドウが、用いられうる。
目標時間領域エンベロープの変調が適用されない場合であっても、オーディオ信号の中間的な時間領域表現のSTFTは、ISTFTおよびSTFTにおける重畳加算処理のため以前のMSTFTと異なる。これは、繰返しのアルゴリズムで実行されうる。ここで、更新されたMSTFTのために、以前のSTFT操作の位相値が使用され、そして、対応する振幅またはマグニチュード値は切り捨てられる。その代わり、更新されたMSTFTのための振幅またはマグニチュード値として、初期のマグニチュード値が使用される。なぜなら、振幅(またはマグニチュード)値が間違った位相情報を有するだけで(完全に)再構成されると仮定されるからである。したがって、各繰返しステップにおいて、位相値は、正しい(またはもとの)位相値に適している。
第2実施例によれば、目標時間領域エンベロープは、周波数領域における一連の周波数領域フレームに適用されうる。従って、時間領域のより初期に実行されるステップは、周波数領域へ転移(変換、適用、あるいは変形)されうる。詳細には、これは、ISTFTの合成ウィンドウおよびSTFTの分析ウィンドウの時間−周波数変換でありうる。これはISTFTの後、現行フレームにオーバーラップする隣接したフレームの周波数表現に至り、そして、STFTは時間領域において変換される。しかしながら、このセクションは、現在のフレームの範囲内で正しい位置にシフトされ、そして、加算が、オーディオ信号の中間的な周波数領域表現を導出するために実行される。さらに、例えば、STFTを使用して、目標時間領域エンベロープは、周波数領域に変換することができる。そうすると、目標時間領域エンベロープの周波数表現は、中間的な周波数領域表現に適用されうる。また、この処理は、目標時間領域エンベロープのエンベロープを有している(近似値において)中間的な周波数領域表現の更新された位相を使用して、繰返して実行されうる。さらにまた、MSTFTの初期のマグニチュードが使用される。なぜなら、マグニチュードが、既に完全に再構成されていると仮定されるからである。
上述した装置を用いて、複数のさらなる実施例は、目標時間領域エンベロープを導出するための異なる可能性を有すると仮定される。実施例は、上述した装置を含むオーディオデコーダを示す。オーディオデコーダは、(関連する)オーディオエンコーダから、オーディオ信号を受け取りうる。オーディオエンコーダは、例えばオーディオ信号の時間枠ごとに、目標時間領域エンベロープを導出するために、オーディオ信号を分析しうる。導出された目標時間領域エンベロープは、典型的な目標時間領域エンベロープの予め定められたリストと比較されうる。オーディオ信号の計算された目標時間領域エンベロープに最も近い所定の目標時間領域エンベロープは、特定の一連のビット(例えば16の異なる目標時間領域エンベロープを割り当てる一連の4ビット)に関連しうる。オーディオデコーダは、同じ所定の目標時間領域エンベロープ(例えばコードブックまたは参照表)を含むことができ、エンコーダから送信される一連のビットで(符号化される)所定の目標時間領域エンベロープを測定する(読むか、計算するか、または算出する)ことが可能である。
さらなる実施例によれば、上述の装置は、オーディオソース分離プロセッサの一部でありうる。オーディオソース分離プロセッサは目標時間領域エンベロープに、ラフに近似のものを使用しうる。なぜなら、(通常)1つのオーディオ信号の複数の出所源だけを有するもとのオーディオ信号は利用できないからである。従って、特に過渡部の修復のために、初期の過渡部の位置までの現行フレームは、ゼロであることを強いられうる。これは、通常、信号処理アルゴリズムのため組み込まれる過渡部の前におけるプレエコーを効果的に低減することができる。さらにまた、共通のオンセットが、目標時間領域エンベロープ(例えば各フレームのための同じオンセット)のための近似値として使用されうる。さらなる実施例によれば、異なるオンセットが、例えばオンセットの所定のリストから導出されるオーディオ信号の異なる構成要素のために使用されうる。例えば、目標時間領域エンベロープまたはピアノのオンセットは、目標時間領域エンベロープまたはギター、ハイハットまたは話し言葉のオンセットと異なる。従って、例えば目標時間領域エンベロープに(理論的に)最も適切な近いものを決定するために、そのようなオーディオ情報(楽器、話し言葉など)を検出するために、オーディオ信号のための現在のソースまたは構成要素が分析されうる。さらなる実施例によれば、オーディオソース分離が一つ以上の楽器(例えばギター、ハイハット、フルート、またはピアノ)または話し言葉をオーディオ信号の残留する部分から切り離すことを、例えば目的とする場合、そのようなオーディオ情報は(ユーザによって)予め設定されうる。予め設定されたものに基づいて、分離されたか単離されたオーディオトラックのための対応するオンセットが、選択されうる。
さらなる実施例によれば、帯域幅エンハンスメントプロセッサは、上述した装置を使用しうる。帯域幅エンハンスメントプロセッサは、オーディオ信号の一つ以上のバンドの高分解能表現を符号化するために、コアな符号化器を使用する。さらに、コアな符号化器を使用して符号化されない帯域は、帯域幅エンハンスメントエンコーダのパラメータを使用している帯域幅エンハンスメントデコーダにおいて近似されうる。例えば、エンコーダによって、パラメータとして、目標時間領域エンベロープは、送信されうる。しかしながら、好適な実施の形態によれば、目標時間領域エンベロープは、エンコーダによって(パラメータとして)送信されない。従って、目標時間領域エンベロープは、オーディオ信号のコアな復号化部分または周波数帯から直接的に導出されうる。オーディオ信号のコアな復号化部分の形状またはエンベロープは、もとのオーディオ信号の目標時間領域エンベロープに良好に近似である。しかしながら、高周波成分が、もとのエンベロープと比較した場合に、強調されえない目標時間領域エンベロープに至っているオーディオ信号のコアな復号化部分において欠けていてもよい。例えば、目標時間領域エンベロープは、オーディオ信号またはオーディオ信号の一部のローパス・フィルタ処理バージョンと類似していてもよい。しかしながら、例えば、コアな復号化オーディオ信号からの目標時間領域エンベロープに近似のものは、目標時間領域エンベロープの情報が帯域幅エンハンスメントエンコーダから帯域幅エンハンスメントデコーダまで送信されうるコードブックを使用することと比較して、(平均して)より正確でもよい。
さらなる実施例によれば、グリフィンおよびリムによって提案された繰返しの信号再構成アルゴリズムの有効な拡張が示される。拡張は、修正された短時間フーリエ変換を使用している繰返しの再構成の範囲内で、中間的なステップを示す。中間的なステップは、再構成される信号の所望であるか所定の様子を強化することができる。従って、所定のエンベロープは再構成された(時間領域)信号に使用されうる。そして、例えば、繰返しの各ステップの範囲内で、振幅変調を使用する。あるいは、エンベロープは、STFTの畳み込みおよび時間周波数領域エンベロープを使用している再構成された信号に適用されうる。第2の方法は有利でもよいかより効果的でありうる。なぜなら、逆STFTおよびSTFTは、時間周波数領域においてエミュレートされうる(実行され、変換され、あるいは転送される)。そして、従って、これらのステップは明確に実行される必要はない。さらに、例えば、シーケンス選択処理は実現されることができるような簡略化したものが実現される。さらに、(第1のMSTFTステップの)有意義な値を有する位相の初期化は有利である。なぜなら、より速い転換が成し遂げられるからである。
実施例が添付の図を使用して詳述する前に、同じであるか機能的に等しい要素が図の同じ参照番号を与えられる、そして、同じ参照番号を備えている要素のための繰り返された説明が提出されると指摘される。それ故、同じ参照番号を有する要素のために提供される説明は、相互に交換可能である。
本発明の実施例は、それらの添付された図面を参照してその後後述する。
図1は、処理されたオーディオ信号を得るために、オーディオ信号を処理する装置の概略ブロック図を示す。 図2は、時間周波数領域または周波数領域処理を用いてさらなる実施例による装置の概略ブロック図を示す。 図3は、概略ブロック図を使用している時間周波数領域処理のさらなる実施例による装置を示す。 図4は、周波数領域処理を使用している実施例による装置の概略ブロック図を示す。 図5は、さらなる実施例を使用している時間周波数領域処理による装置の概略ブロック図を示す。 図6は、実施例による過渡部の修復の模式的な構想を示す。 図7は、周波数領域処理を使用しているさらなる実施例による装置の概略ブロック図を示す。 図8は、音声信号の1つの部分を例示している概略時間領域ダイアグラムを示す。 図9は、実施例ドラム・ループから切り離される異なるハイハットの成分信号のブロック線図を例示する。 図10は、ドラム・ループのソース分離の出典として3つの楽器を含んでいる衝撃の信号混合の概略図を示す。 図11aは、繰返しの数に対する規格化された不整合性の大きさの漸進的変化を示す。 図11bは、繰返しの数に対するプリエコーエネルギーの漸進的変化を示す。 図12aは、繰返しの数に対する規格化された不整合性の大きさの漸進的変化のブロック線図を示す。 図12bは、繰返しの数に対するプリエコーエネルギーの漸進的変化を示す。 図13は、典型的NMF分解結果のブロック線図(本当の引き抜かれたテンプレート(3本の最も左のプロット線)がV(右下プロット線)の点で開始イベントの原型説明に似ていることを示す)を示す。 図14aは、繰返しの数に対する規格化された整合性の大きさの漸進的変化のブロック線図を示す。 図14bは、繰返しの数に対するプリエコーエネルギーの漸進的変化のブロック線図を示す。 図15は、実施例によるオーディオ信号を符号化するためのオーディオエンコーダを示す。 図16は、装置および入力インタフェースを含むオーディオデコーダを示す。 図17は、一連の周波数領域フレームの表現および目標時間領域エンベロープの表現を含むオーディオ信号を示す。 図18は、実施例によるオーディオソース分離プロセッサの概略ブロック図を示す。 図19は、実施例による帯域幅エンハンスメントプロセッサの概略ブロック図を示す。 図20は、帯域幅エンハンスメントを例示している概略周波数領域ダイアグラムを示す。 図21は、(中間的な)時間領域再構成の概略図を示す。 図22は、処理されたオーディオ信号を得るために、オーディオ信号を処理する方法の概略ブロック図を示す。 図23は、オーディオ復号化の方法の概略ブロック図を示す。 図24は、オーディオソース分離の方法の概略ブロック図を示す。 図25は、符号化されたオーディオ信号の帯域幅エンハンスメントの方法の概略ブロック図を示す。 図26は、オーディオ符号化の方法の概略ブロック図を示す。
以下に、本発明の実施例がより詳細に説明される。同一または同程度の機能性を有するそれぞれの図に示される要素は、それとともに同じ参照符号を関連付けられる。
図1は、処理されたオーディオ信号6を得るために、オーディオ信号4を処理する装置2の概略ブロック図を示す。装置2は、オーディオ信号4のオーバーラップしているフレームを表現している一連の周波数領域フレーム12のスペクトル値のための位相値10を計算するための位相計算機8を含む。さらに、位相計算機8は、処理されたオーディオ信号6に関連した目標時間領域エンベロープ14についての情報に基づいて、位相値10を計算するように構成され、その結果、処理されたオーディオ信号6が、少なくとも近似に、目標時間領域エンベロープ14および一連の周波数領域フレーム12によって決定されたスペクトル・エンベロープを持つ。したがって、位相計算機8は、目標時間領域エンベロープに関する情報を受信するか、または、目標時間領域エンベロープ(の表現)から目標時間領域エンベロープに関する情報を抽出するように構成されうる。
一連の周波数領域フレーム10のスペクトル値は、オーディオ信号4の短時間フーリエ変換(STFT)を用いて計算されうる。従って、STFTは、例えば、50%、67%、75%、あるいはより多くのオーバーラップしている範囲を有する分析ウィンドウを使用しうる。換言すれば、STFTは、例えば、分析ウィンドウの長さの1/2、1/3、1/4のホップ・サイズを使用しうる。
目標時間領域エンベロープ14に関する情報は、現在または使用された実施例に関した異なるかあるいは様々な方法を使用して導出されうる。符号化環境において、例えば、エンコーダは、(符号化の前に)(もとの)オーディオ信号を分析し、例えば、コードブックまたは参照表インデックスを算出目標領域エンベロープの近くに所定の目標領域エンベロープを表しているデコーダに送信しうる。エンコーダとして同じコードブックまたは参照テーブルを有するデコーダは、受信されたコードブック・インデックスを使用して、目標時間領域エンベロープを導出しうる。
帯域幅エンハンスメント環境において、オーディオ信号のコアな復号化表現のエンベロープは、もとの目標時間領域エンベロープに良好な近似でありうる。
帯域幅エンハンスメントは、処理の前に入力信号の帯域幅と比較して処理された信号の帯域幅を強化することのいかなる形もカバーする。帯域幅強化の1つの方法は、例えば、国際公開第2015/010948号において開示されるか、またはセミパラメトリックギャップフィリングのような、インテリジェントギャップフィリング(IGF:Intelligent Gap Filling)のようなギャップフィリング実装である。ここで、入力信号のスペクトルギャップは、送信されたパラメータ情報の援助の有無にかかわらず、入力信号のスペクトル部分によって埋められるか、または「強化」される。帯域幅強化のさらなる方法は、帯域幅強化のさらなる方法は、HE−AAC(MPEG 4)または関連した処理において用いられているように、スペクトル帯域複製(SBR)である。周波数を超えるバンドが処理によって発生する。ギャップフィリング実装とは対照的に、SBRのコアな信号の帯域幅は制限される。その一方で、ギャップフィリング実装はフルバンドのコアな信号を有する。したがって、帯域幅エンハンスメントは、周波数に関して、コア信号の最大周波数よりも低い周波数に位置するスペクトルギャップに対するクロスオーバー周波数または帯域幅拡張よりも高い周波数に対する帯域幅拡張を表す。
さらに、ソース分離環境で、目標時間領域エンベロープは、近似されうる。これは、過渡部、または、目標時間領域エンベロープに近似するまたは概算としての(異なる)オンセットを使用して初期位置まで0で詰めてもよい。換言すれば、近似された目標時間領域エンベロープは、現在の時間領域エンベロープにフレームの始まりからのゼロまたは過渡部の初期位置までのオーディオ信号の一部であることを強いることによる中間的な時間領域信号の現在の時間領域エンベロープから導出可能である。さらなる実施例によれば、現在の時間領域エンベロープは、一つ以上の(あらかじめ定義された)オンセットによって(振幅)変調される。オンセットは、オーディオ信号の(完全な)処理のために固定することができるかまたは、換言すれば、オーディオ信号で第1の(時間)フレームまたは一部を処理する前か(または)処理して、一度、選ばれうる。
目標時間領域エンベロープの(近似値または評価)は、例えば、振幅変調または乗算を使用して、処理されたオーディオ信号の形状を形成するために使用されうる。そうすると、処理されたオーディオ信号は、少なくとも目標時間領域エンベロープに近似するものを有する。しかしながら、処理されたオーディオ信号のスペクトル・エンベロープは、一連の周波数領域フレームで決定される。なぜなら、一連の周波数領域フレームのスペクトルと比較した場合、目標時間領域エンベロープは主に低周波構成要素を含むからである。そうすると、大多数の周波数は不変のままである。
図2は、さらなる実施例による装置2の概略ブロック図を示す。図2の装置は、最初の位相値18から始まって、オーバーラップしている範囲のオーバーラップしているブロックの密度を必要としている最適化目標を使用しているスペクトル値のための位相値10を計算するために繰返しのアルゴリズムを実行するための繰返しプロセッサ16を備えた位相計算機8を示す。さらに、目標時間領域エンベロープに応じて、繰返しプロセッサ16は、さらなる繰返しステップにおいて、更新された位相推定20を使用するように構成される。換言すれば、位相値10の計算は、繰返しプロセッサ16によって実行される繰返しのアルゴリズムを使用して実行されうる。したがって、一連の周波数領域フレームのマグニチュード値は、既知でありえ、横ばいである。初期の位相値18から始まって、繰返しプロセッサは、各繰返しの後、繰返しを実行するために更新された位相推定20を使用しているスペクトル値のための位相値を繰返して更新しうる。
最適化目標は、例えば、多くの繰返しでありうる。さらなる実施例によれば、最適化目標は、閾値でありえ、ここで、以前の繰返しステップの位相値と比較した場合、位相値は、軽微な範囲だけ更新されるか、または、繰返しプロセスの後、スペクトル値のマグニチュードと比較した場合、最適化目標は、一連の周波数領域フレームの(初期の)一定のマグニチュードに差がありうる。したがって、位相値は、修正または改良され、その結果、オーディオ信号のフレームのこれらの部分の個々の周波数スペクトルは、等しいか、または少なくとも軽微な範囲の差である。換言すれば、互いにオーバーラップするオーディオ信号のオーバーラップフレームの全てのフレーム部分は、同じまたは類似の周波数表現を有するべきである。
実施例によれば、位相計算機は、グリフィンおよびリムによる繰返し信号再構成処理に従う繰返しのアルゴリズムを実行するように構成される。更に、(より詳述される)実施例は、やがて公開される図に関して示される。その中で、繰返しプロセッサは、一連の処理ブロック、すなわち、周波数から時間へのコンバータ22、振幅変調器24および時間から周波数へのコンバータ26によって分割されるか、または置き換えられる。便宜のために、繰返しプロセッサ16は、通常(明確でなく)、さらなる図において指し示される。しかしながら、上述した処理ブロックは、繰返しプロセッサ16として同様の処理を実行するか、または、繰返しプロセッサは、例えば、最適化目標のような、繰返し処理の終端条件(または出口条件)を監視するか、またはモニタされる。さらにまた、繰返しプロセッサは、図4および図7に関して、例えば、示される周波数領域処理にしたがって処理を実行しうる。
図3は、概略ブロック図のさらなる実施例に従って、装置2を示す。装置2は、周波数から時間へのコンバータ22、振幅変調器24および時間から周波数へのコンバータ26を含み、ここで、周波数から時間へのコンバータおよび/または時間から周波数へのコンバータは、重畳加算処理を実行しうる。周波数から時間へのコンバータ22は、一連の周波数領域フレーム12および先行繰返しステップの初期位相値推定18または位相値推定10からオーディオ信号4の中間的な時間領域再構成28を計算しうる。振幅変調器24は、振幅変調した信号30を得るために、目標時間領域エンベロープ14(における情報)を使用して、中間的な時間領域再構成28を変調しうる。さらに、時間から周波数へのコンバータは、振幅変調した信号30を、位相値10を持つ別の一連の周波数領域フレーム32に変換するように構成される。したがって、次の繰返しステップのために、(別の一連の周波数領域フレームの)位相値10および(別の一連の周波数領域フレームでない)一連の周波数領域フレームのスペクトル値を使用するように構成される。換言すれば、位相計算機は、各繰返しステップの後、別の一連の周波数領域フレーム32の更新された位相値を使用する。周波数領域フレームのさらなるシーケンスのマグニチュード値は、切り捨てられてもよく、またはさらなる処理のために使用されなくてもよい。さらに、位相計算機8は、(初期の)一連の周波数領域フレーム12のマグニチュード値を使用する。なぜなら、マグニチュード値は、すでに(完全に)再構成されると仮定されるからである。
より一般的に、目標時間領域エンベロープ14に基づいて、位相計算機8は、例えば、振幅変調器22において、振幅変調を、オーディオ信号4の中間的な時間領域再構成28に適応するように構成される。振幅変調は、抑制された搬送波電送の有無にかかわらない単側波帯変調、両側波帯変調を用いるか、またはオーディオ信号の中間的な時間領域再構成を有する目標時間領域ンベロープの乗算を用いて実行されうる。初期位相値推定は、オーディオ信号の位相値、例えば、ゼロ、ランダムな値のような選択された値、またはオーディオ信号の周波数帯の位相の推定、またはオーディオソース分離を使用する場合、オーディオ信号のソースの位相でありうる。
さらなる実施例によれば、繰返し決定条件、例えば、繰返し終了状態が満たされた場合、位相計算機8は、処理されたオーディオ信号6としてオーディオ信号4の中間的な時間領域再構成28を出力するように構成される。繰返し決定条件は、最適化目標に密接に関連しており、現在の最適化値に最適化目標の最大偏差を定義しうる。さらに、繰返し決定条件は、(最大の)繰返し数か、一連の周波数領域フレーム12のマグニチュードと比較した場合、別の一連の周波数領域フレーム32のマグニチュードの(最大の)偏差か、または、現在と先行フレームとの間の位相値10の(最大の)更新効果である。
図4は実施例による装置2の概略ブロック図を示す。そして、それは図3の実施例と比較した場合、代替の実施例でありうる。位相計算機8は、少なくとも1つの目標時間領域エンベロープ14および少なくとも1つの中間的な周波数領域表現のスペクトル表現14’、または選択された部分あるいはバンドあるいはハイパス部分あるいは少なくとも1つの目標時間領域エンベロープ14でのいくつかの帯域通過部分のみあるいはオーディオ信号4の少なくとも1つの中間的な周波数領域表現28’の回旋34を適用するように構成される。換言すれば、図3の処理は、時間領域の代わりに周波数領域において実行されうる。したがって、より詳細には、目標時間領域エンベロープ14、その周波数表現14’は、振幅変調の代わりに回旋を使用して、中間的な周波数領域表現28’に適用されうる。しかしながら、別の繰返しステップに対する更新された位相値推定を使用し、第1の繰返しステップにおいて初期の位相値18を使用した後、着想は、再度、繰返しごとに、一連の周波数領域の(もとの)マグニチュードを使用することである。しかしながら、考えは再び、繰返しごとに一連の周波数領域フレームの(もとの)マグニチュードを使用することである、そして、さらに、第1の繰返しステップの最初の位相価値18を使用した後に、更新された位相値を使用することはさらなる繰返しステップごとに10を推定する。換言すれば、位相計算機は、次の繰返しステップについて、更新された位相値推定として、回旋34によって得られた位相値10を使用するように構成される。さらに、装置は、目標時間領域エンベロープをスペクトル領域に変換するための目標エンベロープコンバータ36を含む。さらにまた、装置2は、最新の繰返しステップおよび一連の周波数領域フレーム12から得られる位相値推定10を使用して中間的な周波数領域再構成28’から時間領域再構成28を計算するための周波数から時間へのコンバータ38を含みうる。換言すれば、中間的な周波数領域表現28’は、一連の周波数領域フレームのマグニチュードおよび更新された位相値推定の位相値10を含みうる。時間領域再構成28は、処理されたオーディオ信号6または処理されたオーディオ信号の少なくとも一部でありうる。処理されたオーディオ信号またはオーディオ信号4の周波数帯域の総数と比較した場合、部分は、例えば、低減された周波数帯域の数に関しうる。
さらなる実施例によれば、位相計算機8は、回旋プロセッサ40を含む。回旋プロセッサ40は、オーディオ信号4の中間的な周波数領域表現28’を得るために、回旋カーネル、シフト・カーネルおよび/またはアド・センター(add−to−center)フレーム処理を適用しうる。換言すれば、回旋プロセッサは、一連の周波数領域フレーム12を処理しうる。ここで、回旋プロセッサ40は、中間的な周波数領域再構成を決定するために、周波数領域において、時間領域の重畳加算処理の周波数領域等価を一連の周波数領域フレーム12に適用するように構成される。さらなる実施例によれば、回旋プロセッサは、現在の周波数領域フレームに基づいて、時間領域の重畳加算が周波数領域の中で実行された後に、現在の周波数領域フレームに寄与する、隣接した周波数領域フレームの部分を決定するように構成される。さらに、回旋プロセッサ40は、現在の周波数領域フレーム内の隣接した周波数領域フレームの部分のオーバーラップしている位置を決定し、オーバーラップしている位置で、隣接する周波数領域フレームの部分と現在の周波数領域フレームの加算を実行するように構成される。さらなる実施例によれば、回旋プロセッサ40は、時間領域の重畳加算が周波数領域の中で実行された後、現在の周波数領域フレームに寄与する、隣接した周波数領域フレームの部分を決定するために、時間領域合成と時間領域分析ウィンドウとを、時間から周波数に変換するように構成される。さらに、回旋プロセッサは、現在の周波数領域フレーム内で、隣接した周波数領域フレームの位置を、オーバーラップしている位置に移動して、オーバーラップしている位置で、隣接した周波数領域フレームの部分を現在のフレームに適用するように構成される。
換言すれば、図3に示される時間領域処理は、周波数領域へ転送(変換、適用、あるいは変形)される。従って、周波数から時間へのコンバータ22および時間から周波数へのコンバータ26の合成および分析ウィンドウは、周波数領域へと転送(変換、適用、あるいは変形)される。合成および分析の(結果得られる)周波数領域表現は、時間領域において、重畳加算処理においてオーバーラップされる現在のフレームに、隣接するフレームの部分を決定する(または、取り除く)。さらに、時間領域の周波数から時間への変換および時間から周波数への変換が周波数領域において実行される。これは、明示的な信号変換が無視されるか実行されないことがあり、位相計算機8および装置2の計算効率を高めることができるので、これは有利である。
図5は、分離されたチャネルの信号の再構成またはオーディオ信号4の帯域に焦点をあわせるさらなる実施例による装置2の概略ブロック図を示す。したがって、時間領域におけるオーディオ信号4は、例えば、STFT42のような時間から周波数へのコンバータを使用してオーディオ信号4のオーバーラップフレームを表している一連の時間領域フレーム12に変換されうる。それに関して、修正されたマグニチュード推定器44’は、一連の周波数領域フレームあるいは構成要素、または一連の周波数領域フレームの構成信号のマグニチュード44を導出しうる。さらに、初期の位相推定18が、初期の位相推定器18’を使用して一連の周波数領域フレーム12から計算されえ、または、初期の位相推定器18’は、例えば、一連の周波数領域フレーム12から導出されない任意の位相推定18を選択しうる。一連の周波数領域フレーム12のマグニチュード44および初期の位相推定18に基づいて、MSTFT12’は、さらなる処理および初期の位相推定18のみにおいて不変のままである(完全に)再構成されたマグニチュード44を有する初期の一連の周波数領域フレーム12’’として計算しうる。初期の位相推定18は、位相計算機8を使用して更新される。
さらなるステップにおいて、例えば、逆STFT(ISTFT)である周波数から時間へのコンバータ22は、(初期の)一連の周波数領域フレーム12’’の中間的な時間領域再構成28を計算しうる。中間的な時間領域再構成28は、例えば、目標エンベロープ、より正確に言えば、目標時間領域エンベロープ14とともに乗算され振幅変調されうる。例えば、STFTである時間から周波数へのコンバータ26は、位相値10を有する別の一連の周波数領域フレーム32を計算しうる。MSTFT12’は、更新された位相推定器10および更新された一連の周波数領域フレームにおける一連の周波数領域フレーム12のマグニチュード10を使用しうる。この繰返しのアルゴリズムは、位相計算機8の上記の処理ステップを実行しうる繰返しプロセッサ16内でL回実行されるか、または、繰返される。例えば、繰返し処理が完了された後、時間領域再構成28’’は、中間的な時間領域再構成28から導出される。
換言すれば、以下において、表記方法および信号モデルが示され、使用された信号再構成方法が記載される。その後、LSEE−MSTFTMの方法の過渡部の保護のための拡張は、図示する実施例と関連して示される。
実施例によれば、記載されている方法、エンコーダまたはデコーダの有利な点は中間のステップ2である。そして、それはLSEE−MSTFTM処理の過渡部の制限を実施する。
図7は、さらなる実施例による装置2の概略ブロック図を示す。図4と同様で、位相計算機は周波数領域において位相計算を実行する。周波数領域処理は、図5において示された実施例に関して記載されている時間領域処理に同様でありうる。また、時間領域信号4は、一連の周波数領域フレーム12に導出するために、STFT(パフォーマ)42を使用して、時間周波数変換される。それについて、修正されたマグニチュード推定器44’は、一連の周波数領域フレーム12から修正されたマグニチュードを導出しうる。初期の位相推定器18’は、一連の周波数領域フレームから初期の位相推定18を導出しうるか、または、例えば、任意の初期の位相推定を提供しうる。修正されたマグニチュード推定および初期の位相推定を使用して、MSTFT12’は、初期の一連の周波数領域フレーム12’’を計算し、または決定する。そして、それは、各繰返しステップの後、更新された位相値を受信する。図5の実施例との違いは、位相計算機8において、(初期の)一連の周波数領域フレーム12’’である。例えば、図5における、ISTFT22またはSTFT26において使用する合成および分析ウィンドウである、時間領域合成および分析ウィンドウに基づいて、回旋カーネル計算機52’は、合成および分析ウィンドウの周波数領域表現を使用して回旋カーネル52を計算しうる。回旋カーネルは、ISTFT22において、重畳加算を使用して、現在のフレームにオーバーラップする現在の周波数領域フレームの隣接した、あるいは隣り合うフレームの部分を取り除く(スライスする、あるいは使用する)。カーネル・シフト計算機54’は、シフト・カーネル52を計算することができ、それらのパーツを現在の周波数領域フレームの正しいオーバーラップする位置へシフトするために、シフト・カーネル52を隣り合う周波数領域フレームの部分に適用しうる。これは、ISTFT22の重畳加算処理のオーバーラップ処理をエミュレートしうる。さらに、ブロック56は、重畳加算処理の追加を実行して、隣り合うフレームの部分を中心のフレーム期間に加える。回旋カーネルの計算および活用、シフト・カーネルの計算および活用、およびブロック56において追加物は、回旋プロセッサ40において実行されうる。回旋プロセッサ40の出力は、一連の周波数領域フレーム12または初期の一連の周波数領域フレーム12’’の中間的な周波数領域再構成28’でありうる。中間的な周波数領域再構成28’は、回旋34を使用して、目標エンベロープ14の周波数領域表現で(フレームごとに)畳み込まれる。回旋34の出力は、位相値10を有する別の一連の周波数領域フレーム32’でありうる。位相値10は、さらなる繰返しステップのMSTFT12’における初期の位相推定18を置き換える。繰返しは、繰返しプロセッサ15を使用してL回実行されうる。繰返し処理が停止した後、または、繰返し処理の範囲内におけるある時点において、最後の周波数領域再構成28’’’が、回旋プロセッサ40から導出されうる。最後の周波数領域再構成28’’’は、最新の繰返しステップの中間的な周波数領域再構成28’でありうる。周波数から時間へのコンバータ38、例えば、ISTFTを使用して、時間領域再構成28’’が得られ、そして、それは、処理されたオーディオ信号6でありうる。
このステップ型の関数を使用することに加えて、任意に形づくられたエンベロープ時間領域振幅エンベロープ信号のSTFTを使用することが提案されることに注意されたい。再構成の制限の広範囲は、時間領域における適切な信号変調の割り当てを通じて、TF領域におけるそれぞれの回旋を強要されうることが提示される。
すべての実験において、一般公開されている「IDMT−SMT−ドラム」データセットが、使用される。「WaveDrum02」サブセットにおいて、60のドラム・ループがある。そして、3つの楽器、キック・ドラム、スネアドラム、およびハイハットの完全に区分けされた単一のトラックの記録(すなわちオラクル成分信号)として、各々が与えられる。すべての3×60記録は、44:1kHzのサンプリング・レート、16ビットのモノラルをともなう、圧縮されていないPCM WAVフォーマットにおいてである。全3つのトラックを混ぜ合わせて、60の混合信号が得られる。加えて、オンセット時間およびこのようにすべてのオンセットの近似のn0は、個々のの楽器ごとに利用できる。この情報を用いて、4421のドラムのオンセットイベントのテストセットがミクスチャー、目標楽器の連続的なオンセットの間の各位置から、抜粋を受け取ることによって構築される。そうすることで、各抜粋の前にN個のサンプルがゼロ詰めされる。その根拠は、ローカルの過渡部の位置の前に意図的に無音部分を付加することである。そのセクション内で、前のノートオンセットに先行する減衰の影響が除外されえ、そして、潜在的に発生しているプレエコーが測定される。次に、これは、(表現を簡略化するために、n0として再び示される)n0+Nへのローカルの過渡部の位置の仮想のシフトに至る。
図8は、1つのセグメントまたはオーディオ信号のフレームまたはテスト・アイテムを例示している概略時間領域ダイアグラムを示す。図8は、混合信号61a、目標ハイハット信号61b、過渡部の修復61dと比較されたLSEE−MSTFTM61cを使用した再構成を示し、200回の繰返し後に得られた両者が、オンセット抜粋ごとに適用され、例えば、それは、点線60’および60’’の間の部分である。混合信号61aは、明らかな目標ハイハット信号61bに対するキック・ドラムおよびスネアドラムの影響を示す。
図9a−cは、実施例のドラム・ループの異なるハイハット成分信号の概略ダイアグラムを例示する。過渡部の位置n0 62は、実線によって示され、ここで、過渡部の位置n0 62は、実線によって示される、抜粋境界60’および60’’は、点線によって示される。図9aは、上側における混合信号と下側におけるオラクルハイハット信号を示す。図9bは、オラクルマグニチュードおよびゼロ位相期間を伴う初期設定から得られるハイハット信号を示す。GLの場合のLが200回繰返しの後の再構成が、図9bの上側に示され、TRの場合が、図9bの下側に示される。図9cは、ゼロ位相におけるNMFDベースのマグニチュードを有する初期設定から得られるハイハット信号を示す、NMFDベースの処理は、図12−14(の仕様)に関連して記載される。GLの場合のLが200回繰返し後の再構成が、図9cの上側に提示され、TRの場合が、図9cの下側に提示される。分解は非常によく実施例のドラム・ループで働くので、図9bおよび図9cの間における目立つ視覚の違いがほとんどない。
図10は、信号の概略図を示す。図10aは、c=3の成分信号xcの合計として、混合信号x 64aを示し、合成ドラムサウンドサンプルの各含んでいるシーケンスは、例えば、ローランド TR808のドラムマシンからである。x1 64a’’’は、キック・ドラムを示し、x2 64a’’は、スネアドラムを示し、x3 64a’は、ハイハットを示す。図10bは、ミクスチャーのマグニチュードスペクトグラムVおよびc=3の成分のマグニチュードスペクトグラムVcの時間周波数表現を示す。より良い可視性のために、周波数軸は、対数関数的間隔でリサンプリングされ、マグニチュードは、対数的に圧縮されている。さらに、信号64aの時間周波数表現が参照符号64bによって示される。さらに、図9において、調整された抜粋境界は破線で視覚化され、事実上n0だけ実線でシフトされる。ドラム・ループは現実的なリズムであるため、抜粋は、同時に演奏される残りのドラム楽器との重ね合わせの程度が変化する。図9aにおいて、ミクスチャー(上側)は、分離したハイハット信号(下部)と比較してキック・ドラムの顕著な影響を示す。比較するために、図10aにおける2つの上側のプロットが、使用された実施例の信号のミクスチャーxおよびハイハット成分x3のバージョンにおいてズームインされる。下側のプロットにおいて、一方は、分離してキック・ドラムを見ることができ、これは、例えばローランド TR 808のドラム・コンピュータからサンプリングされ、減衰する正弦波に似ている。
しかしながら、以下の図は、後述するように異なるホップ・サイズおよび異なるウィンドウ長を使用して導出される。
以下に、スコア通知オーディオ分解シナリオにおいて、提案された過渡部の修復方法または装置をどのように適用するかの実施例を説明する。目的は、過渡部の保護を強化したポリフォニックドラムレコーディングからの独立したドラムサウンドの抽出である。前に使用された理想化された実験の条件とは対照的に、ミクスチャーからの成分信号の振幅スペクトログラムが推定される。このために、分解手法としてNMFD(Non Negative Matrix Factor Deconvolution)[3,4]を使用しうる。実施例は、NMFDにスコア通知された制限を強制する戦略を説明する。最後に、これらのより現実的な条件で実験を繰返し、観察を論じる。
続いて、xのTF表現を分解するために使用されるNMFD法を簡単に説明する。すでに示されているように、幅広い種類の代替分離手法が存在する。以前の研究[3,4]は、ドラム音の分離のためにNMFの畳み込みバージョンであるNMFDをうまく適用した。直感的に言えば、根底にある畳み込みまたは畳み込みモデルは、構成要素信号の1つのオーディオイベントが、いくつかのオンセット関連アクティビティ(例えば、特定のドラムに当たる)に対するインパルス応答として働くプロトタイプイベントによって説明できると仮定する。図10bでは、ハイハット構成要素V3におけるこの種の挙動を見ることができる。そこでは、8つのオンセットイベントのすべてのインスタンスは、オンセット位置ごとにプロトタイプイベントを挿入することで説明できる、お互いのコピーのように見える。
図9において、例示的なドラム・ループからの選択されたハイハットのオンセットの異なる再構成が詳細に示される。使用されたマグニチュード推定値(図9bのオラクルまたは図9cのNMFDベース)にかかわらず、提案されたTR再構成(下側)は、従来のGL再構成(上側)と比較して明らかに低減されたプリエコーを示す。非公式のリスニングテスト(ヘッドフォンを使用することが望ましい)によって、MSTFTの初期化と再構成方法のさまざまな組み合わせで達成できる明確な発声の違いを明確に突き止めることができる。不完全なマグニチュードの分解が単一の構成要素信号内の望ましくないクロストークアーチファクトにつながる場合でも、実施例によるTRの方法は、従来のGLの再構成よりも過渡部の特性を良好に保つ。さらに、MSTFTの初期化のためのミクスチャーの位相の使用は、オラクル信号と比較してドラム事象の減衰相の再構成に微妙な差異をしばしば気づくことができるので、良い選択であると思われる。しかしながら、不完全なマグニチュードの分解に起因する音色の違いははるかに顕著である。
実施例は、音楽ソースの分離における過渡信号の構成要素の改善された復元のためのグリフィンおよびリムの繰返しのLSEE−MSTFTM処理への効果的な拡張を示す。装置、エンコーダ、デコーダまたは方法は、過渡部の位置に関する付加的なサイド情報を使用し、これは情報ソースの分離シナリオで与えられる。
さらなる実施例によれば、グリフィンおよびリムの繰返しのLSEE−MSTFTM処理を効果的に拡張し、音楽ソースの分離における過渡信号の構成要素の改善された修復が示される。この方法または装置は、情報ソースの分離シナリオに示されていると仮定される、過渡部の位置に関する付加的な付加情報を使用する。公的に入手可能な「IDMTSMT−Drums」データセットを用いた2つの実験は、実施例による方法、エンコーダ、またはデコーダが、実験の条件下および、最高水準のソース分離技術を使用して得られた成分信号の両方においてプレエコーを減少させるのに有益であることを示した。
実施例によれば、ソース分離の状況で抽出された過渡信号の構成要素の知覚的な品質が改善される。多くの最高水準の技術は、混合信号の振幅短時間フーリエ変換(STFT)に適切な分解を適用することに基づく。個々の成分信号の再構成に使用される位相情報は、通常、ミクスチャーから取り出され、複素値の修正されたSTFT(MSTFT)を生じる。STFTが目標MSTFTに近似する時間領域信号を再構成するための様々な方法がある。位相の不整合性のために、これらの再構築された信号は、過渡部の構成要素に先行するプリエコーのようなアーティファクトを含む可能性が高い。実施例は、この問題を改善するためのグリフィンおよびリムによる繰返し信号再構成処理の拡張を示す。公的に利用可能なテストセットを使用して注意深く作成された実験は、本方法または装置がプリエコーを相当に減衰させ、依然として元のアプローチと同様の収束特性を示すことを示している。
さらなる実験において、グリフィンおよびリムによる元のアプローチと同様の収束特性を依然として示す一方、この方法または装置はプレエコーをかなり減衰させることが示される。スコアに基づいたオーディオ分解を含む3番目の実験でも改善が見られる。
以下の図は、装置2に関連するさらなる実施例に関連する。
図15は、オーディオ信号4を符号化するためのオーディオエンコーダ100を示す。オーディオエンコーダは、オーディオ信号プロセッサおよびエンベロープ決定器を備える。オーディオ信号プロセッサ102は、符号化されたオーディオ信号108が、時間領域オーディオ信号のシーケンスまたは周波数領域フレームの表現と、目標時間領域エンベロープ106の表現とを含むように、時間領域オーディオ信号を符号化するように構成される。エンベロープ決定器は、時間領域オーディオ信号からエンベロープを決定するように構成され、ここで、エンベロープ決定器は、エンベロープを所定のエンベロープのセットと比較して、比較に基づいて目標時間領域エンベロープの表現を決定するようにさらに構成される。エンベロープは、オーディオ信号の一部、例えばフレームのエンベロープまたはオーディオ信号のさらなる部分の時間領域エンベロープでありうる。さらに、エンベロープは、符号化されたオーディオ信号にエンベロープを含めるように構成されうるオーディオ信号プロセッサに提供されうる。
換言すれば、エンベロープ、例えば、オーディオ信号のフレームなどの部分の時間領域エンベロープを決定することによって、(標準)オーディオエンコーダは、オーディオエンコーダ100に拡張されうる。導出されたエンベロープは、コードブックまたはルックアップテーブル内の1つまたは複数の所定の時間領域エンベロープと比較されうる。最も適合する所定のエンベロープの位置は、例えば、ビット数を使用して符号化されうる。したがって、例えば、16個の異なる所定の時間ドメインエンベロープをアドレスするために4ビット、例えば、32個の所定の時間ドメインエンベロープをアドレスするために5ビット、または、異なる所定の時間領域エンベロープに応じて、さらに異なる数のビット数が使用されうる。
図16は、装置2および入力インタフェース112を含むオーディオデコーダ110を示す。入力インタフェース112は、符号化されたオーディオ信号を受信しうる。符号化されたオーディオ信号は、周波数領域フレームのシーケンスの表現および目標時間領域エンベロープの表現を含みうる。
換言すれば、デコーダ110は、例えばエンコーダ100から符号化された音声信号を受け取ることができる。デコーダ110は、例えば、エンコーダ100から符号化されたオーディオ信号を受信しうる。入力インタフェース112あるいは装置2、または他の手段は、目標時間領域エンベロープ14またはその表現、例えばルックアップテーブルまたはコードブックにおける目標時間領域エンベロープの位置を示す一連のビットを抽出しうる。さらにまた、さらに、装置2は、例えば符号化されたオーディオ信号の破損された位相をまだ変化していない絶対値を有するように調整することによって、符号化されたオーディオ信号108を復号化し、または装置は、例えば符号化されたオーディオ信号のスペクトルのマグニチュードを十分にまたは完全に復号化した復号化ユニットから、復号化されたオーディオ信号の位相値を補正することができ、装置は、デコードユニットによって壊れているかもしれないデコードされたオーディオ信号の位相をさらに調整する。
図17は、一連の周波数領域フレーム12の表現および目標時間領域エンベロープ14の表現を含むオーディオ信号114を示す。時間領域オーディオ信号12の一連の周波数領域フレームの表現は、標準オーディオ符号化方式による符号化されたオーディオ信号でありうる。さらにまた、目標時間領域エンベロープ14の表現は、目標時間領域エンベロープのビット表現でありうる。ビット表現は、例えば、目標時間領域エンベロープのサンプリングおよび量子化を使用することによって、またはさらなるデジタル化方法によって導出しうる。さらに、目標時間領域エンベロープ14の表現は、例えば、コードブックのインデックスでありえ、またはビット数で示されまたは符号化されたルックアップテーブルでありうる。
図18は、実施例によるオーディオソース分離プロセッサ116の概略ブロック図を示す。オーディオソース分離プロセッサは、装置2およびスペクトルマスク器118を含む。スペクトルマスク器は、修正されたオーディオ信号120を導出するために、もとのオーディオ信号4のスペクトルをマスキングしうる。もとのオーディオ信号4と比較して、修正されたオーディオ信号120は、低減された数の周波数帯域または時間周波数ビンを含みうる。さらに、修正されたオーディオ信号は、オーディオ信号4の1つのソースまたは1つの楽器または1つの(人間の)話し手のみを含みうる。ここで、他のソース、話し手、または楽器の周波数の寄与が隠されたりマスクされたりしない。しかしながら、修正されたオーディオ信号120のマグニチュードの値は、(所望の)処理されたオーディオ信号6のマグニチュードの値と一致する可能性があるので、修正されたオーディオ信号の位相値は破損している可能性がある。したがって、装置2は、目標時間領域エンベロープ14に対する修正オーディオ信号の位相値を補正しうる。
図19は、実施例による帯域幅エンハンスメントプロセッサ122の概略ブロック図を示す。帯域幅エンハンスメントプロセッサ122は、符号化されたオーディオ信号124を処理するために構成される。さらに、帯域幅エンハンスメントプロセッサ122は、エンハンスメントプロセッサ126および装置2を備える。エンハンスメントプロセッサ126は、符号化された信号に含まれるオーディオ信号帯域からエンハンスメント信号127を生成するように構成される。そして、ここで、エンハンスメントプロセッサ126は、符号化された信号122に含まれる符号化された表現から、または符号化された信号に含まれるオーディオ信号帯域から、目標時間領域エンベロープ14を抽出するように構成される。さらに、装置2は、目標時間領域エンベロープを使用してエンハンスメント信号126を処理しうる。
換言すれば、エンハンスメントプロセッサ126は、オーディオ信号帯域をコア符号化するか、または符号化されたオーディオ信号のコア符号化されたオーディオ信号を受信しうる。さらに、エンハンスメントプロセッサ126は、例えば、符号化されたオーディオ信号のパラメータおよびオーディオ信号のコア符号化されたベース帯域部分を使用して、オーディオ信号のさらなる帯域を計算しうる。さらに、目標時間領域エンベロープ14が符号化オーディオ信号124内に存在しえ、またはエンハンスメントプロセッサが、オーディオ信号のベース帯域部分から目標時間領域エンベロープを計算するように構成されうる。
図20は、スペクトルの概略図を例示する。スペクトルは、図20の図示の例では7つのスケールファクタバンドSCB1ないしSCB7が存在するスケールファクタバンドSCBに再分割される。スケールファクタバンドは、AAC規格で定義され、図20に概略的に図示されているように、高い周波数まで帯域幅が増加するAACスケールファクタバンドとすることができる。インテリジェントギャップフィリングは、スペクトルの最初からではなく、すなわち低周波数で行うことが好ましいが、309に示すIGF開始周波数でIGF動作を開始することが好ましい。したがって、コア周波数帯域は最低周波数からIGF開始周波数まで伸びる。IGF開始周波数より上では、第2のスペクトル部分の第2のセットによって表される低分解能成分から高分解能スペクトル成分304,305,306,307(第1のスペクトル部分の第1のセット)を分離するためにスペクトル分析が適用される。図20は、エンハンスメント処理プロセッサ126に例示的に入力されるスペクトルを示す。すなわち、コア・エンコーダは全範囲で動作するが、有意な量のゼロ・スペクトル値を符号化する。すなわち、これらのゼロ・スペクトル値は、ゼロに量子化されるか、または量子化の前または量子化に続いてゼロに設定される。とにかく、コア・エンコーダは全範囲で動作する、すなわちスペクトルが図示のように動作し、すなわち、コア・デコーダは、より低いスペクトル分解能を有する第2のスペクトル部分の第2の組のインテリジェントギャップフィリングまたは符号化を必ずしも意識する必要はない。
好ましくは、高分解能は、MDCTラインのようなスペクトル線のラインごとの符号化によって定義され、第2の分解能または低分解能は、例えば、スケールファクタバンドごとに単一のスペクトル値のみを計算することによって定義される。ここで、スケールファクタバンドはいくつかの周波数ラインをカバーする。したがって、第2の低分解能は、スペクトル分解能に関して、AACまたはUSACコア符号器のようなコア符号器によって典型的に適用されるラインごとの符号化によって定義される第2または高分解能よりもはるかに低い。
特に、コア・エンコーダが低ビットレート条件にある場合、コア・バンドにおける追加のノイズ充填動作、すなわちIGF開始周波数よりも低い周波数、すなわちスケールファクタバンドSCB1〜SCB3が付加的に適用されうる。ノイズ充填においては、ゼロに量子化されたいくつかの隣接スペクトル・ラインが存在する。デコーダ側では、ゼロに量子化されたこれらのスペクトル値が再合成され、再合成されたスペクトル値は、ノイズ充填エネルギーを用いてそのマグニチュードが調整される。USACのような絶対的な用語または相対的な意味で、特にスケールファクタに関して与えられるノイズ充填エネルギーは、ゼロに量子化されたスペクトル値のセットのエネルギーに対応する。これらのノイズ充填スペクトル線はまた、他の周波数からの周波数タイルを使用して周波数再生に依存するIGF動作を伴わない直接的なノイズ充填合成によって再生される第3のスペクトル部分の第3のセットであると考えることができ、 ソース範囲と、エネルギー情報E1,E2,E3,E4とを含む。
好ましくは、エネルギー情報が計算されるバンドは、スケールファクタバンドと一致する。他の実施例において、スケールファクタバンド4および5に対して例えば単一のエネルギー情報値のみが送信されるようにエネルギー情報値のグループ化が適用されるが、この実施例においてさえも、グループ化された再構成バンドの境界はスケールファクタバンドの境界と一致する。異なる帯域分割が適用される場合、特定の再計算または同期計算が適用されてもよく、これは特定の実装に応じて意味をなしうる。
符号化オーディオ信号124のコア符号化部分またはコア符号化周波数帯は、カットオフ周波数またはIGF開始周波数309までのオーディオ信号の高分解能表現を含みうる。このIGF開始周波数309より上では、オーディオ信号は、例えばパラメトリック符号化を使用して低分解能で符号化されたスケールファクタバンドを含みうる。しかし、コア符号化されたベースバンド部分、例えば、パラメータを使用して、符号化されたオーディオ信号124を復号化しうる。これは1回または複数回行いうる。
これは、第1のカットオフ周波数130を上回ってもマグニチュード値の良好な再構成を提供しうる。しかしながら、少なくとも連続したスケールファクタバンド間のカットオフ周波数の周りでは、コア符号化ベースバンド部分128の最上の周波数または最高周波数は、コア符号化ベースバンドのパディングのために、コア符号化ベースバンド部分の最低周波数に隣接しているIGF開始周波数309よりも高い周波数から高い周波数に変化すると、位相値が破損する可能性がある。したがって、ベースバンド再構成オーディオ信号は、帯域拡張信号の位相を再構成するために装置2に入力されてもよい。
さらに、コア符号化されたベースバンド部分がもとのオーディオ信号に関する多くの情報を含むので、帯域幅エンハンスメントが機能する。これは、もとのオーディオ信号のエンベロープが、たとえもとのオーディオ信号のエンベロープのさらなる高周波成分のためにより強調されても、コア符号化されたベースバンド部分のエンベロープがもとのオーディオ信号のエンベロープと少なくとも類似しているという結論に至る。そして、それは、コア符号化されたベースバンド部分には存在しないか、または欠けている。
図21は、上側の第1の繰返しステップの後、第2の繰返しステップの数が図21の下側の最初の繰返しステップ数よりも大きい場合の(中間)時間領域再構成の概略図を示す。比較的高いリップル132は、一連の周波数領域フレームの隣接フレームの不整合性から生じる。通常、時間領域信号から開始して、時間領域信号のSTFTの逆STFTは、時間領域信号において再び生じる。本願明細書において、隣接する周波数領域フレームは、STFTが適用された後に整合しているので、逆STFT演算の重畳加算処理は、もとの信号を合計するか、または明らかにする。しかしながら、破損した位相値を有する周波数領域から開始して、隣接する周波数領域フレームは整合性がない(すなわち、不整合である)。ここで、周波数領域信号のISTFTのSTFTは、図21の上側に示されているように、適正または整合性のある音声信号につながることはない。しかしながら、このアルゴリズムが繰返しもとのマグニチュードに適用される場合、各繰返しステップにおいてリップル132が低減され、図21の下側に示される(ほぼ完全な)再構成オーディオ信号が得られることが数学的に証明される。本願明細書において、リップル132は低減される。換言すれば、中間的な時間領域信号のマグニチュードは、各繰返しステップ後の一連の周波数領域フレームの初期振幅値に変換される。連続合成ウィンドウ136の間の0.5のホップ・サイズは、便宜上選択され、任意の適切な値、例えば、0.75に設定することができることに留意しなければならない。
図22は、処理されたオーディオ信号を得るために、オーディオ信号を処理する方法2200の概略ブロック図を示す。方法2200は、オーディオ信号のオーバーラップしているフレームを表現する一連の周波数領域フレームのスペクトル値のための位相値を計算するステップ2205を含み、ここで、位相値は、処理されたオーディオ信号に関連した目標時間領域エンベロープの情報に基づいて計算され、その結果、処理されたオーディオ信号は、少なくとも近似に、目標時間領域エンベロープおよび一連の周波数領域フレームによって決定されたスペクトル・エンベロープを有する。
図23は、オーディオ復号化の方法2300の概略ブロック図を示す。方法2300は、ステップ2305において方法2200を含み、ステップ2310において、符号化された信号を受信して、符号化された信号は、一連の周波数領域フレームの表現と、目標時間領域エンベロープの表現とを含む。
図24は、オーディオソース分離の方法2400の概略ブロック図を示す。方法2400は、方法2200を実行するためのステップ2405、および処理のための装置の中に入力する修正されたオーディオ信号を得るためにもとのオーディオ信号のスペクトルをマスキングし、ここで、処理されたオーディオ信号は、目標時間領域エンベロープに関連した分離されたソース信号である。
図25は、符号化されたオーディオ信号の帯域幅エンハンスメントの方法の概略ブロック図を示す。方法2500は、符号化された信号において含まれたオーディオ信号帯域から拡張信号を生成するステップ2505、方法2200を実行するためのステップ2510、およびステップ2515を含む。生成するステップは、符号化された信号に含まれる符号化された表現から、または符号化された信号に含まれるオーディオ信号帯域から目標時間領域エンベロープを抽出することを含む。
図26は、オーディオ符号化の方法2600の概略ブロック図を示す。方法2600は、符号化されたオーディオ信号が、時間領域オーディオ信号の一連の周波数領域フレームの表現および目標時間領域エンベロープの表現を含むように、時間領域オーディオ信号を符号化するステップ2605、および時間領域オーディオ信号からエンベロープを決定するステップ2610を含む。ここで、エンベロープ決定器は、さらに、エンベロープを、所定のエンベロープのセットと比較して、比較に基づいて、目標時間領域エンベロープの表現を決定する。
本発明のさらなる実施例は、以下の例に関する。これは、
1)時間周波数領域表現から時間領域信号を繰返し再構成すること、
2)マグニチュード、位相情報および時間周波数領域表現に対する初期推定を生成すること、
3)繰返しの間、ある信号特性に中間的信号操作を適用すること、
4)時間周波数領域表現を時間領域へ変換すること、
5)任意の振幅エンベロープを有する中間的な時間領域信号を変調すること、
6)変調された時間領域信号を時間周波数領域へ変換すること、
7)時間周波数領域表現を更新するために結果として生じる位相情報を使用すること、
8)隣接するフレームから中央フレームに特に畳み込まれ、かつシフトされた寄与を追加する時間周波数領域処理によって逆変換および順変換のシーケンスをエミュレートすること、
9)短縮された畳み込みカーネルを使用し、対称性を利用して上記の処理を近似すること、
10)目標フレームの時間周波数表現との所望のフレームの畳み込みによって時間領域変調をエミュレートすること、
11)時間周波数領域操作を時間周波数依存方式で適用するには、例えば、時間周波数ビンを選択するためにのみ操作を適用すること、または、
12)知覚的オーディオ符号化のための上述の処理を使用するために、オーディオソース分離、および/または帯域幅エンハンスメントを含むこと、
のための、方法、装置またはプログラムでありうる。
オーディオ分解シナリオにおける複数種類の評価が、実施例による装置または方法に適用される。ここで、目的は、ポリフォニックドラムレコーディングから分離されたドラムサウンドを抽出することである。真の「オラクル」構成要素信号およびその正確な過渡部の位置など、必要なすべてのサイド情報が豊富になっている公的に利用可能なテストセットを使用することができる。ある実験では、実験の条件下で、信号再構成における過渡部の保護のための提案された方法または装置の利点を評価することに焦点を当てるために、すべてのサイド情報の使用が行われる。これらの理想化された条件の下で、提案された方法は、もとの方法または装置と同様の収束特性を依然として示す一方で、プリエコーをかなり低減させることができる。さらなる実験では、ミクスチャーからの成分信号のSTFTMを推定するために、スコアに基づいた制限を伴う最高水準の分解技術[3,4]が採用される。これらの(より現実的な)条件下で、提案された方法は依然として有意な改善をもたらす。
本明細書では、ライン上の信号は、ラインの参照番号によって時々命名されることがあり、時にはラインに起因する参照番号自体によって示されることが理解されるべきである。したがって、ある信号を有するラインが信号そのものを示すような表記である。回線はハードワイヤード実装の物理回線にすることができる。しかし、コンピュータ化された実装では、物理的な線は存在しないが、線によって表される信号は、ある計算モジュールから他の計算モジュールに伝送される。
本発明は、ブロックが実際のまたは論理的なハードウェア構成要素を表すブロック図の文脈で説明されているが、本発明はまた、コンピュータ実装方法によって実施することもできる。後者の場合、ブロックは対応する方法ステップを表し、これらのステップは対応する論理ハードウェア・ブロックまたは物理ハードウェア・ブロックによって実行される機能を表す。
いくつかの態様が装置という脈絡の中で記載されていた場合であっても、該態様も、対応する方法の説明を表現するものとして理解される。その結果、ブロックまたは装置は、方法のステップに対応するか、または方法ステップの特徴として理解されうる。類推によって、態様は、それとともに記載されていたか、または、方法ステップもブロックに対応し、または装置に対応する詳細あるいは特性の説明を表す。方法ステップのいくつかまたは全ては、ハードウェア装置(または、ハードウェア装置を使用するとともに)、例えば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路によって実行されうる。いくつかの実施の形態において、最も重要な方法ステップのいくつかまたはいくらかは、この種の装置によって実行されうる。
本発明の送信または符号化された信号は、デジタル記憶媒体に格納することができ、または無線伝送媒体またはインターネットなどの有線伝送媒体などの伝送媒体上で伝送することができる。
特定の実現要求に応じて、本発明の実施の形態は、ハードウェアにおいて、または、ソフトウェアにおいて、実行されうる。その実現態様は、それぞれの方法が実行されるように、プログラミング可能なコンピュータ・システムと協働しうるか、または、協働する、そこに格納された電子的に読み込み可能な制御信号を有するデジタル記憶媒体、例えば、フロッピー(登録商標)ディスク、DVD、ブルーレイディスク、CD、ROM、PROM、EPROM、EEPROM、またはFLASHメモリを使用して実行されうる。従って、デジタル記憶媒体は、コンピュータ読み込み可能でもよい。
本発明による若干の実施の形態は、本願明細書において記載される方法のいくつかが実行されるように、プログラミング可能なコンピュータ・システムと協働することができる電子的に読み込み可能な制御信号を有するデータキャリアを含む。
通常、本発明の実施の形態は、プログラムコードを有するコンピュータ・プログラム製品として実施され、コンピュータ・プログラム製品がコンピュータ上で実行する場合、プログラムコードは、いくつかの方法を実行するために作動される。プログラムコードは、例えば、機械可読キャリアに格納される。
他の実施の形態は、本願明細書において記載される方法のいくつかを実行するためのコンピュータ・プログラムを含み、コンピュータ・プログラムが、機械可読キャリアに格納される。
換言すれば、従って、コンピュータ・プログラムがコンピュータ上で実行する場合、本発明の方法の実施の形態は、本願明細書において記載される方法のいくつかを実行するためのプログラムコードを有するコンピュータ・プログラムである。
従って、本発明の方法のさらなる実施の形態は、本願明細書において記載される方法のいくつかを実行するためのコンピュータ・プログラムを含むデータキャリア(または、デジタル記憶媒体、またはコンピュータ可読媒体)である。データキャリア、デジタル記憶媒体または記録された媒体は、典型的には、有体物および/または無体物である。
従って、本発明の方法のさらなる実施の形態は、本願明細書において記載される方法のいくつかを実行するためのコンピュータ・プログラムを表しているデータストリームまたは一連の信号である。例えば、データストリームまたは一連の信号は、データ通信接続、例えば、インターネットを介して転送されるように構成されうる。
さらなる実施の形態は、本願明細書において記載される方法のいくつかを実行するために構成され、または適応される処理手段、例えば、コンピュータ、またはプログラミング可能な論理回路を含む。
さらなる実施の形態は、その上にインストールされ、本願明細書において記載される方法のいくつかを実行するためのコンピュータ・プログラムを有するコンピュータを含む。
発明に従う別の実施の形態は、ここに記載された方法のうちの少なくとも1つを実行するためのコンピュータ・プログラムを、受信器に転送するように構成された装置またはシステムを含む。転送は、例えば、電子的にまたは光学的である。受信器は、例えば、コンピュータまたは携帯機器または記憶デバイスなどである。装置またはシステムは、例えば、コンピュータ・プログラムを受信器に転送するためのファイルサーバーを含む。
いくつかの実施の形態において、プログラミング可能な論理回路(例えば、現場でプログラム可能なゲートアレイ(FPGA:Field Programmable Gate Array))が、本願明細書において記載されるいくつかまたは全ての機能を実行するために使用されうる。いくつかの実施の形態において、現場でプログラム可能なゲートアレイは、本願明細書において記載される方法のいくつかを実行するために、マイクロプロセッサと協働しうる。一般に、方法は、いくつかのハードウェア装置によって、好ましくは実行される。
上述した実施の形態は、本発明の原則の例を表すだけである。本願明細書において記載される装置および詳細の修正および変更は、他の当業者にとって明らかであるものと理解される。こういうわけで、記述の手段および実施の形態の議論によって、本願明細書において表された明細書の詳細な記載によりはむしろ、以下の請求項の範囲にによってのみ制限されるように意図する。
文献
[1] Daniel W. Griffin and Jae S. Lim, "Signal estimation from modified short-time Fourier transform", IEEE Transactions on Acoustics, Speech and Signal Processing, vol. 32, no. 2, pp. 236-243, April 1984.

[2] Jonathan Le Roux, Nobutaka Ono, and Shigeki Sagayama, "Explicit consistency constraints for STFT spectrograms and their application to phase reconstruction" in Proceedings of the ISCA Tutorial and Research Workshop on Statistical And Perceptual Audition, Brisbane, Australia, September 2008, pp. 23-28.

[3] Xinglei Zhu, Gerald T. Beauregard, and Lonce L. Wyse, "Real-time signal estimation from modified short-time Fourier transform magnitude spectra", IEEE Transactions on Audio, Speech, and Language Processing, vol. 15, no. 5, pp. 1645-1653, July 2007.

[4] Jonathan Le Roux, Hirokazu Kameoka, Nobutaka Ono, and Shigeki Sagayama, "Phase initialization schemes for faster spectrogram-consistency-based signal reconstruction" in Proceedings of the Acoustical Society of Japan Autumn Meeting, September 2010, number 3-10-3.

[5] Nicolas Sturmel and Laurent Daudet, "Signal reconstruction from STFT magnitude: a state of the art" in Proceedings of the International Conference on Digital Audio Effects (DAFx), Paris, France, September 2011, pp. 375-386.

[6] Nathanaoel Perraudin, Peter Balazs, and Peter L. Soendergaard, "A fast Griffin-Lim algorithm" in Proceedings IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA), New Paltz, NY, USA, October 2013, pp. 1-4.

[7] Dennis L. Sun and Julius O. Smith III, "Estimating a signal from a magnitude spectrogram via convex optimization" in Proceedings of the Audio Engineering Society (AES) Convention, San Francisco, USA, October 2012, Preprint 8785.

[8] Tomohiko Nakamura and Hiokazu Kameoka, "Fast signal reconstruction from magnitude spectrogram of continuous wavelet transform based on spectrogram consistency" in Proceedings of the International Conference on Digital Audio Effects (DAFx), Erlangen, Germany, September 2014, pp. 129-135.

[9] Volker Gnann and Martin Spiertz, "Inversion of shorttime fourier transform magnitude spectrograms with adaptive window lengths" in Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing, (ICASSP), Taipei, Taiwan, April 2009, pp. 325-328.

[10] Jonathan Le Roux, Hirokazu Kameoka, Nobutaka Ono, and Shigeki Sagayama, "Fast signal reconstruction from magnitude STFT spectrogram based on spectrogram consistency" in Proceedings International Conference on Digital Audio Effects (DAFx), Graz, Austria, September 2010, pp. 397-403.

Claims (24)

  1. 処理されたオーディオ信号(6)を得るために、オーディオ信号(49)を処理するための装置(2)であって、
    オーディオ信号(4)のオーバーラップしているフレームを表現している一連の周波数領域フレーム(12)のスペクトル値のための位相値(10)を計算するための位相計算機(8)を含み、
    前記位相計算機(8)は、前記処理されたオーディオ信号(6)に関連した目標時間領域エンベロープ(14)についての情報に基づいて、位相値(10)を計算するように構成され、その結果、前記処理されたオーディオ信号が、少なくとも近似に、前記目標時間領域エンベロープ(14)および前記一連の周波数領域フレーム(12)によって決定されたスペクトル・エンベロープを持つ、装置。
  2. 前記位相計算機(8)は、
    初期の位相値(18)から開始して、オーバーラップしている範囲の中のオーバーラップしているブロックの整合性を必要とする最適化目標を使って、スペクトル値のための位相値を計算するために、繰返しのアルゴリズムを実行するための繰返しプロセッサ(16)を含み、
    前記繰返しプロセッサ(16)は、別の繰返しステップの中で、前記目標時間領域エンベロープ(14)に依存している更新された位相推定(20)を使うように構成されている、請求項1に記載の装置(2)。
  3. 前記位相計算機(8)は、少なくとも1つの目標時間領域エンベロープ(14)および少なくとも1つの中間的な周波数領域再構成(28’)のスペクトル表現の回旋、または、オーディオ信号の少なくとも1つの目標時間領域エンベロープまたは少なくとも1つの中間的な周波数領域再構成の、選択された部分または帯域またはハイパス部分のみまたはほんのいくつかの帯域通過部分のみを適用するように構成されている、請求項1または請求項2に記載の装置(2)。
  4. 前記位相計算機は、
    前記一連の周波数領域フレーム(12)および先行繰返しステップの初期位相値推定(18)または位相値推定(20)から前記オーディオ信号(4)の前記中間的な時間領域再構成(28)を計算するための周波数から時間へのコンバータ(22)と、
    振幅変調したオーディオ信号(30)を得るために、目標時間領域エンベロープ(14)を使用して、中間的な時間領域再構成(28)を変調するための振幅変調器(24)と、
    前記振幅変調した信号(30)を、位相値(10)を持つ別の一連の周波数領域フレーム(32)に変換するための時間から周波数へのコンバータ(26)と、を含み、
    前記位相計算機は、次の繰返しステップのために、前記一連の周波数領域フレーム(12)の前記位相値および前記スペクトル値を使うように構成されている、請求項3に記載の装置(2)。
  5. 前記位相計算機(8)は、繰返し決定条件が満たされたとき、前記処理されたオーディオ信号(6)として、前記中間的な時間領域再構成(28)を出力するように構成されている、請求項5に記載の装置(2)。
  6. 前記位相計算機は、前記オーディオ信号(4)の前記中間的な周波数領域再構成(28’)を得るために、回旋カーネルを適用し、シフト・カーネルを適用し、中心的フレームに隣接したフレームのオーバーラップしている部分を前記中心的フレームに追加するための回旋プロセッサ(40)を含んでいる、請求項4に記載の装置(2)。
  7. 前記位相計算機(8)は、次の繰返しステップについて、更新された位相値推定(20)として、前記回旋(34)によって得られた位相値(10)を使用するように構成されている、請求項4または請求項6に記載の装置(2)。
  8. 前記目標時間領域エンベロープを前記スペクトル領域に変換するための目標エンベロープコンバータ(36)をさらに含む、請求項4または請求項6または請求項7のいずれか1つに記載の装置(2)。
  9. 最新の繰返しステップおよび前記一連の周波数領域フレーム(12)から得られた前記位相値推定(10,20)を使って、前記中間的な周波数領域再構成(28’,28’’’)から前記時間領域再構成(28’’)を計算するための周波数から時間へのコンバータ(38)をさらに含む、請求項4または請求項6または請求項7または請求項8のいずれか1つに記載の装置(2)。
  10. 前記位相計算機(8)は、前記一連の周波数領域フレーム(12)を処理するために回旋プロセッサ(40)を含み、前記回旋プロセッサは、前記中間的な周波数領域再構成を決定するために、時間領域の重畳加算処理を、前記周波数領域の中の前記一連の周波数領域フレーム(12)に適用するように構成されている、請求項4または請求項6または請求項7または請求項8または請求項9のいずれか1つに記載の装置(2)。
  11. 前記回旋プロセッサ(40)は、現在の周波数領域フレームに基づいて、時間領域の重畳加算が前記周波数領域の中で実行された後に、現在の周波数領域フレームに寄与する、隣接した周波数領域フレームの部分を決定するように構成され、
    前記回旋プロセッサは、前記現在の周波数領域フレーム内の前記隣接した周波数領域フレームの部分のオーバーラップしている位置を決定し、前記オーバーラップしている位置で、隣接する周波数領域フレームの前記部分と前記現在の周波数領域フレームの加算を実行するようにさらに構成されている、請求項10の装置(2)。
  12. 前記回旋プロセッサは、時間領域の重畳加算が前記周波数領域の中で実行された後に、現在の周波数領域フレームに寄与する、隣接した周波数領域フレームの部分を決定するために、時間領域合成と時間領域分析ウィンドウとを、周波数から時間に変換するように構成され、
    前記回旋プロセッサは、前記現在の周波数領域フレーム内で、前記隣接した周波数領域フレームの位置を、オーバーラップしている位置に移動して、前記オーバーラップしている位置で、前記隣接した周波数領域フレームの部分を前記現在のフレームに適用するようにさらに構成されている、請求項10または請求項11に記載の装置(2)。
  13. 前記位相計算機(8)は、グリフィンとリムによる繰返しの信号再構成処理に従って、繰返しのアルゴリズムを実行するように構成されている、請求項1ないし請求項12のいずれか1つに記載の装置(2)。
  14. オーディオ信号を符号化するためのオーディオエンコーダ(100)であって、
    符号化されたオーディオ信号(108)が、オーディオ信号の一連の周波数領域フレームの表現と目標時間領域エンベロープの表現とを含むように、オーディオ信号を符号化するために構成されたオーディオ信号プロセッサ(102)と、
    前記オーディオ信号から時間領域エンベロープを決定するために構成されたエンベロープ決定器(104)と、を含み、
    前記エンベロープ決定器(104)は、前記エンベロープを、所定のエンベロープのセットと比較して、前記比較に基づいて、前記目標時間領域エンベロープ(14)の表現を決定するようにさらに構成されている、オーディオエンコーダ(100)。
  15. 請求項1ないし請求項13のいずれか1つに記載の装置(2)と、
    符号化された信号(108)を受信するための入力インタフェース(112)と、を含み、
    前記符号化された信号は、前記一連の周波数領域フレームの表現および前記目標時間領域エンベロープ(18)の表現を含む、オーディオデコーダ(110)。
  16. 前記時間領域オーディオ信号(4)の一連の周波数領域フレーム(12)の表現および目標時間領域エンベロープ(14)の表現を含む、オーディオ信号(114)。
  17. 請求項1ないし請求項13のいずれか1つに記載の処理するための装置(2)と、
    処理するための装置に入力する変調されたオーディオ信号を得るために、もとのオーディオ信号のスペクトルをマスキングするためのスペクトルマスク器(118)と、を含み、
    前記処理されたオーディオ信号(6)は、前記目標時間領域エンベロープ(14)と関連した、分離されたソース信号である、オーディオソース分離プロセッサ(116)。
  18. 符号化されたオーディオ信号を処理するための帯域幅エンハンスメントプロセッサ(122)であって、
    前記符号化された信号に含まれるオーディオ信号帯域からエンハンスメント信号(127)を生成するためのエンハンスメントプロセッサ(126)と、
    請求項1ないし請求項13のいずれか1つに記載の処理するための装置(2)と、を含み、
    前記エンハンスメントプロセッサ(126)は、前記符号化された信号に含まれる符号化された表現、または、前記符号化された信号に含まれる前記オーディオ信号帯域から、前記目標時間領域エンベロープ(14)を抽出するように構成されている、帯域幅エンハンスメントプロセッサ(122)。
  19. 処理されたオーディオ信号を得るためにオーディオ信号を処理するための方法(2200)であって、
    前記オーディオ信号のオーバーラップしているフレームを表現する一連の周波数領域フレームのスペクトル値のための位相値を計算するステップを含み、
    前記位相値は、前記処理されたオーディオ信号に関連した目標時間領域エンベロープについての情報に基づいて計算され、その結果、前記処理されたオーディオ信号が、少なくとも近似に、前記一連の周波数領域フレームによって決定された前記目標時間領域エンベロープおよびスペクトル・エンベロープを持つ、方法(2200)。
  20. オーディオ復号化の方法(2300)であって、
    請求項19の方法、
    符号化された信号を受信するステップを含み、前記符号化された信号は、前記一連の周波数領域フレームの表現および前記目標時間領域エンベロープの表現を含む、方法(2300)。
  21. オーディオソース分離の方法(2400)であって、
    請求項19の方法、
    処理のための装置の中に入力される変調されたオーディオ信号を得るために、もとのオーディオ信号のスペクトルをマスキングするステップを含み、
    前記処理されたオーディオ信号は、前記目標時間領域エンベロープに関連した分離されたソース信号である、方法(2400)。
  22. 符号化されたオーディオ信号の帯域幅エンハンスメントの方法(2500)であって、
    エンハンスメント信号を、前記符号化された信号に含まれたオーディオ信号帯域から生成するステップと、
    請求項19の方法を含み、
    前記生成するステップは、前記符号化された信号に含まれた符号化された表現、または、前記符号化された信号に含まれた前記オーディオ信号帯域から、前記目標時間領域エンベロープを抽出するステップを含む、方法(2500)。
  23. オーディオ符号化の方法(2600)であって、
    前記符号化されたオーディオ信号が、オーディオ信号の一連の周波数領域フレームの表現および目標時間領域エンベロープの表現を含むように、前記オーディオ信号を符号化し、
    前記オーディオ信号から時間領域エンベロープを決定し、
    前記エンベロープを、所定のエンベロープのセットと比較して、前記比較に基づいて、前記目標時間領域エンベロープの表現を決定するステップを含む、方法(2600)。
  24. コンピュータまたはプロセッサで動作させると、請求項19、請求項20、請求項21、請求項22、または請求項23のうちのいずれか1つの方法を実行するためのコンピュータ・プログラム。
JP2017545563A 2015-02-26 2016-02-23 目標時間領域エンベロープを用いて処理されたオーディオ信号を得るためにオーディオ信号を処理するための装置および方法 Active JP6668372B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP15156704 2015-02-26
EP15156704.7 2015-02-26
EP15181118 2015-08-14
EP15181118.9 2015-08-14
PCT/EP2016/053752 WO2016135132A1 (en) 2015-02-26 2016-02-23 Apparatus and method for processing an audio signal to obtain a processed audio signal using a target time-domain envelope

Publications (3)

Publication Number Publication Date
JP2018510374A true JP2018510374A (ja) 2018-04-12
JP2018510374A5 JP2018510374A5 (ja) 2019-04-18
JP6668372B2 JP6668372B2 (ja) 2020-03-18

Family

ID=55409840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017545563A Active JP6668372B2 (ja) 2015-02-26 2016-02-23 目標時間領域エンベロープを用いて処理されたオーディオ信号を得るためにオーディオ信号を処理するための装置および方法

Country Status (11)

Country Link
US (1) US10373623B2 (ja)
EP (1) EP3262639B1 (ja)
JP (1) JP6668372B2 (ja)
KR (1) KR102125410B1 (ja)
CN (1) CN107517593B (ja)
BR (1) BR112017018145B1 (ja)
CA (1) CA2976864C (ja)
ES (1) ES2837107T3 (ja)
MX (1) MX2017010593A (ja)
RU (1) RU2679254C1 (ja)
WO (1) WO2016135132A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083736A (ja) * 2015-10-30 2017-05-18 日本電信電話株式会社 信号波形推定装置、信号波形推定方法、プログラム
CN111954904A (zh) * 2018-04-16 2020-11-17 三菱电机株式会社 用于转换输入音频信号的音频信号处理系统及方法

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842609B2 (en) * 2016-02-16 2017-12-12 Red Pill VR, Inc. Real-time adaptive audio source separation
US10224042B2 (en) * 2016-10-31 2019-03-05 Qualcomm Incorporated Encoding of multiple audio signals
EP3382700A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3382703A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and methods for processing an audio signal
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
EP3457401A1 (en) * 2017-09-18 2019-03-20 Thomson Licensing Method for modifying a style of an audio object, and corresponding electronic device, computer readable program products and computer readable storage medium
WO2019083130A1 (ko) * 2017-10-25 2019-05-02 삼성전자주식회사 전자 장치 및 그 제어 방법
EP3576088A1 (en) 2018-05-30 2019-12-04 Fraunhofer Gesellschaft zur Förderung der Angewand Audio similarity evaluator, audio encoder, methods and computer program
EP3841821B1 (en) * 2018-08-20 2023-06-28 Telefonaktiebolaget Lm Ericsson (Publ) Physical random access channel signal generation optimization for 5g new radio
WO2020094263A1 (en) * 2018-11-05 2020-05-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and audio signal processor, for providing a processed audio signal representation, audio decoder, audio encoder, methods and computer programs
US10659099B1 (en) * 2018-12-12 2020-05-19 Samsung Electronics Co., Ltd. Page scanning devices, computer-readable media, and methods for bluetooth page scanning using a wideband receiver
EP3671741A1 (en) * 2018-12-21 2020-06-24 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Audio processor and method for generating a frequency-enhanced audio signal using pulse processing
US11456007B2 (en) * 2019-01-11 2022-09-27 Samsung Electronics Co., Ltd End-to-end multi-task denoising for joint signal distortion ratio (SDR) and perceptual evaluation of speech quality (PESQ) optimization
CN109753943B (zh) * 2019-01-14 2023-09-19 沈阳化工大学 一种自适应分配变模态分解方法
CN110411439B (zh) * 2019-07-15 2021-07-09 北京控制工程研究所 一种根据星能量等级生成仿真星点的方法、装置及介质
KR102294639B1 (ko) 2019-07-16 2021-08-27 한양대학교 산학협력단 다중 디코더를 이용한 심화 신경망 기반의 비-자동회귀 음성 합성 방법 및 시스템
CN110838299B (zh) * 2019-11-13 2022-03-25 腾讯音乐娱乐科技(深圳)有限公司 一种瞬态噪声的检测方法、装置及设备
CN111402858B (zh) * 2020-02-27 2024-05-03 平安科技(深圳)有限公司 一种歌声合成方法、装置、计算机设备及存储介质
CN112133319B (zh) * 2020-08-31 2024-09-06 腾讯音乐娱乐科技(深圳)有限公司 音频生成的方法、装置、设备及存储介质
WO2022076404A1 (en) * 2020-10-05 2022-04-14 The Trustees Of Columbia University In The City Of New York Systems and methods for brain-informed speech separation
CN112257577A (zh) * 2020-10-21 2021-01-22 华北电力大学 一种利用线性流形投影的微震信号重构方法和系统
CN113191317B (zh) * 2021-05-21 2022-09-27 江西理工大学 一种基于极点构造低通滤波器的信号包络提取方法和装置
US11682411B2 (en) 2021-08-31 2023-06-20 Spotify Ab Wind noise suppresor
CN113835065B (zh) * 2021-09-01 2024-05-17 深圳壹秘科技有限公司 基于深度学习的声源方向确定方法、装置、设备及介质
CN113903355B (zh) * 2021-12-09 2022-03-01 北京世纪好未来教育科技有限公司 语音获取方法、装置、电子设备及存储介质
CN115116460B (zh) * 2022-06-17 2024-03-12 腾讯科技(深圳)有限公司 音频信号增强方法、装置、设备、存储介质及程序产品
CN115691541B (zh) * 2022-12-27 2023-03-21 深圳元象信息科技有限公司 语音分离方法、装置及存储介质
CN116229999A (zh) * 2022-12-28 2023-06-06 阿里巴巴达摩院(杭州)科技有限公司 音频信号处理方法、装置、设备及存储介质
CN117745551B (zh) * 2024-02-19 2024-04-26 电子科技大学 一种图像信号相位恢复的方法
CN118230745B (zh) * 2024-05-23 2024-07-26 玖益(深圳)医疗科技有限公司 连续调制声音信号生成方法、耳鸣匹配方法及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10513282A (ja) * 1995-11-22 1998-12-15 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 言語信号再合成方法および装置
JP2005258440A (ja) * 2004-03-12 2005-09-22 Mitsubishi Electric Research Laboratories Inc 別個の信号の成分を分離する方法およびシステム
JP2012511184A (ja) * 2008-12-29 2012-05-17 華為技術有限公司 過渡信号符号化方法及び装置、復号化方法及び装置、並びに処理システム
EP2631906A1 (en) * 2012-02-27 2013-08-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Phase coherence control for harmonic signals in perceptual audio codecs

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
EP1527441B1 (en) * 2002-07-16 2017-09-06 Koninklijke Philips N.V. Audio coding
DE10313875B3 (de) * 2003-03-21 2004-10-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Analysieren eines Informationssignals
DE102004021403A1 (de) * 2004-04-30 2005-11-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalverarbeitung durch Modifikation in der Spektral-/Modulationsspektralbereichsdarstellung
NZ562182A (en) * 2005-04-01 2010-03-26 Qualcomm Inc Method and apparatus for anti-sparseness filtering of a bandwidth extended speech prediction excitation signal
TWI324336B (en) * 2005-04-22 2010-05-01 Qualcomm Inc Method of signal processing and apparatus for gain factor smoothing
CN101140759B (zh) * 2006-09-08 2010-05-12 华为技术有限公司 语音或音频信号的带宽扩展方法及系统
CN101197577A (zh) * 2006-12-07 2008-06-11 展讯通信(上海)有限公司 一种用于音频处理框架中的编码和解码方法
US7715342B2 (en) * 2007-06-22 2010-05-11 Research In Motion Limited Location of packet data convergence protocol in a long-term evolution multimedia broadcast multicast service
CN101521010B (zh) * 2008-02-29 2011-10-05 华为技术有限公司 一种音频信号的编解码方法和装置
CN101662288B (zh) * 2008-08-28 2012-07-04 华为技术有限公司 音频编码、解码方法及装置、系统
WO2010028297A1 (en) * 2008-09-06 2010-03-11 GH Innovation, Inc. Selective bandwidth extension
PL2234103T3 (pl) * 2009-03-26 2012-02-29 Fraunhofer Ges Forschung Urządzenie i sposób manipulacji sygnałem audio
WO2011039668A1 (en) * 2009-09-29 2011-04-07 Koninklijke Philips Electronics N.V. Apparatus for mixing a digital audio
JP5651980B2 (ja) * 2010-03-31 2015-01-14 ソニー株式会社 復号装置、復号方法、およびプログラム
US9546924B2 (en) * 2011-06-30 2017-01-17 Telefonaktiebolaget Lm Ericsson (Publ) Transform audio codec and methods for encoding and decoding a time segment of an audio signal
CN103258539B (zh) * 2012-02-15 2015-09-23 展讯通信(上海)有限公司 一种语音信号特性的变换方法和装置
EP2819783B1 (en) * 2012-02-27 2018-10-10 Ecole Polytechnique Fédérale de Lausanne (EPFL) Sample processing device with detachable slide
JP5997592B2 (ja) * 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
US9368103B2 (en) * 2012-08-01 2016-06-14 National Institute Of Advanced Industrial Science And Technology Estimation system of spectral envelopes and group delays for sound analysis and synthesis, and audio signal synthesis system
CN104103276B (zh) * 2013-04-12 2017-04-12 北京天籁传音数字技术有限公司 一种声音编解码装置及其方法
KR101732059B1 (ko) * 2013-05-15 2017-05-04 삼성전자주식회사 오디오 신호의 부호화, 복호화 방법 및 장치
WO2015087107A1 (en) * 2013-12-11 2015-06-18 European Aeronautic Defence And Space Company Eads France Phase retrieval algorithm for generation of constant time envelope with prescribed fourier transform magnitude signal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10513282A (ja) * 1995-11-22 1998-12-15 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 言語信号再合成方法および装置
JP2005258440A (ja) * 2004-03-12 2005-09-22 Mitsubishi Electric Research Laboratories Inc 別個の信号の成分を分離する方法およびシステム
JP2012511184A (ja) * 2008-12-29 2012-05-17 華為技術有限公司 過渡信号符号化方法及び装置、復号化方法及び装置、並びに処理システム
EP2631906A1 (en) * 2012-02-27 2013-08-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Phase coherence control for harmonic signals in perceptual audio codecs
JP2015508911A (ja) * 2012-02-27 2015-03-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 知覚的オーディオコーデックにおけるハーモニック信号のための位相コヒーレンス制御

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANIEL W.GRIFFIN, ET AL.: "Signal Estimation from Modified Short-Time Fourier Transform", IEEE TRANSACTION ON ACOUSTICS, SPEECH AND SIFNAL PROCESSING, vol. VOL.ASSP-32, NO.2, JPN6018043198, 30 April 1984 (1984-04-30), pages 236 - 243 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083736A (ja) * 2015-10-30 2017-05-18 日本電信電話株式会社 信号波形推定装置、信号波形推定方法、プログラム
CN111954904A (zh) * 2018-04-16 2020-11-17 三菱电机株式会社 用于转换输入音频信号的音频信号处理系统及方法
JP2021515277A (ja) * 2018-04-16 2021-06-17 三菱電機株式会社 オーディオ信号処理システム、及び入力オーディオ信号を変換する方法
JP7034339B2 (ja) 2018-04-16 2022-03-11 三菱電機株式会社 オーディオ信号処理システム、及び入力オーディオ信号を変換する方法
CN111954904B (zh) * 2018-04-16 2024-07-09 三菱电机株式会社 用于转换输入音频信号的音频信号处理系统及方法

Also Published As

Publication number Publication date
CN107517593A (zh) 2017-12-26
ES2837107T3 (es) 2021-06-29
US10373623B2 (en) 2019-08-06
KR102125410B1 (ko) 2020-06-22
KR20170125058A (ko) 2017-11-13
US20170345433A1 (en) 2017-11-30
EP3262639A1 (en) 2018-01-03
EP3262639B1 (en) 2020-10-07
BR112017018145B1 (pt) 2023-11-28
CA2976864A1 (en) 2016-09-01
WO2016135132A1 (en) 2016-09-01
BR112017018145A2 (pt) 2018-04-10
MX2017010593A (es) 2018-05-07
CN107517593B (zh) 2021-03-12
JP6668372B2 (ja) 2020-03-18
RU2679254C1 (ru) 2019-02-06
CA2976864C (en) 2020-07-14

Similar Documents

Publication Publication Date Title
JP6668372B2 (ja) 目標時間領域エンベロープを用いて処理されたオーディオ信号を得るためにオーディオ信号を処理するための装置および方法
JP5467098B2 (ja) オーディオ信号をパラメータ化された表現に変換するための装置および方法、パラメータ化された表現を修正するための装置および方法、オーディオ信号のパラメータ化された表現を合成するための装置および方法
JP4740260B2 (ja) 音声信号の帯域幅を疑似的に拡張するための方法および装置
RU2641224C2 (ru) Адаптивное расширение полосы пропускания и устройство для этого
RU2591733C2 (ru) Устройство и способ изменения звукового сигнала посредством формирования огибающей
JP6262668B2 (ja) 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法
JP5425250B2 (ja) 瞬間的事象を有する音声信号の操作装置および操作方法
RU2667382C2 (ru) Улучшение классификации между кодированием во временной области и кодированием в частотной области
JP5722437B2 (ja) 広帯域音声コーディングのための方法、装置、およびコンピュータ可読記憶媒体
RU2563164C2 (ru) Кодер расширения полосы пропускания, декодер расширения полосы пропускания и фазовый вокодер
JP5237465B2 (ja) クロス生成物により向上された高調波転換
CA2556797C (en) Methods and devices for low-frequency emphasis during audio compression based on acelp/tcx
Dittmar et al. Towards transient restoration in score-informed audio decomposition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190205

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20190308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200226

R150 Certificate of patent or registration of utility model

Ref document number: 6668372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250