JP2023175767A - Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network - Google Patents

Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network Download PDF

Info

Publication number
JP2023175767A
JP2023175767A JP2023146925A JP2023146925A JP2023175767A JP 2023175767 A JP2023175767 A JP 2023175767A JP 2023146925 A JP2023146925 A JP 2023146925A JP 2023146925 A JP2023146925 A JP 2023146925A JP 2023175767 A JP2023175767 A JP 2023175767A
Authority
JP
Japan
Prior art keywords
neural network
signal
discriminator
samples
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023146925A
Other languages
Japanese (ja)
Inventor
シュミット,コンスタンティン
Schmid Konstantin
ムスタファ マフムート アフマド,アフマド
Mustafa Mahmut Ahmad Ahmad
フックス,ギヨーム
Fuchs Guillaume
エドラー,ベルント
Edler Bernt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to JP2023146925A priority Critical patent/JP2023175767A/en
Publication of JP2023175767A publication Critical patent/JP2023175767A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

To provide a device and method for processing a narrow band voice input signal and obtaining a wide band voice output signal by extending a band of the narrow band voice input signal.SOLUTION: A device for processing a narrow band voice input signal and obtaining a wide band voice output signal comprises: a signal envelope extrapolator (120) including a first neural network (125) for inputting a plurality of samples of a signal envelope of the narrow band voice input signal and outputting a plurality of extrapolated samples of the signal envelope; an excitation signal extrapolator (130) for inputting a plurality of samples of excitation signals of the narrow band voice input signal and outputting a plurality of extrapolated excitation signal samples; and a combiner (140) for generating the wide band voice output signal so that the wide band voice output signal extends a bandwidth for the narrow band voice input signal by depending on the plurality of extrapolated samples of the signal envelope and the plurality of extrapolated excitation signal samples.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り ウェブサイトの掲載日:令和2年12月18日 ウェブサイトのアドレス:https://ieeexplore.ieee.org/document/9287465Application for application of Article 30, Paragraph 2 of the Patent Act Website publication date: December 18, 2020 Website address: https://ieeexplore. ieee. org/document/9287465

明細書
本発明は、1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法に関する。
Description The present invention relates to an apparatus and method for end-to-end adversarial blind bandwidth expansion using one or more convolutional and/or recurrent networks.

音声コミュニケーションは、ほとんどの人が毎日使用している技術であり、VoIP(Voice over Internet Protocol)や携帯電話、公衆交換電話のネットワークを介して送信する必要のある膨大な量のデータを作成している。2017年のOFCOMの調査によると、1契約あたり毎月平均156.75分の携帯電話への発信が行われている(https://www.ofcom.org.uk/research-and-data/multi-sector-research/cmr/cmr-2018/interactiveを参照)。 Voice communication is a technology that most people use every day, creating vast amounts of data that need to be transmitted over VoIP (Voice over Internet Protocol), mobile phone, and public switched telephone networks. There is. According to a 2017 OFCOM study, an average of 156.75 minutes of calls are made to mobile phones per subscription each month (https://www.ofcom.org.uk/research-and-data/multi- see sector-research/cmr/cmr-2018/interactive).

転送されるデータ量は少なくても、音声の質は高いことが望まれる。この目標を達成するために、音声圧縮技術は過去数十年にわたって、単純なパルス符号変調[1]による帯域制限音声の圧縮から、全帯域音声をコーディングできる音声生成および人間の知覚モデルに従ったコーディングスキーム[2]、[3]に進化してきた。そのような標準化された音声コーデックの存在にもかかわらず、携帯電話または公衆交換電話網でのそれらの採用は、数十年ではないにしても数年かかる。このような理由から、AMR-NB[4]は、200Hzから3400Hzの周波数(通常、ナローバンド、NBと呼ばれる)をエンコードするだけの携帯電話の音声通信用コーデックとして、最も頻繁に使用されている。しかしながら、帯域制限された音声を送信すると、音響品質だけでなく、明瞭度も損なわれる[5]、[6]、[7]。ブラインド帯域拡張(BBWE)は、人工的な帯域拡張やオーディオスーパーレゾリューションとも呼ばれ、エンコーダからの追加情報を送信することなく、欠落した周波数成分を人工的に再生する。BBWEは、送信ネットワークを変更することなく、デコーダのツールチェーンに追加することができるため、より優れたコーデックがネットワークに導入されるまでの間、知覚されるオーディオ品質と明瞭度を向上させるための中間的なソリューションとして機能する[5]、[6]、[8]。送信帯域幅の節約または品質向上のために、堅牢なBBWEは、現代の音声送信の実行可能なソリューションである可能性がある。さらに、帯域制限された音声が保存またはアーカイブされるオーディオ復元などの他のタイプのアプリケーションでは、BBWEがオーディオ帯域幅を拡張するための唯一の可能なソリューションである。 Even if the amount of data transferred is small, it is desirable that the quality of the audio is high. To achieve this goal, speech compression techniques have evolved over the past decades from compressing band-limited speech with simple pulse code modulation [1], to following models of speech production and human perception that can code full-band speech. It has evolved into coding schemes [2] and [3]. Despite the existence of such standardized voice codecs, their adoption in mobile phones or public switched telephone networks will take years, if not decades. For these reasons, AMR-NB [4] is most frequently used as a codec for mobile phone voice communications that only encodes frequencies from 200 Hz to 3400 Hz (commonly referred to as narrowband, NB). However, transmitting band-limited audio impairs not only the acoustic quality but also the intelligibility [5], [6], [7]. Blind band extension (BBWE), also known as artificial band extension or audio super-resolution, artificially reproduces missing frequency components without transmitting additional information from the encoder. BBWE can be added to a decoder's toolchain without changing the transmission network, so it can be used to improve perceived audio quality and clarity until better codecs are introduced into the network. act as an intermediate solution [5], [6], [8]. To save transmission bandwidth or improve quality, robust BBWE may be a viable solution for modern voice transmission. Furthermore, in other types of applications such as audio restoration where band-limited audio is stored or archived, BBWE is the only possible solution to extend the audio bandwidth.

BBWEは音声オーディオ信号処理の分野で長い伝統を持っているが[9]、[10]、ディープニューラルネットワーク(DNN)に基づくソリューションが検討されるようになったのは、音声信号処理ではなく、人工知能(AI)や画像処理のバックグラウンドを持つ研究者によるものである場合がほとんどである。このようなDNNベースのシステムは、一般に音声超解像(speech super resolution:SSR)と呼ばれる。画像処理では、1つ以上の低解像度の観測から高解像度の画像を推定するタスクは超解像と呼ばれ、コンピュータビジョンコミュニティ内で大きな注目を集めている。最近では、ディープな畳み込みニューラルネットワーク(Deep Convolutional Neural Networks)が従来の手法よりも優れた結果を出しており[11]、超解像生成逆問題ネットワークが最先端とされている[12]。 Although BBWE has a long tradition in the field of speech audio signal processing [9], [10], it is not in speech signal processing that solutions based on deep neural networks (DNNs) have been considered. In most cases, the work is done by researchers with a background in artificial intelligence (AI) or image processing. Such DNN-based systems are commonly referred to as speech super resolution (SSR). In image processing, the task of estimating a high-resolution image from one or more lower-resolution observations is called super-resolution, and has received considerable attention within the computer vision community. Recently, deep convolutional neural networks (Deep Convolutional Neural Networks) have produced better results than conventional methods [11], and super-resolution generative inverse problem networks are considered to be the most advanced [12].

優れたBBWEは、音声の知覚品質を向上させるだけでなく、自動音声認識システムの単語誤り率を改善することもできる[13]。 A good BBWE can not only improve the perceived quality of speech but also improve the word error rate of automatic speech recognition systems [13].

敵対的生成ネットワーク(Generative Adversarial Networks;GAN)は、より現実的な再現のために、より細かい構造をより適切に復元できる。しかしながら、これらのシステムの中には、音声コミュニケーションのシナリオに直接適用できないものもある。BBWEの設計では、基礎となる信号の性質が異なる(次元が異なるなど)ことに加えて、次のような点を考慮する必要がある。まず、アルゴリズムの遅延(復号化された音声が元の音声から遅れる時間)が大きくなりすぎないことが必要である。さらに、計算の複雑さとメモリ消費量は、携帯電話などの組み込みシステムでのリアルタイム処理の要件を満たすことができなければならない。 Generative adversarial networks (GANs) can better recover finer structures for more realistic reproduction. However, some of these systems cannot be directly applied to voice communication scenarios. In the design of BBWE, in addition to the different properties of the underlying signals (eg, different dimensions), the following points need to be taken into consideration. First, the delay of the algorithm (the amount of time the decoded audio lags behind the original audio) must not be too large. Furthermore, the computational complexity and memory consumption must be able to meet the requirements of real-time processing in embedded systems such as mobile phones.

リカレントニューラルネットワークは、音声のような時系列の分析や予測に適している。実際、音声は20~25ms程度の持続時間では広義の定常または準周期的であると考えられ、その時間相関を比較的小さなモデルを持つRNNで利用することができる。一方、CNNはパターン認識や、画像の超解像のようなアップスケーリングのタスクで性能を発揮する。また、それらは、処理を高度に並列化できるという利点もある。したがって、音声処理、特にBBWEでは、両方のアーキテクチャを考慮する必要がある。 Recurrent neural networks are suitable for analyzing and predicting time series such as audio. In fact, speech is considered stationary or quasi-periodic in a broad sense for durations on the order of 20-25 ms, and its temporal correlation can be exploited in RNNs with relatively small models. CNNs, on the other hand, perform well in pattern recognition and upscaling tasks such as image super-resolution. They also have the advantage that processing can be highly parallelized. Therefore, both architectures need to be considered in audio processing, especially in BBWE.

前述のように、最先端技術では、BBWEの原理は、1933年にKarl-Otto Schmidtによって最初に提示され[9]、アナログ非線形デバイスを使用して送信音声の帯域幅を拡張した。音声コーデックの励起信号に対して(非ブラインド)帯域幅拡張を行うというアイデアは、少なくとも1959年にまでさかのぼる[10]。その後、人間の音声生成のソースフィルタモデルに基づいて、音声信号を励振とスペクトル包絡線に分離することを利用した、いわゆるパラメトリックBWEがいくつか発表された。これらのシステムは、統計モデルを適用して、スペクトルフォールディング[14]、スペクトル変換[8]、または非線形性[15]によって励起信号を生成しながら、スペクトル包絡線を外挿する。包絡線の外挿のための統計モデルは、単純なコードブック・マッピング[16]、隠れマルコフ・モデル[14]、(浅い)ニューラルネットワーク[17]、あるいは最近ではDNN[18]などがある。 As mentioned above, in the state of the art, the principle of BBWE was first presented by Karl-Otto Schmidt in 1933 [9], who used analog nonlinear devices to extend the bandwidth of transmitted audio. The idea of performing (non-blind) bandwidth extension on the excitation signal of an audio codec dates back to at least 1959 [10]. Subsequently, several so-called parametric BWEs have been published that utilize the separation of the audio signal into an excitation and a spectral envelope, based on a source filter model of human speech production. These systems apply statistical models to extrapolate the spectral envelope while generating the excitation signal by spectral folding [14], spectral transformation [8], or nonlinearity [15]. Statistical models for envelope extrapolation include simple codebook mapping [16], hidden Markov models [14], (shallow) neural networks [17], or more recently DNNs [18].

DNNを使用する前は、統計モデルへの入力は、多くの場合、手作業で調整された機能であった[14]、[17]、[19]、[20]。DNNの導入により、このアプローチは、対数の短時間フーリエ変換(STFT)エネルギー[18]、[21]、[22]または時間領域の音声信号[23]、[24]、[25]を直接使用するように単純化することができる。同じことが、統計モデルの出力にも言える。サブバンドのエネルギー[8]やその他の包絡線の表現[21]をモデル化する代わりに、DNNは、時間領域の音声信号全体や、時間領域と周波数領域の組み合わせ[26]とまではいかなくても、ビンごとのスペクトルの大きさ[15]をモデル化するのに十分な力を持っている。しかしながら、スペクトルの大きさがモデル化されている場合、スペクトルの折り返し(spectral folding)や変換によって位相を再構成する必要がある[18]、[21]、[15]、[27]。 Before using DNNs, the inputs to statistical models were often manually adjusted functions [14], [17], [19], [20]. With the introduction of DNN, this approach directly uses logarithmic short-time Fourier transform (STFT) energy [18], [21], [22] or time-domain audio signals [23], [24], [25]. It can be simplified as follows. The same goes for the output of statistical models. Instead of modeling subband energies [8] or other envelope representations [21], DNNs can be used to model the entire audio signal in the time domain, or even a combination of time and frequency domains [26]. However, it has sufficient power to model the spectral magnitude per bin [15]. However, if the spectral magnitude is modeled, it is necessary to reconstruct the phase by spectral folding or transformation [18], [21], [15], [27].

学習目的に関しては、効率的なDNNベースのソリューションを設計するには、適切なアーキテクチャを選択する必要があり、主に学習損失関数とネットワークタイプとを慎重に選択する必要がある。代表的な損失関数としては、平均二乗誤差[21]、カテゴリークロスエントロピー(CE)損失[28]、敵対的損失[29]、[30]、[25]、または損失の混合[31]などがある。損失関数は、データ表現を決定することもできる。 Regarding learning objectives, designing an efficient DNN-based solution requires choosing an appropriate architecture, primarily the learning loss function and the network type. Typical loss functions include mean square error [21], categorical cross entropy (CE) loss [28], adversarial loss [29], [30], [25], or a mixture of losses [31]. be. The loss function can also determine the data representation.

平均二乗誤差とクロスエントロピーに関しては、平均二乗誤差(MSE)損失を、対数のサブバンドまたはビン・エネルギーと組み合わせることで、音響心理学的に動機づけられた損失を実現することができる[8]。クロスエントロピー(XE)から導出された損失関数は、サンプルビット(またはサンプルの大きさ)をクラスとして予測するため、モデル化する信号は、DNNで処理するには高すぎない解像度で量子化する必要がある。16ビットで定量化された音声信号の216クラスを予測することは、現在までDNNで処理するには非常にコストがかかる。幸いなことに、3.4kHz以上の音声信号の内容を8ビットで定量化しても、品質が著しく低下することはない[32]。クロスエントロピー損失を用いて学習するデータの分布は、音声信号のラプラシアン分布などではなく、ガウス分布であることが望まれるため[34]、通常は非線形関数によって整形される。驚くべきことに、[35]、[32]、[23]、[24]で音声データxをよりガウス的にするために使われているμ-law関数は、世界で初めて標準化されたデジタル音声コーデック[1]と全く同じものである

Figure 2023175767000002
Regarding mean square error and cross entropy, psychoacoustically motivated losses can be achieved by combining mean square error (MSE) losses with logarithmic subband or bin energies [8] . The loss function derived from cross-entropy (XE) predicts sample bits (or sample sizes) as classes, so the signal to be modeled must be quantized at a resolution that is not too high to be processed by a DNN. There is. Predicting 2 16 classes of audio signals quantified in 16 bits is currently very expensive to process in DNNs. Fortunately, quantifying the content of audio signals above 3.4 kHz with 8 bits does not significantly degrade the quality [32]. Since the distribution of data to be learned using cross-entropy loss is preferably Gaussian distribution rather than the Laplacian distribution of audio signals [34], it is usually shaped by a nonlinear function. Surprisingly, the μ-law function used in [35], [32], [23], [24] to make audio data x more Gaussian is the world's first standardized digital audio It is exactly the same as codec [1]
Figure 2023175767000002

敵対的損失に関しては、今日の強力なネットワークを使用しても、時間領域の音声の分布は非常に複雑でモデル化が困難である。この複雑な分布に一致するようにMSEまたはCE損失で学習された生成モデルは、その平滑化された近似のみを生成する。BBWEに適用すると、これは、結果として得られる音声信号が鮮明さとエネルギーを欠くことを意味する[30]。 Regarding adversarial loss, the distribution of speech in the time domain is very complex and difficult to model, even with today's powerful networks. A generative model trained with MSE or CE loss to match this complex distribution will only produce a smoothed approximation thereof. Applied to BBWE, this means that the resulting audio signal lacks clarity and energy [30].

敵対的生成ネットワーク(Generative Adversarial Network)[36]は、一種の拡張損失関数とみなすことができる。ここでは、ジェネレーターとディスクリミネーターの2つのネットワークが競い合っている。図2は、敵対的生成ネットワークを示している。ジェネレーターは現実的なデータの生成を試み、ディスクリミネーターは生成されたデータと学習データベースからのデータを区別する。学習が成功した後は、ディスクリミネーターはもはや必要ではなく、その目的はジェネレーターの損失を改善することだけである。敵対的学習がBBWEのような生成モデルの学習に適している理由は、すべてのモードに対して平滑化や平均化を行うことなく、分布の一部のモードをモデル化できることにある。 Generative Adversarial Networks [36] can be considered as a type of extended loss function. Here, two networks are competing: a generator and a discriminator. Figure 2 shows a generative adversarial network. The generator attempts to generate realistic data, and the discriminator distinguishes between the generated data and the data from the training database. After successful learning, the discriminator is no longer needed and its purpose is only to improve the generator's loss. The reason why adversarial learning is suitable for learning generative models such as BBWE is that it is possible to model some modes of a distribution without smoothing or averaging all modes.

ネットワークのクラスに関して、DNNの設計におけるもう1つの重要な側面は、使用するネットワークのクラスの選択であることに注意されたい。一般的には、完全連結層[18]、[21]、畳み込みニューラルネットワーク(CNN)[11]、[37]、またはリカレントニューラルネットワーク(RNN)と、それらのサブタイプである長短期記憶(LSTM)ユニット[38]、[39]、[8]、またはゲーテッドリカレントユニット(GRU)[40]、[39]がよく知られている。完全連結層は、フレーム[18]、[21]で動作するシステムでのみ使用されるが、RNNとCNNはストリーミング方式で時間領域データの処理を可能にする[23]、[24]。 Regarding the class of networks, it should be noted that another important aspect in the design of a DNN is the selection of the class of network to use. Generally, fully connected layers [18], [21], convolutional neural networks (CNNs) [11], [37], or recurrent neural networks (RNNs) and their subtypes long short-term memory (LSTM) are commonly used. ) units [38], [39], [8] or gated recurrent units (GRU) [40], [39] are well known. Fully connected layers are only used in systems operating on frames [18], [21], whereas RNNs and CNNs allow processing of time-domain data in a streaming manner [23], [24].

Figure 2023175767000003
Figure 2023175767000003

BBWEにもWaveNet(登録商標)が採用されている。[42]では、符号化されたNB音声のビットストリームパラメータで条件付けられた、クリーンな音声で学習されている。ここでは、ネットワークはデコーダとして機能し、暗黙的に帯域幅の拡張を行う。これを受けて、[24]では、WaveNet(登録商標)にNB信号で計算された特徴量を付与している。学習が成功すると、特徴量のみがネットワークに与えられ、NBの音声信号は無視される。 WaveNet (registered trademark) is also adopted for BBWE. In [42], it is trained on clean speech conditioned on the bitstream parameters of encoded NB speech. Here, the network acts as a decoder and implicitly provides bandwidth expansion. In response to this, [24] provides WaveNet (registered trademark) with feature amounts calculated using NB signals. If the learning is successful, only the features are given to the network and the NB audio signal is ignored.

WaveNet(登録商標)ベースのモデルは非常に高い知覚品質を主張するが、学習が難しく、評価時の計算の複雑さが非常に高くなる。これにより、いくつかの最適化や代替モデルが生まれた(例えば[43])。1つの特定の代替手段は、元の音声合成[32]または音声コーディング[44]のいずれかのために設計されたLPCNetである。LPCNetでは、WaveNet(登録商標)の畳み込み層をリカレント層に置き換えている。 WaveNet®-based models claim very high perceptual quality, but are difficult to learn and have very high computational complexity during evaluation. This has led to several optimizations and alternative models (e.g. [43]). One particular alternative is LPCNet, designed for either original speech synthesis [32] or speech coding [44]. In LPCNet, the convolutional layer of WaveNet (registered trademark) is replaced with a recurrent layer.

本発明の目的は、ブラインド帯域幅拡張のための改善された概念を提供することである。 The purpose of the invention is to provide an improved concept for blind bandwidth expansion.

本発明の目的は、請求項1に記載の装置によって、請求項19に記載の方法によって、請求項20に記載の方法によって、請求項23に記載の方法によって、請求項25に記載のコンピュータ・プログラムによって解決される。 The object of the invention is to provide a computer system according to claim 25 by means of an apparatus according to claim 1, by a method according to claim 19, by a method according to claim 20, by a method according to claim 23, and by a method according to claim 20. Solved by the program.

一実施の形態による、狭帯域音声入力信号の帯域幅拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置が提供される。装置は、第1のニューラルネットワークを含む信号包絡線外挿器を備え、第1のニューラルネットワークは第1ニューラルネットワークの入力値として狭帯域音声入力信号の信号包絡線の複数のサンプルを受信するように構成され、前記第1ニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定するように構成される。さらに、本装置は、狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成され、複数の外挿された励起信号サンプルを決定するように構成される励起信号外挿器130を備える。さらに、本装置は、複数の外挿された信号包絡線のサンプルに依存して、また、複数の外挿された励起信号サンプルに依存して、広帯域音声出力信号が、狭帯域音声入力信号に対して帯域幅を拡張するように、広帯域音声出力信号を生成するように構成されるコンバイナ140を備える。 According to one embodiment, an apparatus is provided for processing a narrowband audio input signal to obtain a wideband audio output signal by performing bandwidth expansion of the narrowband audio input signal. The apparatus includes a signal envelope extrapolator including a first neural network, the first neural network configured to receive a plurality of samples of a signal envelope of a narrowband audio input signal as an input to the first neural network. and configured to determine a plurality of extrapolated signal envelope samples as output values of the first neural network. Further, the apparatus includes an excitation signal extrapolator 130 configured to receive a plurality of samples of an excitation signal of a narrowband audio input signal and configured to determine a plurality of extrapolated excitation signal samples. Be prepared. Additionally, the apparatus relies on the plurality of extrapolated signal envelope samples and in dependence on the plurality of extrapolated excitation signal samples to convert the wideband audio output signal into the narrowband audio input signal. A combiner 140 is configured to generate a wideband audio output signal to extend the bandwidth.

さらに、一実施の形態による、狭帯域音声入力信号の帯域幅拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための方法が提供される。その方法は以下を含む:

- 第1のニューラルネットワークの入力値として、前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定するステップ、

- 狭帯域音声入力信号の励起信号の複数のサンプルを受信し、複数の外挿された励起信号サンプルを決定するステップ、そして、

- 広帯域音声入力信号が、複数の外挿された信号包絡線のサンプルおよび前記複数の外挿励起信号サンプルに依存して、狭帯域音声入力信号に対して帯域幅を拡張するように前記広帯域音声出力信号を生成するステップ。
Further, according to one embodiment, a method is provided for processing a narrowband audio input signal to obtain a wideband audio output signal by performing bandwidth expansion of the narrowband audio input signal. The method includes:

- receiving as an input value of a first neural network a plurality of samples of a signal envelope of said narrowband audio input signal; and as an output value of said first neural network receiving a plurality of samples of a signal envelope of said narrowband audio input signal; a step of determining the sample;

- receiving a plurality of samples of an excitation signal of a narrowband audio input signal and determining a plurality of extrapolated excitation signal samples;

- said wideband audio input signal is dependent on a plurality of extrapolated signal envelope samples and said plurality of extrapolated excitation signal samples to extend the bandwidth with respect to said narrowband audio input signal; A step of generating an output signal.

さらに、一実施の形態によるニューラルネットワークを学習させる方法を提供する。 Additionally, a method for training a neural network is provided according to one embodiment.

- ニューラルネットワークは、ニューラルネットワークの入力値として、狭帯域音声入力信号の第1の複数の線スペクトル周波数を受信する。 - the neural network receives as an input to the neural network a first plurality of line spectral frequencies of the narrowband audio input signal;

- ニューラルネットワークは、第1のニューラルネットワークの出力値として、広帯域音声出力信号の第2の複数の線スペクトル周波数を決定し、1つ以上の第2の複数の線スペクトル周波数のそれぞれは、第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数に関連付けられる。 - the neural network determines, as an output value of the first neural network, a second plurality of line spectral frequencies of the broadband audio output signal, each of the one or more second plurality of line spectral frequencies being one or more of the first plurality of line spectral frequencies; associated with a frequency that is greater than any frequency associated with any of the multiple line spectral frequencies of .

- 広帯域音声出力信号の第2の複数の線スペクトル周波数は、線スペクトル周波数領域から線形予測符号化領域に変換され、広帯域音声出力信号の第2の複数の線形予測符号化係数を得る。 - a second plurality of line spectral frequencies of the wideband audio output signal are transformed from a line spectral frequency domain to a linear predictive coding domain to obtain a second plurality of linear predictive coding coefficients of the wideband audio output signal;

- 有限インパルス応答フィルタは、広帯域音声出力信号の第2の複数の線形予測符号化係数を線形予測符号化領域から有限インパルス応答フィルタ領域に変換して、複数の有限インパルスフィルターで変換された線形予測符号化係数を得るように用いられる。 - the finite impulse response filter transforms the second plurality of linear predictive coding coefficients of the wideband audio output signal from the linear predictive coding domain to the finite impulse response filter domain, and converts the linear predictive coding coefficients transformed by the plurality of finite impulse filters; It is used to obtain the coding coefficients.

- 方法は、複数の有限インパルスフィルターで変換された線形予測符号化係数に依存して、前記第1のニューラルネットワークを学習させるステップを含む。 - The method comprises the step of training said first neural network in dependence on linear predictive coding coefficients transformed with a plurality of finite impulse filters.

実施の形態において、第1のニューラルネットワークを学習させると、複数の有限インパルスフィルターで変換された線形予測符号化係数、または複数の有限インパルスフィルターで変換された線形予測符号化係数から導出された値が、例えば、ニューラルネットワークにフィードバックされうる。 In an embodiment, when the first neural network is trained, linear predictive coding coefficients transformed by a plurality of finite impulse filters, or values derived from linear predictive coding coefficients transformed by a plurality of finite impulse filters. can be fed back to a neural network, for example.

実施の形態によれば、第1のニューラルネットワークを学習させると、複数の有限インパルスフィルターで変換された線形予測符号化係数および複数の外挿された励起信号サンプルに依存して、例えば、複数の広帯域音声出力信号のサンプルが生成され、複数の広帯域音声出力信号または前記複数の広帯域音声出力信号のサンプルから導出された値が、例えば、ニューラルネットワークにフィードバックされる。 According to embodiments, training the first neural network depends on the linear predictive coding coefficients transformed with the plurality of finite impulse filters and the plurality of extrapolated excitation signal samples, e.g. Samples of wideband audio output signals are generated and the plurality of wideband audio output signals or values derived from the samples of the plurality of wideband audio output signals are fed back to, for example, a neural network.

さらに、実施の形態による第1および/または第2のニューラルネットワークを学習させるための方法が提供される。 Furthermore, a method for training the first and/or second neural networks according to embodiments is provided.

- 第1のニューラルネットワークは、第1のニューラルネットワークの入力値として、狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定する、および/または、第2のニューラルネットワークは第2のニューラルネットワークの入力値として、狭帯域音声入力信号の励起信号の複数のサンプルを受信し、第2のニューラルネットワークの出力値として、複数の外挿された励起信号サンプルを決定する。 - the first neural network receives as input values of the first neural network a plurality of samples of the signal envelope of the narrowband audio input signal and as output values of the first neural network a plurality of extrapolated samples; and/or the second neural network receives the plurality of samples of the excitation signal of the narrowband audio input signal as input values of the second neural network; A plurality of extrapolated excitation signal samples are determined as output values of the network.

- 第1および/または第2のニューラルネットワークは、ディスクリミネーターニューラルネットワークを使用して学習し、第1および/または第2のニューラルネットワークが学習すると、第1および/または第2のニューラルネットワークとディスクリミネーターニューラルネットワークとは、敵対的生成ネットワークとして動作する。 - the first and/or second neural network is trained using a discriminator neural network, and once the first and/or second neural network is trained, the first and/or second neural network A discriminator neural network operates as a generative adversarial network.

- 第1および/または第2のニューラルネットワークの学習中は、ディスクリミネーターニューラルネットワークは、ディスクリミネーターニューラルネットワークの入力値として、第1および/または第2のニューラルネットワークの出力値を受信する、またはディスクリミネーターネットワークの入力値として、第1および/または第2のニューラルネットワークの出力値から導出される導出値を受信する。 - during training of the first and/or second neural network, the discriminator neural network receives output values of the first and/or second neural network as input values of the discriminator neural network; Alternatively, a derived value derived from the output value of the first and/or second neural network is received as an input value of the discriminator network.

- ディスクリミネーターニューラルネットワークの入力値を受信する際、ディスクリミネーターニューラルネットワークは、ディスクリミネーターニューラルネットワークの出力として、ディスクリミネーターニューラルネットワークの入力値の品質表示を決定し、そして、第1および/または第2のニューラルネットワークは、品質表示に依存して学習する。 - upon receiving the input value of the discriminator neural network, the discriminator neural network determines, as an output of the discriminator neural network, a quality representation of the input value of the discriminator neural network; /or the second neural network learns depending on the quality representation.

実施の形態によれば、ディスクリミネーターニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークである。第1のニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークを使用して学習し、第1のニューラルネットワークは、第1の品質表示である品質表示に依存して学習する。第2のニューラルネットワークは、例えば、第2のディスクリミネーターニューラルネットワークを使用して学習し、第2のニューラルネットワークの学習中は、第2のニューラルネットワークと第2のディスクリミネーターニューラルネットワークとは、第2の敵対的生成ネットワークとして動作する。第2のニューラルネットワークの学習中は、第2のディスクリミネーターニューラルネットワークは、例えば、第2のディスクリミネーターニューラルネットワークの入力値として、第2のニューラルネットワークの出力値を受信する、または、例えば、第2のディスクリミネーターネットワークの入力値として、第2のニューラルネットワークの出力値から導出される導出値を受信しうる。第2のディスクリミネーターニューラルネットワークの入力値を受信すると、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの出力として、第2のディスクリミネーターニューラルネットワークの入力値の第2の品質表示を決定し、ここで、第2のニューラルネットワークは、第2の品質表示に依存して学習するように構成される。 According to an embodiment, the discriminator neural network is, for example, a first discriminator neural network. The first neural network is trained using, for example, a first discriminator neural network, and the first neural network is trained depending on the quality representation, which is the first quality representation. The second neural network is trained using, for example, a second discriminator neural network, and during training of the second neural network, the second neural network and the second discriminator neural network are , operates as a second generative adversarial network. During training of the second neural network, the second discriminator neural network receives, e.g., an output value of the second neural network as an input value of the second discriminator neural network, or, e.g. , may receive as an input value of the second discriminator network a derived value derived from the output value of the second neural network. Upon receiving the input value of the second discriminator neural network, the second discriminator neural network selects the input value of the second discriminator neural network as an output of the second discriminator neural network. determining a second quality representation, wherein the second neural network is configured to learn in dependence on the second quality representation.

さらに、コンピュータ・プログラムが提供され、コンピュータ・プログラムの各々は、コンピュータまたは信号処理装置上で実行されるときに上述の方法の1つを実施するように構成される。 Furthermore, computer programs are provided, each of which is configured to perform one of the methods described above when executed on a computer or signal processing device.

すでに説明したように、ブラインド帯域拡張は、音声コーデックで符号化されずに送信される欠落した周波数コンテンツを人工的に再生することで、電話品質の音声の知覚的品質と明瞭度を向上させる。実施の形態は、この問題を解決するためのディープニューラルネットワークに基づく新しいアプローチを提供する。これらの実施の形態は、畳み込みアーキテクチャまたは反復アーキテクチャに基づいている。すべてが時間領域で動作する。人間の音声生成のソースフィルタモデルによって動機付けられて、提供されたシステムの2つは、音声信号をスペクトル包絡線と励起信号に分解する;それらのそれぞれは、専用のDNNで個別に拡張された帯域幅である。すべてのシステムは、敵対的損失と知覚的損失が混在するように学習する。モードの崩壊およびより安定した敵対的学習を回避するために、スペクトルの正規化は、例えば、ディスクリミネーターにおいて採用され得る。 As previously discussed, blind band extension improves the perceptual quality and intelligibility of telephone-quality audio by artificially reproducing missing frequency content that is transmitted unencoded with an audio codec. Embodiments provide a new approach based on deep neural networks to solve this problem. These embodiments are based on convolutional or iterative architectures. Everything operates in the time domain. Motivated by the source-filter model of human speech production, two of the presented systems decompose the speech signal into a spectral envelope and an excitation signal; each of them is individually augmented with a dedicated DNN. Bandwidth. All systems learn to mix adversarial and perceptual losses. To avoid mode collapse and more stable adversarial learning, spectral normalization may be employed, for example, in the discriminator.

実施の形態では、音声符号化シナリオを対象とした、敵対的学習を用いたディープニューラルネットワークに基づく2つのBBWEを提供する。 In embodiments, we provide two BBWEs based on deep neural networks with adversarial learning targeted at speech coding scenarios.

実施の形態によれば、ブラインド帯域幅拡張を目的とした2つの新規ディープネットワーク構造が提供され、1つはコンボリューショナルカーネルに基づくもので、もう1つはリカレントカーネルに基づくものである。 According to embodiments, two novel deep network structures for blind bandwidth expansion are provided, one based on a convolutional kernel and one based on a recurrent kernel.

どちらのネットワークも、例えば、敵対的損失とスペクトル損失の混合で学習することができる。 Both networks can be trained with a mixture of adversarial and spectral losses, for example.

この2つのシステムは、敵対的に学習されたBBWEで、「エンドツーエンド」、つまり入力が時間領域の音声であり、出力も時間領域の音声であることを意味する。 The two systems are adversarially trained BBWEs that are "end-to-end," meaning that the input is time-domain audio and the output is also time-domain audio.

実施の形態では、GANの性能を向上させるために、例えば、ヒンジロスやスペクトルの正規化を適用することができる。 In embodiments, for example, hinge loss or spectral normalization can be applied to improve the performance of the GAN.

実施の形態では、音声信号の帯域拡張に用いられる生成モデルに基づくBBWEの新しいアプローチを提供する。 Embodiments provide a new approach for BBWE based on a generative model used for band extension of audio signals.

提示された2つのシステムでは、音声符号化の世界で確立されたパラダイムが採用されている、すなわち、包絡線およびソースフィルタモデルとして知られる音声信号への分解は、例えば、GANモデルに適用され得る。結果として、計算の複雑さは、例えば、約3分の1に、例えば、低下する可能性がある。このアプローチは、BBWEのアプリケーション内でテスト・評価されたが、それに限定されるものではない。実施の形態によるシステムは、NB音声の音声認識エラー率を大幅に改善する。 In the two systems presented, a well-established paradigm in the world of speech coding is adopted, i.e. the decomposition into speech signals known as envelope and source filter models can be applied, for example, to GAN models. . As a result, the computational complexity may be reduced, eg, by about a third. This approach has been tested and evaluated within a BBWE application, but is not limited thereto. The system according to embodiments significantly improves the speech recognition error rate for NB speech.

いくつかの実施の形態では、符号化された音声、帯域制限された音声、または破損した音声から、強化された音声を生成するための生成モデルを提供する。 Some embodiments provide a generative model for generating enhanced speech from encoded, band-limited, or corrupted speech.

実施の形態によれば、学習のためのターゲット音声は、例えば、包絡線および励起に分解され得る。包絡線は、例えば、LPC係数であり得る。励起は、例えば、LPC残差であり得る。 According to embodiments, the target speech for learning may be decomposed into an envelope and an excitation, for example. The envelope may be, for example, an LPC coefficient. The excitation can be, for example, an LPC residual.

いくつかの実施の形態では、包絡線および励起は、例えば、別々に学習され得る。包絡線と励起のそれぞれは、例えば、敵対的損失(敵対的生成ネットワーク(GAN)から知られている)とL1損失の混合で学習することができる。励磁信号の学習には、特徴的な損失も加えられる。 In some embodiments, the envelope and excitation may be learned separately, for example. Each of the envelopes and excitations can be learned, for example, with a mixture of adversarial losses (known from generative adversarial networks (GANs)) and L1 losses. A characteristic loss is also added to the learning of the excitation signal.

実施の形態によれば、包絡線は、例えば、入力としての符号化されたおよび/または帯域制限されたおよび/または破損した包絡線の表現およびターゲットとしての元の包絡線で学習され得る。可能な包絡線の表現は、例えば、LPC係数であり得る。 According to embodiments, the envelope may be learned, for example, with an encoded and/or band-limited and/or corrupted envelope representation as input and the original envelope as target. A possible envelope representation may be, for example, an LPC coefficient.

実施の形態では、励起信号を学習するための入力は、例えば、符号化および/または帯域制限および/または破損した時間領域音声および/または圧縮された特徴表現であり得る。ターゲットとなるのは、例えば、もとのクリーンな音声である。 In embodiments, the input for learning the excitation signal may be, for example, encoded and/or band-limited and/or corrupted time-domain audio and/or compressed feature representations. For example, the target is the original clean voice.

実施の形態によれば、励起信号を学習するために、損失は、例えば、包絡線を通して伝播され得る。これは、例えば、包絡線を、損失を伝播するDNN層と見なすことによって実行できる。包絡線がLPCフィルタで表される場合、このフィルタは、例えば、純粋なIIRフィルタであり得る。この場合、損失は、例えば、伝播が遅いか、まったく伝播しない可能性がある(勾配消失問題としても知られている)。実施の形態では、IIRフィルタは、例えば、インパルス応答を切り捨てることによってFIRフィルタによって近似することができる。結果として、包絡線は、例えば、ネットワーク内の畳み込み層(CNN層)として実装され得る。 According to embodiments, to learn the excitation signal, the loss may be propagated through the envelope, for example. This can be done, for example, by considering the envelope as a DNN layer that propagates losses. If the envelope is represented by an LPC filter, this filter may be, for example, a pure IIR filter. In this case, the loss may, for example, propagate slowly or not at all (also known as the vanishing gradient problem). In embodiments, the IIR filter can be approximated by a FIR filter, for example by truncating the impulse response. As a result, the envelope can be implemented, for example, as a convolutional layer (CNN layer) within the network.

いくつかの実施の形態は、音声コーデック[2]、[4]と同様に、音声信号の励起信号および包絡線への分解に基づいている。これは、線形予測符号化(LPC)を使用して実現される。リカレント層は、単に励起信号をモデル化するだけなので、予測が容易である。いくつかの実施の形態では、LPCNetはBBWEにも採用されている[33]。 Some embodiments are based on the decomposition of the audio signal into an excitation signal and an envelope, similar to audio codecs [2], [4]. This is achieved using linear predictive coding (LPC). Recurrent layers are easy to predict because they simply model the excitation signal. In some embodiments, LPCNet is also employed in BBWE [33].

以下では、本発明の実施の形態を、図を参照してより詳細に説明する。 Embodiments of the present invention will be described in more detail below with reference to the drawings.

図1は、実施の形態による狭帯域音声入力信号の帯域拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置を示す。FIG. 1 illustrates an apparatus for processing a narrowband audio input signal to obtain a wideband audio output signal by performing band extension of the narrowband audio input signal according to an embodiment. 図2は、敵対的生成ネットワークを示す。FIG. 2 shows a generative adversarial network. 図3は、ソフトマックスゲートアクティベーションCNN-GANの単層を示す。FIG. 3 shows a single layer of softmax gate activation CNN-GAN. 図4は、音声信号の励起信号およびLPC包絡線への分解に基づく提案されたシステムを示す。FIG. 4 shows the proposed system based on the decomposition of the audio signal into an excitation signal and an LPC envelope. 図5は、次数12のIIR LPCフィルタと切り捨てられたインパルス応答から生じるFIRフィルタの伝達関数を示す。FIG. 5 shows the transfer function of an FIR filter resulting from an order 12 IIR LPC filter and a truncated impulse response. 図6は、励起信号を外挿するDNNの構造を示す。FIG. 6 shows the structure of a DNN that extrapolates the excitation signal. 図7は、スパース化後のGRUからのマトリックスの1つを示す。Figure 7 shows one of the matrices from GRU after sparsification. 図8は、6つの畳み込み層で構成されるGANディスクリミネーターネットワークを示す。各層のカーネルは32サンプルで、ストライドは2である。FIG. 8 shows a GAN discriminator network composed of six convolutional layers. The kernel of each layer has 32 samples and the stride is 2. 図9は、95%信頼区間でのさまざまなBBWEの知覚客観的リスニング品質分析を示す。Figure 9 shows the perceived objective listening quality analysis of various BBWEs with 95% confidence intervals. 図10は、さまざまなBBWEのフレッチェディープスピーチ距離(FDSD)を示す。FIG. 10 shows the Frecce deep speech distance (FDSD) of various BBWEs. 図11は、さまざまなBBWEの単語誤り率と文字誤り率を示す。FIG. 11 shows word and character error rates for various BBWEs. 図12は、提示されたシステムの短時間客観的了解度測定(STOI)を示す。FIG. 12 shows the short-term objective intelligibility measurements (STOI) of the proposed system. 図13は、さまざまなBBWEを評価したリスニングテストの結果を、項目ごとに95%信頼区間を設定したボックスプロットで示す。FIG. 13 shows the results of listening tests that evaluated various BBWEs in box plots with 95% confidence intervals set for each item. 図14は、さまざまなBBWEを評価したリスニングテストの結果を、すべての項目で平均した95%信頼区間を持つ棒グラフで示す。Figure 14 shows the results of a listening test evaluating various BBWEs in a bar graph with 95% confidence intervals averaged across all items. 図15は、さまざまなBBWEを評価したリスニングテストの結果を、各ユーザーからの評価をウォームプロットで示す。FIG. 15 shows the results of a listening test in which various BBWEs were evaluated, and the evaluations from each user are shown in a warm plot. 図16は、正規化された客観的尺度と主観的尺度を示す。FIG. 16 shows normalized objective and subjective measures.

図1は、実施の形態による狭帯域音声入力信号の帯域拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置を示す。 FIG. 1 illustrates an apparatus for processing a narrowband audio input signal to obtain a wideband audio output signal by performing band extension of the narrowband audio input signal according to an embodiment.

本装置は、第1のニューラルネットワーク125を含む信号包絡線外挿器120を備え、第1のニューラルネットワーク125は、第1のニューラルネットワーク125の入力値として、狭帯域音声入力信号の信号包絡線の複数のサンプルを受信するように構成され、第1のニューラルネットワーク125の出力値として、複数の外挿された信号包絡線のサンプルを決定するように構成される。 The apparatus comprises a signal envelope extrapolator 120 including a first neural network 125, the first neural network 125 is configured to calculate the signal envelope of a narrowband audio input signal as an input value of the first neural network 125. and is configured to receive a plurality of samples of the extrapolated signal envelope as an output value of the first neural network 125.

さらに、本装置は、狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成され、複数の外挿された励起信号サンプルを決定するように構成される励起信号外挿器130を備える。 Further, the apparatus includes an excitation signal extrapolator 130 configured to receive a plurality of samples of an excitation signal of a narrowband audio input signal and configured to determine a plurality of extrapolated excitation signal samples. Be prepared.

さらに、本装置は、複数の外挿された信号包絡線のサンプルに依存して、また、複数の外挿された励起信号サンプルに依存して、広帯域音声出力信号が、狭帯域音声入力信号に対して帯域幅を拡張するように、広帯域音声出力信号を生成するように構成されるコンバイナ140を備える。 Additionally, the apparatus relies on the plurality of extrapolated signal envelope samples and in dependence on the plurality of extrapolated excitation signal samples to convert the wideband audio output signal into the narrowband audio input signal. A combiner 140 is configured to generate a wideband audio output signal to extend the bandwidth.

実施の形態によれば、第1のニューラルネットワーク125の入力値は、狭帯域音声入力信号の第1の複数の線スペクトル周波数であり、前記第1のニューラルネットワーク125が、例えば、第1のニューラルネットワーク125の出力値として、広帯域音声出力信号の第2の複数の線スペクトル周波数を決定するように構成されえ、1つ以上の第2の複数の線スペクトル周波数のそれぞれは、第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数に関連付けられる。 According to embodiments, the input values of the first neural network 125 are a first plurality of line spectral frequencies of the narrowband audio input signal, and the first neural network 125 is configured to e.g. The network 125 may be configured to determine, as an output value, a second plurality of line spectral frequencies of the broadband audio output signal, each of the one or more second plurality of line spectral frequencies being one or more of the first plurality. associated with a frequency that is greater than any frequency associated with any of the line spectral frequencies.

実施の形態において、第1のニューラルネットワーク125が学習すると、信号包絡線外挿器120は、例えば、インパルス応答を計算し、インパルス応答を切り捨てることによって、元の音声信号から導出される複数の広帯域線形予測符号化係数を、有限インパルス応答フィルタ係数に変換するように構成されうる。 In embodiments, once the first neural network 125 has trained, the signal envelope extrapolator 120 can generate a plurality of broadband The linear predictive coding coefficients may be configured to convert into finite impulse response filter coefficients.

例えば、広帯域のLPCフィルタ係数は、例えばIIRフィルタ係数であっても、インパルス応答を計算して切り捨てることにより、有限インパルス応答フィルタ係数に変換される。これは学習中に行われるため、有限インパルス応答フィルタ係数への変換に使用される広帯域LPCフィルタ係数は、例えば、元の広帯域音声から導出されうる。 For example, a broadband LPC filter coefficient, even if it is an IIR filter coefficient, is converted into a finite impulse response filter coefficient by calculating and truncating the impulse response. This is done during training so that the wideband LPC filter coefficients used for conversion to finite impulse response filter coefficients can be derived from the original wideband speech, for example.

実施の形態によれば、第1のニューラルネットワーク125を学習させると、信号包絡線外挿器120は、広帯域音声出力信号と元の広帯域音声信号との間の誤差または誤差の勾配をフィードバックするように、例えば、構成される。 According to embodiments, upon training the first neural network 125, the signal envelope extrapolator 120 is configured to feed back the error or slope of the error between the wideband audio output signal and the original wideband audio signal. configured, for example.

上で概説したように、実施の形態では、誤差の勾配を逆伝播させる。誤差とは、ここでは、生成された広帯域音声と真の広帯域音声との間の差である。 As outlined above, embodiments backpropagate the error gradient. Error is here the difference between the generated wideband speech and the true wideband speech.

一般に、狭帯域音声から励起が生成され、そこから包絡線が生成される。最後に、広帯域音声が導出される。 Generally, an excitation is generated from narrowband speech and an envelope is generated therefrom. Finally, wideband speech is derived.

適用中、励起信号外挿器130の出力は、例えば、信号包絡線外挿器120に供給され得る。 During application, the output of excitation signal extrapolator 130 may be fed to signal envelope extrapolator 120, for example.

実施の形態では、逆伝播を伴う学習中に、誤差の勾配は、最初に信号包絡線外挿器120に逆方向に渡され、次に励起信号外挿器130に渡される。 In embodiments, during learning with backpropagation, the error gradient is first passed backwards to the signal envelope extrapolator 120 and then to the excitation signal extrapolator 130.

信号包絡線がIIR構造またはフィルタである場合、勾配を通過させることはできない。このため、信号包絡線は有限インパルス応答ファイラーに変換される。 If the signal envelope is an IIR structure or filter, the gradient cannot be passed. For this purpose, the signal envelope is transformed into a finite impulse response filer.

実施の形態によれば、第1のニューラルネットワーク125は、例えば、第1のディスクリミネーターニューラルネットワークを用いて学習し、第1のニューラルネットワーク125を、例えば、学習させると、第1のニューラルネットワーク125および第1のディスクリミネーターニューラルネットワークは、敵対的生成ネットワークとして動作するように構成される。第1のニューラルネットワーク125の学習中は、第1のディスクリミネーターニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークの入力値として第1のニューラルネットワーク125の出力値を受信するように構成される、または第1のディスクリミネーターネットワークの入力値として、第1のニューラルネットワーク125の出力値から導出される導出値を受信するように構成される。第1のディスクリミネーターニューラルネットワークの入力値を受信する際には、第1のディスクリミネーターニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークの出力として、前記第1のディスクリミネーターニューラルネットワークの入力値の第1の品質表示を決定するように構成される。そして、第1のニューラルネットワーク125は、例えば、第1の品質表示に依存して学習するように構成される。 According to embodiments, the first neural network 125 is trained using, e.g., a first discriminator neural network, and when the first neural network 125 is trained, e.g. 125 and the first discriminator neural network are configured to operate as a generative adversarial network. During training of the first neural network 125, the first discriminator neural network is configured, for example, to receive an output value of the first neural network 125 as an input value of the first discriminator neural network. or is configured to receive a derived value derived from the output value of the first neural network 125 as an input value of the first discriminator network. Upon receiving the input value of the first discriminator neural network, the first discriminator neural network may e.g. The circuit is configured to determine a first quality indication of an input value of the network. The first neural network 125 is then configured, for example, to learn in dependence on the first quality indication.

実施の形態において、第1のディスクリミネーターニューラルネットワークの入力値を受信する際には、第1のディスクリミネーターニューラルネットワークは、第1のディスクリミネーターニューラルネットワークの入力値が、人工的に生成された音声信号ではなく記録音声信号に関係する確率を品質表示が示す、または第1のディスクリミネーターニューラルネットワークの出力値が記録信号と関係しているのか人工的に生成された信号に関係しているのかを推定する値を前記品質表示が示すように、例えば、品質表示を決定するように構成される。 In embodiments, upon receiving the input value of the first discriminator neural network, the first discriminator neural network determines that the input value of the first discriminator neural network is artificially generated. The quality indicator indicates the probability that the output value of the first discriminator neural network is related to the recorded audio signal rather than the recorded audio signal, or that the output value of the first discriminator neural network is related to the recorded signal or to an artificially generated signal. For example, the quality indicator is configured such that the quality indicator indicates a value for estimating whether the quality indicator is correct or not.

実施の形態によれば、第1のニューラルネットワーク125または第2のニューラルネットワーク135は、例えば、第1のディスクリミネーターニューラルネットワークによって決定された品質表示に依存する損失関数を使用し学習する。 According to embodiments, the first neural network 125 or the second neural network 135 is trained using, for example, a loss function that depends on the quality indication determined by the first discriminator neural network.

実施の形態において、損失関数は、例えば、ヒンジ損失、またはワッサースタイン距離、またはエントロピーベースの損失に依存する。 In embodiments, the loss function relies on, for example, a hinge loss, or a Wasserstein distance, or an entropy-based loss.

Figure 2023175767000004
Figure 2023175767000004

実施の形態において、損失関数は、(追加)Lp損失に依存する。 In an embodiment, the loss function depends on the (additional) Lp loss.

Figure 2023175767000005
Figure 2023175767000005

実施の形態において、第1のディスクリミネーターニューラルネットワークは、例えば、記録音声を使用して学習しうる。 In embodiments, the first discriminator neural network may be trained using recorded audio, for example.

実施の形態によれば、励起信号外挿部器130は、第2のニューラルネットワーク135を含み、第2のニューラルネットワーク135は、例えば、第2のニューラルネットワーク135の入力値として、狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成される、および/または、狭帯域音声入力信号である、および/または、前記狭帯域音声入力信号の整形バージョンである。第2のニューラルネットワーク135は、第2のニューラルネットワーク135の出力値として、複数の外挿された励起信号サンプルを決定するように、例えば、構成される。 According to embodiments, the excitation signal extrapolator 130 includes a second neural network 135 that receives, for example, a narrowband audio input as an input value of the second neural network 135. The signal is configured to receive a plurality of samples of an excitation signal and/or is a narrowband audio input signal and/or is a shaped version of said narrowband audio input signal. The second neural network 135 is configured, for example, to determine a plurality of extrapolated excitation signal samples as an output value of the second neural network 135.

実施の形態において、第2のニューラルネットワーク135の入力値は、例えば、狭帯域音声入力信号の励起信号の第1の複数の時間領域信号サンプルである、および/または、例えば、狭帯域音声入力信号である、および/または、例えば、狭帯域音声入力信号の整形バージョンでありうる。ここで、第2のニューラルネットワーク135は、複数の外挿された励起信号のサンプルが、狭帯域音声入力信号の励起信号に対して、帯域幅が拡張された拡張時間領域励起信号の第2の複数の時間領域信号のサンプルであるように第2のニューラルネットワーク135の出力値を決定するように、例えば、構成される。 In embodiments, the input values of the second neural network 135 are, for example, a first plurality of time-domain signal samples of an excitation signal of a narrowband audio input signal and/or, for example, a narrowband audio input signal. and/or may be, for example, a shaped version of a narrowband audio input signal. Here, the second neural network 135 determines that the plurality of extrapolated excitation signal samples is a second one of the extended time-domain excitation signal whose bandwidth has been expanded relative to the excitation signal of the narrowband audio input signal. For example, the output value of the second neural network 135 is configured to be determined to be a sample of a plurality of time-domain signals.

実施の形態によれば、第2のニューラルネットワーク135は、第2のディスクリミネーターニューラルネットワークを使用して、例えば、学習し、第2のニューラルネットワーク135の学習中は、第2のニューラルネットワーク135と第2のディスクリミネーターニューラルネットワークとは、第2の敵対的生成ネットワークとして動作するように構成される。第2のニューラルネットワーク135の学習中は、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの入力値として、第2ニューラルネットワーク135の出力値を受信されるように、例えば、構成される、または、第2のディスクリミネーターネットワークの入力値として、第2のニューラルネットワーク135の出力値から導出される導出値を受信するように、例えば、構成される。および/または、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの入力値として、コンバイナ140の出力値を受信するように、例えば、構成される。 According to embodiments, the second neural network 135 is trained using, for example, a second discriminator neural network, and during training of the second neural network 135, the second neural network 135 and the second discriminator neural network are configured to operate as a second generative adversarial network. During training of the second neural network 135, the second discriminator neural network is configured such that, for example, the output value of the second neural network 135 is received as the input value of the second discriminator neural network. , or configured to receive, as an input value of the second discriminator network, a derived value derived from the output value of the second neural network 135. and/or the second discriminator neural network is configured, for example, to receive the output value of the combiner 140 as an input value of the second discriminator neural network.

第2のディスクリミネーターニューラルネットワークの入力値を受信すると、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの出力として、第2のディスクリミネーターニューラルネットワークの入力値の第2の品質表示を決定するように、例えば、構成される;ここで、第2のニューラルネットワーク135は、第2の品質表示に依存して学習するように、例えば、構成される。 Upon receiving the input value of the second discriminator neural network, the second discriminator neural network selects the input value of the second discriminator neural network as an output of the second discriminator neural network. wherein the second neural network 135 is configured, for example, to learn in dependence on the second quality indication.

実施の形態において、装置は、狭帯域音声入力信号の信号包絡線の複数のサンプルおよび狭帯域音声入力信号の励起信号の複数のサンプルを狭帯域音声入力信号から生成するように構成される信号分析器110を、例えば、含む。 In embodiments, the apparatus includes a signal analyzer configured to generate from the narrowband audio input signal a plurality of samples of the signal envelope of the narrowband audio input signal and a plurality of samples of the excitation signal of the narrowband audio input signal. 110, for example.

実施の形態によれば、第1のニューラルネットワーク125は、1つ以上の畳み込みニューラルネットワークを、例えば、含む。 According to embodiments, first neural network 125 includes, for example, one or more convolutional neural networks.

実施の形態において、第1のニューラルネットワーク125は、1つ以上のディープニューラルネットワークを、例えば、含む。 In embodiments, first neural network 125 includes, for example, one or more deep neural networks.

次に、具体的な実施の形態について説明する。 Next, a specific embodiment will be described.

以下では、実施の形態によるDNNに基づく3つのBBWEについて説明する:2つは畳み込みアーキテクチャに基づいており、もう1つは畳み込みアーキテクチャと反復アーキテクチャの混合に基づいている。すべては、例えば、同じディスクリミネーター、同じ知覚損失、および同じ最適化アルゴリズムを使用して敵対的に学習することができる。第1のBBWEのアーキテクチャはWaveNet(登録商標)を参考にし、その他のアーキテクチャはLPCNetを参考にしている。まず、すべての生成ネットワークが提示され、すべてのシステムが同じディスクリミネーターを共有しているので、以下にそれを説明する。 In the following, three DNN-based BBWEs are described according to embodiments: two are based on convolutional architectures and one is based on a mix of convolutional and iterative architectures. All can be learned adversarially using, for example, the same discriminator, the same perceptual loss, and the same optimization algorithm. The architecture of the first BBWE is based on WaveNet (registered trademark), and the other architectures are based on LPCNet. First, all generation networks are presented, and all systems share the same discriminator, which is explained below.

最初に、実施の形態に記載される畳み込みBBWEが説明される。 First, the convolutional BBWE described in the embodiments will be explained.

このタスクのための第1のアーキテクチャ案は、畳み込みニューラルネットワーク(CNN)のスタックで、これは現在、GANの標準的な構成要素である。CNNを使うことで、特にGPUでの高速処理が可能になる。 The first architectural proposal for this task is a stack of convolutional neural networks (CNNs), which is currently a standard component of GANs. The use of CNN enables high-speed processing, especially on GPUs.

畳み込み生成モデルには、WaveNet(登録商標)のような構造を採用した。具体的には、20の層からなるスタックで、すべての層で、各層は33のカーネルサイズの因果的な畳み込み、およびソフトマックスゲートアクティベーション[45]を使用する。バイアスは省略している。これらの層の一つを図3に示す。 A WaveNet (registered trademark)-like structure was adopted as the convolutional generation model. Specifically, in a stack of 20 layers, in every layer, each layer uses causal convolution with a kernel size of 33, and softmax gate activation [45]. Bias is omitted. One of these layers is shown in FIG.

図3は、ソフトマックスゲートアクティベーション(softmax-gated activations)のCNN-GANの単層を示す。CNN層は、32個の入力チャネルと64個の出力チャネルを持つ1次元カーネルを有する。出力チャネルの半分はtanhアクティベーションに供給され、残りの半分はソフトマックスアクティベーションに供給される。残留接続は、勾配消滅を回避し、安定した効果的な学習を維持する。 FIG. 3 shows a single layer of CNN-GAN with softmax-gated activations. The CNN layer has a one-dimensional kernel with 32 input channels and 64 output channels. Half of the output channels are fed to tanh activation and the other half are fed to softmax activation. Residual connections avoid gradient vanishing and maintain stable and effective learning.

概説したように、各CNN層には32個の入力チャネルと64個の出力チャネルを有する。出力チャネルの半分はtanhアクティベーションに供給され、残りの半分はソフトマックスアクティベーションに供給される。各レイヤーの32個のチャネル出力を形成するために、両方のアクティベーションがチャネル次元で乗算される。このタイプのアクティベーションは、ReLUとシグモイドゲートアクティベーションの両方よりも、再構成アーティファクトに対してより堅牢である。 As outlined, each CNN layer has 32 input channels and 64 output channels. Half of the output channels are fed to tanh activation and the other half are fed to softmax activation. Both activations are multiplied by the channel dimension to form the 32 channel outputs of each layer. This type of activation is more robust to reconstruction artifacts than both ReLU and sigmoid gate activation.

追加の入力層は、1次元の入力信号を32次元の信号にマッピングし、追加の出力層は、32次元の信号を1次元の出力信号にマッピングする。 An additional input layer maps a 1-dimensional input signal to a 32-dimensional signal, and an additional output layer maps a 32-dimensional signal to a 1-dimensional output signal.

畳み込みカーネルの重みは、安定した学習動作を可能にするために、重みの正規化[46]を使用して正規化される。また、学習プロセスを高速化するために、CNN層からの出力機能にバッチ正規化を適用する。 The weights of the convolution kernel are normalized using weight normalization [46] to enable stable learning behavior. We also apply batch normalization to the output features from the CNN layer to speed up the learning process.

したがって、完全な畳み込み層は、バッチ正規化により続く因果的畳み込み、および最後にソフトマックスゲートアクティベーションで構成され、最終的な出力を取得する。勾配消失を回避し、安定した効果的な学習を維持するために、入力から出力への接続またはショートカットが存在する[47]。 Therefore, a complete convolutional layer consists of causal convolution followed by batch normalization and finally softmax gate activation to obtain the final output. Connections or shortcuts from inputs to outputs exist to avoid vanishing gradients and maintain stable and effective learning [47].

この畳み込みBBWEでは、モデルは時間領域の生の音声波形で実行される。入力信号は、最初に単純なSinc補間を使用してNBからWBにリサンプリングされ、次にジェネレーターモデルに供給される。ジェネレーターは、このアップサンプリングされた信号の元の帯域幅を確実に拡張して、明らかに高い知覚品質を備えた完全なWB構造を取得する。 In this convolutional BBWE, the model is run on the raw audio waveform in the time domain. The input signal is first resampled from NB to WB using simple Sinc interpolation and then fed to the generator model. The generator reliably extends the original bandwidth of this upsampled signal to obtain a complete WB structure with clearly higher perceptual quality.

このシステムはCNN-GANと呼ばれる。 This system is called CNN-GAN.

ここで、実施の形態によるLPC-GANについて説明する。 Here, LPC-GAN according to an embodiment will be explained.

特に、実施の形態による2つのシステムが提供されており、2つの面で畳み込みのものとは異なる:第1に、DNNのアーキテクチャが異なる。第2に、音声信号が励起信号と包絡線に分解される。これは、LPCNet[33]に基づくBBWEにヒントを得たものであるが、いくつかの実施の形態では、これを応用している。信号を励起と包絡線に分解する動機は、LPCnetに基づくBBWE[33]と同じで、システム全体の計算量を削減することにある。 In particular, two systems according to embodiments are provided that differ from convolutional ones in two ways: first, the architecture of the DNN differs. Second, the audio signal is decomposed into an excitation signal and an envelope. It is inspired by BBWE based on LPCNet [33], but some embodiments apply it. The motivation for decomposing the signal into excitation and envelope is the same as in LPCnet-based BBWE [33], which is to reduce the amount of computation of the entire system.

図4はシステムのブロック図を示し、図6は励起信号を拡張するDNN帯域幅の1つを詳細に示す。特に、図4は、音声信号を励振信号とLPC包絡線に分解することに基づく提案システムを示す。実線のパスはすべてサンプルで動作し、破線のパスはすべて15msのフレームで動作する。 FIG. 4 shows a block diagram of the system, and FIG. 6 shows in detail one of the DNN bandwidths extending the excitation signal. In particular, FIG. 4 shows the proposed system based on decomposing the audio signal into an excitation signal and an LPC envelope. All solid paths operate on samples, and all dashed paths operate on 15ms frames.

図4では、入力されたNB音声信号を、スペクトル包絡線を表すLPCと励起信号(別名:残差)に分離している。励起信号と入力信号は、WB励起信号への外挿のために最初のDNNに供給される。このパスは、ここでは実線で示されているサンプルで動作する。LPCは、上部のパスで第2のDNNを使ってWB包絡線に外挿される。このパスは15msのフレームで動作し、ここでは破線で示される。LPC係数はIIRフィルタ係数であり、外挿などの操作によってフィルタが不安定になる可能性があるため、LSFドメインで外挿される[48]。LSFは、いくつかの利点があるLPCの全単射変換(bijective transformation)である:第1に、ノイズの乱れに対する感度が低く、係数間の距離が最小のLSFの順序セットにより、常に安定したLPCフィルタが保証される。第2に、特定の周波数でのスペクトル包絡線は、LSFの1つにのみ依存するため、単一のLSF係数の誤った外挿は、主に限られた周波数範囲でのスペクトル包絡線に影響する。これらの特性は、WB包絡線を表すセットに外挿するのに適している。外挿されたLSF係数は、外挿された励起信号を形成するためにLPCドメインに変換され、出力信号を形成する。これは、学習と評価のためにさまざまな方法で実現される。 In FIG. 4, the input NB audio signal is separated into an LPC representing a spectral envelope and an excitation signal (also known as residual). The excitation signal and input signal are fed to the first DNN for extrapolation to the WB excitation signal. This path works on the sample shown here in solid line. The LPC is extrapolated to the WB envelope using the second DNN in the top pass. This path operates in 15ms frames and is shown here as a dashed line. LPC coefficients are IIR filter coefficients and are extrapolated in the LSF domain since operations such as extrapolation can destabilize the filter [48]. LSF is a bijective transformation of LPC that has several advantages: first, it is less sensitive to noise perturbations, and the ordered set of LSF with minimum distance between coefficients makes it always stable. LPC filter is guaranteed. Second, the spectral envelope at a particular frequency depends only on one of the LSFs, so incorrect extrapolation of a single LSF coefficient mainly affects the spectral envelope over a limited frequency range. do. These characteristics are suitable for extrapolation to a set representing the WB envelope. The extrapolated LSF coefficients are transformed to the LPC domain to form an extrapolated excitation signal and an output signal. This is accomplished in a variety of ways for learning and assessment.

LPC包絡線によって形成された外挿された励起信号は、出力WB信号を形成する。励振信号を外挿するDNNを学習する際には、LPCフィルタを介して勾配を伝搬させる必要があるが、これはLPCフィルタリングを追加のDNN層で行うことで実現できる。LPCフィルタは純粋なIIRフィルタなので、このDNN層はリカレントユニットを持つ層でなければならない。残念ながら、リカレント層を介して勾配を逆伝播すると、勾配が消失し(勾配消失問題[38]とも呼ばれる)、学習が不十分になる。この問題の解決策として、IIRフィルタからの切り捨てられたインパルス応答を計算することにより、IIRフィルタ係数がFIRフィルタ係数に変換される。信号処理から、無限インパルス応答を切り捨てることにより、任意のIIRフィルタをFIRフィルタで近似できることが知られている[34]。そして、LPCシェーピングを畳み込み層で実現することができる。図5は、64サンプルに切り捨てた場合の効果を示す。 The extrapolated excitation signal formed by the LPC envelope forms the output WB signal. When learning a DNN to extrapolate the excitation signal, it is necessary to propagate the gradient through an LPC filter, which can be achieved by performing LPC filtering with an additional DNN layer. Since the LPC filter is a pure IIR filter, this DNN layer must be a layer with recurrent units. Unfortunately, backpropagating the gradient through recurrent layers causes the gradient to vanish (also known as the vanishing gradient problem [38]), resulting in poor learning. As a solution to this problem, IIR filter coefficients are converted to FIR filter coefficients by calculating the truncated impulse response from the IIR filter. It is known from signal processing that any IIR filter can be approximated by a FIR filter by truncating the infinite impulse response [34]. Then, LPC shaping can be realized with a convolutional layer. Figure 5 shows the effect of truncating to 64 samples.

図5は、12次のIIR LPCフィルタと切り捨てられたインパルス応答から結果として生じるFIRフィルタの伝達関数を示す。 FIG. 5 shows the transfer function of the FIR filter resulting from a 12th order IIR LPC filter and a truncated impulse response.

IIR LPC包絡線は滑らかであるが、切り捨てられたFIR包絡線には多くのリップルがあり、高周波ではIIR包絡線にうまく追従しない。このため、切り捨てられたインパルス応答を計算する前に、LPC係数に指数関数が乗算される:

Figure 2023175767000006
The IIR LPC envelope is smooth, but the truncated FIR envelope has a lot of ripple and does not track the IIR envelope well at high frequencies. For this, before calculating the truncated impulse response, the LPC coefficients are multiplied by an exponential function:
Figure 2023175767000006

Figure 2023175767000007
Figure 2023175767000007

図5では、インパルス応答は64サンプルに切り捨てられている。緑のフィルタはIIRのLPC係数を式(4)で処理したもの、赤のフィルタは何も処理していないものである。 In FIG. 5, the impulse response has been truncated to 64 samples. The green filter is one in which the IIR LPC coefficient is processed using equation (4), and the red filter is one in which no processing is performed.

初期の実験では、FIR形状の信号にアーティファクトが含まれていることが示されており、アーティファクトはディスクリミネーターによって簡単に識別できる。その結果、敵対的な損失のバランスが取れておらず、ジェネレーターの学習訓練が不十分であった。これは、実際の生成された整形されていない励起信号の敵対的損失を計算することで解決できる。 Early experiments have shown that the FIR-shaped signal contains artifacts, which are easily identified by the discriminator. As a result, the adversarial losses were not balanced and the generator was poorly trained. This can be solved by calculating the adversarial loss of the actual generated unshaped excitation signal.

FIRフィルタによるLPCシェーピングは、学習時間中のみ行われる。評価時間中、勾配を逆伝播する必要がないため、LPC係数はIIRフィルタとして適用される。 LPC shaping by the FIR filter is performed only during the learning time. During the evaluation time, the LPC coefficients are applied as an IIR filter since there is no need to backpropagate the gradients.

励起信号の外挿には2つの異なるDNNが使用される。第1としては畳み込み層とリカレント層の混合に基づいており、第2としては畳み込みアーキテクチャのみに基づいている。第1については、図6に詳細を示す。 Two different DNNs are used for extrapolation of the excitation signal. The first is based on a mixture of convolutional and recurrent layers, and the second is based solely on convolutional architectures. Regarding the first, details are shown in FIG.

図6は、DNNが励起信号を外挿する構造を示したものである。括弧内の信号の形状は、バッチ次元を省略して与えられている。Tは入力信号の長さである。 FIG. 6 shows a structure in which the DNN extrapolates the excitation signal. The shape of the signal in parentheses is given with the batch dimension omitted. T is the length of the input signal.

Figure 2023175767000008
Figure 2023175767000008

最初のCNN層の目的は、1次元の時間領域の信号に特徴的な次元を追加することである。この特徴的な次元はGRU層で必要とされるもので、そうでなければGRUの行列は単純なベクトルに崩れてしまう。CNNは、通常チャンネルと呼ばれるカーネルを並行して動作させることで、特徴的な次元を追加する。その結果、CNN層とGRU層の互換性を保つために256個のチャンネルが必要となる。 The purpose of the first CNN layer is to add a characteristic dimension to the one-dimensional time-domain signal. This characteristic dimension is required in the GRU layer, otherwise the GRU matrix would collapse into a simple vector. CNNs add a distinctive dimension by running kernels, commonly called channels, in parallel. As a result, 256 channels are required to maintain compatibility between the CNN layer and the GRU layer.

これにより、計算が非常に複雑になる。これは、チャネルを各16個のチャネルの16個のグループに分割することで防ぐことができる。これは、16チャネルごとに16層を並列に配置するのと同じである。CNN層の構造(カーネルサイズ、ゲートアクティベーションなど)は、例えば、上記の畳み込みBBWEに関して説明したものと同じであり得る。第2のGRU層の出力にはまだ特徴的な次元があるため、カーネルサイズ1の単一の畳み込みカーネルで1次元信号に圧縮される。 This makes the calculations very complex. This can be prevented by dividing the channels into 16 groups of 16 channels each. This is equivalent to placing 16 layers in parallel for every 16 channels. The structure of the CNN layer (kernel size, gate activation, etc.) may be, for example, the same as described for the convolutional BBWE above. Since the output of the second GRU layer still has a characteristic dimension, it is compressed into a one-dimensional signal with a single convolution kernel with kernel size 1.

計算の複雑さの主な要因は、第1のGRUの行列にある。複雑さをさらに軽減するために、学習中にこれらの行列をスパースにすることができる[49]。 The main source of computational complexity lies in the first GRU matrix. To further reduce complexity, these matrices can be made sparse during training [49].

緻密な行列で初期の学習を繰り返した後、大きさの小さいブロックが特定され、強制的にゼロにされる。ブール行列は、これらのブロックのインデックスを格納する。学習を進めると、望ましいスパースネスが得られるまで、より多くのブロックをゼロにすることができる。[32]と同様に、16x1ブロックが使用されるが、すべての対角項も含まれる。行列に保存されている要素の最終的な割合は次のとおりである:

Figure 2023175767000009
After repeating the initial training with a dense matrix, small blocks are identified and forced to zero. A Boolean matrix stores the indices of these blocks. As training progresses, more blocks can be zeroed out until the desired sparsity is achieved. Similar to [32], 16x1 blocks are used, but all diagonal terms are also included. The final proportion of elements stored in the matrix is:
Figure 2023175767000009

インデックス作成のための計算オーバーヘッドを無視して、このスパース化スキームは、GRUの計算量を90%削減する。図7は、学習後のスパース行列の1つを示す。このシステムはLPC-RNN-GANと呼ばれる。 Ignoring the computational overhead for indexing, this sparsification scheme reduces GRU's computational complexity by 90%. FIG. 7 shows one of the sparse matrices after learning. This system is called LPC-RNN-GAN.

特に、図7は、スパース化後のGRUからの行列の1つを示す。 In particular, FIG. 7 shows one of the matrices from GRU after sparsification.

畳み込みアーキテクチャに基づくDNNは、Scで説明したものと同じ構造を持っているだけである。III-Aは3つの構造上の違いがある。第1に、CNNカーネルのサイズが17だけであること、第2に、結果として小さくなった受容野(receptive field)を補うために、このシステムではレイヤーごとに2の拡張係数を持つ拡張畳み込みを使用していることである。第3に、複雑さを軽減するために、このシステムでは、チャネル次元を4つのグループに分割することによって、上述のグループ化を利用する。さらに以下では、これにより、計算の複雑さを約3分の1に減らすことができることを示す。このシステムはLPC-CNN-GANと呼ばれる。 DNNs based on convolutional architectures only have the same structure as described in Sc. III-A has three structural differences. Firstly, the size of the CNN kernel is only 17, and secondly, to compensate for the resulting smaller receptive field, the system uses a dilated convolution with a dilation factor of 2 for each layer. It is what we are using. Third, to reduce complexity, the system takes advantage of the grouping described above by dividing the channel dimension into four groups. Furthermore, we show below that this can reduce the computational complexity by about a third. This system is called LPC-CNN-GAN.

LPC包絡線を外挿するDNNも、CNN層と、それに続くGRU層および最終的なCNN層の組み合わせである。CNN層には、カーネルサイズ3の2次元カーネルがあり、現在、過去、および将来のフレームで動作し、システム全体のアルゴリズム遅延の主な原因となる。 The DNN that extrapolates the LPC envelope is also a combination of a CNN layer, followed by a GRU layer and a final CNN layer. The CNN layer has a two-dimensional kernel with kernel size 3, which operates on current, past, and future frames, and is the main source of algorithmic delay for the entire system.

以下では、実施の形態によるディスクリミネーターについて説明する。 A discriminator according to an embodiment will be described below.

ディスクリミネーターは、入力信号の潜在的な表現を抽出する畳み込みエンコーダとして機能し、敵対的な損失を評価する。CNN-GAN、LPC-CNN-GAN、LPC-RNN-GANでは、敵対的な学習のために、畳み込み層で構成された同じディスクリミネーターのアーキテクチャを使用する。安定した敵対的学習は、ディスクリミネーター層(discriminator layers)の畳み込みカーネルにスペクトル正規化を適用することによって達成される[50]。この種の正規化は、リプシッツ条件をディスクリミネーターによって学習された関数に強制する。これは、効果的で安定した敵対的学習手法にとって重要であることがわかった。ディスクリミネーターは条件付き設定[51]で動作するため、入力信号には、チャネル次元に沿ってアップサンプリングされたNB音声波形と連結された実/偽のWB音声波形が含まれる。図8にそのディスクリミネーターを示す。6つの畳み込み層からなり、カーネルサイズは32、ストライドは2ステップである。バイアスは省略されている。アクティベーションには、0:2の負の傾きを持つLeaky ReLUを使用する。 The discriminator acts as a convolutional encoder that extracts the latent representation of the input signal and evaluates the adversarial loss. CNN-GAN, LPC-CNN-GAN, and LPC-RNN-GAN use the same discriminator architecture composed of convolutional layers for adversarial learning. Stable adversarial learning is achieved by applying spectral normalization to the convolution kernels of discriminator layers [50]. This kind of normalization forces the Lipschitz condition on the function learned by the discriminator. This was found to be important for an effective and stable adversarial learning method. The discriminator operates with conditional settings [51], so the input signal includes a real/false WB audio waveform concatenated with an upsampled NB audio waveform along the channel dimension. FIG. 8 shows the discriminator. It consists of 6 convolutional layers, the kernel size is 32, and the stride is 2 steps. Bias omitted. Leaky ReLU with a negative slope of 0:2 is used for activation.

特に、図8は、各層には2のストライドで動作する32個のサンプルのカーネルを有する6つの畳み込み層で構成されるGANディスクリミネーターネットワークを示す。層の中の数字は、各層の入力チャンネルと出力チャンネルの次元を表す。 In particular, FIG. 8 shows a GAN discriminator network consisting of six convolutional layers with a kernel of 32 samples operating with a stride of 2 in each layer. The numbers within the layers represent the dimensions of the input and output channels for each layer.

条件付け入力は時間領域NB音声であるため、ディスクリミネーターは、元の波形とは異なる波形で生成された音声を拒否する。BBWEに基づくLPCNetでは、後述するように、生成される波形に対する制約が少ない。生成された波形に対する制約が少ないGANを実現するために、入力として低次元の特徴表現を取得する第2のディスクリミネーターが評価される。特徴は、NB音声で計算されたメル周波数ケプストラム係数(MFCC)[52]である。このディスクリミネーターは、Lp損失がないことと相まって、元の波形とは異なる波形で生成されていない音声にペナルティを課す傾向がある。 Since the conditioning input is time-domain NB audio, the discriminator rejects audio generated with a different waveform than the original. LPCNet based on BBWE has fewer restrictions on generated waveforms, as will be described later. To achieve a GAN with fewer constraints on the generated waveforms, a second discriminator is evaluated that takes a low-dimensional feature representation as input. The feature is the Mel Frequency Cepstral Coefficient (MFCC) [52] calculated on NB speech. This discriminator, combined with the absence of Lp loss, tends to penalize speech that is not generated with a different waveform than the original.

ここで、学習の目的に関する考察が示される。 Here, a consideration regarding the purpose of learning is presented.

この作業で使用される敵対的なメトリックは、ヒンジ損失[53]である:

Figure 2023175767000010
ここで、D()はディスクリミネーターの生の出力である。Lim et. al.[53]は、最初のGAN論文[36]で用いられた損失やワッサースタイン距離(Wasserstein distance)[54]と比較して、ヒンジ損失はモード崩壊が少なく、より安定した学習挙動を示すことを示した。 The adversarial metric used in this work is the hinge loss [53]:
Figure 2023175767000010
Here, D() is the raw output of the discriminator. Lim et. al. [53] found that compared to the loss and Wasserstein distance [54] used in the first GAN paper [36], the hinge loss has less mode collapse and exhibits more stable learning behavior. Indicated.

提案されたシステムを使用した最初の実験では、ヒンジ損失が機能マッチングと同様に機能することが示されている。[30]、[25]ですでに観察されているように、敵対的損失は、サンプルと特徴で計算されたLpノルムによって修正できる。ここでは、時間領域のサンプルで計算されたL1ノルムと、特徴損失Lmelとして、対数のMelエネルギーで計算されたL2ノルムを使用する。ジェネレーターの総損失学習は次のとおりである:

Figure 2023175767000011
Initial experiments using the proposed system show that hinge loss performs similarly to feature matching. As already observed in [30], [25], the adversarial loss can be corrected by the Lp norm computed on the samples and features. Here, the L1 norm calculated using samples in the time domain and the L2 norm calculated using logarithmic Mel energy are used as the feature loss L mel . The total loss training of the generator is:
Figure 2023175767000011

以下では、実験のセットアップについて説明される。 In the following, the experimental setup is described.

学習素材として、公開されているいくつかの音声データベース[55]、[56]、[57]や、他の言語の音声アイテムを使用した。合計で13時間の学習素材が使用され、そのすべてがサンプリング周波数16kHzにリサンプリングされた。学習データの無音部分は、音声活性検出(voice-activatiion-detection)[58]を用いて除去した。NBの入力信号はAMR-NBで10.2kbpsで符号化された。目標とするクリーンな音声信号は、以下に示す一次フィルタEであらかじめ強調された。

Figure 2023175767000012
As learning materials, we used several publicly available audio databases [55], [56], [57] and audio items in other languages. A total of 13 hours of learning material was used, all of which was resampled to a sampling frequency of 16kHz. Silent parts of the training data were removed using voice-activation-detection [58]. The input signal of the NB was encoded with AMR-NB at 10.2 kbps. The target clean audio signal was previously enhanced with a first order filter E as shown below.
Figure 2023175767000012

逆(デエンファシス)フィルタDである

Figure 2023175767000013
が、生成された音声に適用された。この理由は、生成された音声の中で高周波数があまり強調されなくなる可能性のある音声のスペクトルの傾きを補正するためである。12次のLPC包絡線は、ハニング窓でウィンドウ化された128サンプルのフレームに対して、時間領域の自己相関を計算した後、レビンソン再帰を用いて抽出される。その後、上記のLPC-GANに関して説明したように、例えばFIRフィルタに変換される。DNNは、8項目のバッチで学習され、各項目には1秒の音声が含まれる。 is the inverse (de-emphasis) filter D.
Figure 2023175767000013
was applied to the generated audio. The reason for this is to correct for the spectral tilt of the voice, which may cause high frequencies to become less emphasized in the generated voice. The 12th order LPC envelope is extracted using Levinson recursion after calculating time domain autocorrelation for a frame of 128 samples windowed with a Hanning window. It is then converted into, for example, an FIR filter, as described for the LPC-GAN above. The DNN is trained in batches of 8 items, each item containing 1 second of audio.

ジェネレーターとディスクリミネーターの両方の最適化アルゴリズムはAdam[59]で、ジェネレーターの学習率は0.0001、ディスクリミネーターの学習率は0.0004である。より安定した敵対的損失のために、勾配とその二乗の移動平均を計算するために使用される係数(ベータパラメーター)は、それぞれ0.5と0.99に設定される。LPC-RNN-GANのRNN(上記のLPC-GANに関する説明を参照)は通常、CNNよりも学習が遅いため、ジェネレーターとディスクリミネーターの学習率は0.0001に設定される。ジェネレーターを学習するためのベータパラメーターは、0.7と0.99に設定される。式(10)の敵対的損失の量を制御する係数λは0.0015に設定される。GRU層のスパース化は160回目のバッチから始まり、10000回目のバッチで最終的なスパース化が達成される。すべてのCNN層は、学習を高速化し、ネットワークがモード崩壊に陥るのを防ぐために、バッチ正規化で学習される。 The optimization algorithm for both the generator and discriminator is Adam [59], where the learning rate of the generator is 0.0001 and the learning rate of the discriminator is 0.0004. For a more stable adversarial loss, the coefficients (beta parameters) used to calculate the moving average of the gradient and its square are set to 0.5 and 0.99, respectively. The learning rate of the generator and discriminator is set to 0.0001, since the RNN of LPC-RNN-GAN (see the discussion on LPC-GAN above) usually learns slower than CNN. The beta parameters for training the generator are set to 0.7 and 0.99. The coefficient λ that controls the amount of adversarial loss in equation (10) is set to 0.0015. Sparsification of the GRU layer starts from the 160th batch, and final sparsification is achieved at the 10000th batch. All CNN layers are trained with batch normalization to speed up training and prevent the network from falling into mode collapse.

LSFドメインのLPC係数を外挿する追加のフレームレートネットワークには、10個のCNN層があり、その後に単一のGRUと最後のCNN層が続く。初期のCNN層は、カーネルサイズ3x3、16チャネル、tanhアクティベーション関数、および残余接続を使用した2次元畳み込みである。GRUの行列サイズは16x16で、最終的な畳み込み層は5チャネルで、欠落しているLSF係数の数がNB LSF係数に連結されてWB LSF係数を形成する。 The additional frame rate network that extrapolates the LPC coefficients in the LSF domain has 10 CNN layers, followed by a single GRU and a final CNN layer. The initial CNN layer is a two-dimensional convolution with kernel size 3x3, 16 channels, tanh activation function, and residual connections. The matrix size of GRU is 16x16, the final convolution layer is 5 channels, and the number of missing LSF coefficients is concatenated with the NB LSF coefficients to form the WB LSF coefficients.

以下では、提示されたシステムを[33]のBBWEに基づくLCPNetと比較する。公開されているシステムとは対照的に、LPC包絡線の外挿に使用されるDNNは、ここでは敵対的に学習されている。このために、入力次元を適応させるだけで、同じディスクリミネーターのアーキテクチャが使用されている。 In the following, we compare the presented system with the BBWE-based LCPNet of [33]. In contrast to the published systems, the DNN used for extrapolation of the LPC envelope is here adversarially trained. For this, the same discriminator architecture is used, only adapting the input dimensions.

すべてのDNNは、パイトーチ(PyTorch)[60]を用いて実装され、学習された。 All DNNs were implemented and trained using PyTorch [60].

以下では、評価の観点から検討する。実施の形態に基づいて提供されるシステムは、客観的な尺度とリスニングテストによる主観的な尺度によって、以前に発表されたシステムと比較される。計算の複雑さの推定値が与えられ、最先端の音声コーディング技術と比較される。客観的および主観的なテストは、提案されたシステムが以前の技術よりも実質的に優れた品質を提供することを示す。実施の形態によるシステムは、音声認識システムの単語誤り率(Word Error Rate)を低減することが示される。 Below, we will discuss this from an evaluation perspective. The systems provided in accordance with the embodiments are compared to previously published systems by objective measures and subjective measures by listening tests. Computational complexity estimates are given and compared to state-of-the-art speech coding techniques. Objective and subjective tests show that the proposed system provides substantially better quality than previous techniques. Systems according to embodiments are shown to reduce the Word Error Rate of speech recognition systems.

提示されたBBWEの知覚的品質は、これまでスピーチの品質にアクセスするために使用されてきた客観的尺度と、リスニングテストによる主観的尺度によって評価される。さらに、アルゴリズムの遅延と計算の複雑さは、BBWEごとに与えられる。客観的な結果と主観的な結果の相関関係は、主観的な評価を予測するのに十分な力があるかどうかを調べる。 The perceptual quality of the presented BBWE is evaluated by objective measures that have been used to date to access the quality of speech, as well as subjective measures by listening tests. Furthermore, the algorithm delay and computational complexity are given for each BBWE. Examine whether correlations between objective and subjective outcomes have sufficient power to predict subjective ratings.

計算の複雑さに関して、提案されたBBWEの計算の複雑さは、音声サンプルごとの1秒あたりのWMOPS(Weighted Million Operations per Second)の推定値である。WMOPSは、標準化された音声処理ツールの計算の複雑さ[61]を計算するためのITUユニットである。加算(ADD)、乗算(MUL)、および積和(MAC)演算は、それぞれ1つの演算としてカウントされるが、tanh、シグモイド、またはソフトマックス演算などの複雑な演算は、それぞれ25の演算としてカウントされる。以下では、音声サンプルごとに数値が計算される。この数値にサンプリング頻度を乗じて、WMOPSの推定値を計算する。これは、今日の並列処理アーキテクチャの利点を考慮していない大まかな概算と見なす必要がある。結果は、最先端の標準化された音声コーデックであるEVS[2]、[62]の計算の複雑さとともに表1に要約される。 Regarding computational complexity, the computational complexity of the proposed BBWE is an estimate of Weighted Million Operations per Second (WMOPS) per audio sample. WMOPS is an ITU unit for calculating the computational complexity of standardized speech processing tools [61]. Addition (ADD), multiplication (MUL), and multiply-accumulate (MAC) operations each count as one operation, while complex operations such as tanh, sigmoid, or softmax operations count as 25 operations each. be done. Below, a numerical value is calculated for each audio sample. This value is multiplied by the sampling frequency to calculate the estimated value of WMOPS. This should be considered a rough approximation that does not take into account the benefits of today's parallel processing architectures. The results are summarized in Table 1 along with the computational complexity of EVS [2], [62], a state-of-the-art standardized audio codec.

特に、表1は、いくつかの実施の形態、LPCNet-BBWE[33]およびEVS[2]、[62]による提供されたシステムの計算の複雑さおよびアルゴリズムの遅延を示す(EVSは、最先端の標準化された音声コーデックである。)。WMOPSは、計算の複雑さを計算するためのITU標準[61]であり、16kHzのサンプリング周波数で計算される。 In particular, Table 1 shows the computational complexity and algorithmic delay of the systems provided by several embodiments, LPCNet-BBWE [33] and EVS [2], [62] (EVS is the state-of-the-art ) is a standardized audio codec. WMOPS is an ITU standard for calculating computational complexity [61] and is calculated at a sampling frequency of 16 kHz.

Figure 2023175767000014
Figure 2023175767000014

Figure 2023175767000015
Figure 2023175767000015

LPC-RNN-GANおよびLPC-CNN-GANの計算の複雑さについて:上記のLPC-GANに関して述べたように、このシステムには、1次元信号を256チャネルに分割する初期CNN層がある。これらの層は上記と同じCNN層であるが、チャネルが上記のLPC-GANに関して説明したブロックにグループ化されている点が異なる。ここでは、合計256チャネルが各16チャネルの16ブロックにグループ化されている。これは、16個のチャネルを並列に持つ16個のCNN層を持つことと同じである。 Regarding the computational complexity of LPC-RNN-GAN and LPC-CNN-GAN: As mentioned above for LPC-GAN, this system has an initial CNN layer that divides the one-dimensional signal into 256 channels. These layers are the same CNN layers as above, except that the channels are grouped into blocks as described for LPC-GAN above. Here, a total of 256 channels are grouped into 16 blocks of 16 channels each. This is equivalent to having 16 CNN layers with 16 channels in parallel.

単一の音声サンプルに対する1つのRNN層の動作は、式(5)で示される。ここでは、Miを入力次元、Mhを出力(または隠れ)次元とする。そして、リセットゲートとアップデートゲート(式の最初の2行)の計算には、それぞれMi*Mh*2のMAC演算とMhのシグモイド演算が必要である。新しいゲート(式の3行目)には、Mi*Mh*2+MhのMAC演算とMhタンジェント双曲線演算(tangents hyperbolicus operations)が必要である。最後に、出力(最後の行)には、Mh*2のMAC演算が必要である。最初の大きなGRU層では、スパース化された行列を使用するため(上記のLPC-GANに関する説明を参照)、演算は縮小された行列サイズで計算される。追加のアドレス指定演算(addressing-operations)によるオーバーヘッドは無視される。第1のGRUでは、すべての行列はMi=Mh=256の正方であり、第2のGRUではMi=256およびMh=32である。 The operation of one RNN layer for a single audio sample is shown in equation (5). Here, M i is the input dimension and M h is the output (or hidden) dimension. Then, calculation of the reset gate and update gate (first two lines of the equation) requires M i *M h *2 MAC operations and M h sigmoid operations, respectively. The new gate (line 3 of the equation) requires M i *M h *2+M h MAC operations and M h tangents hyperbolic operations. Finally, the output (last row) requires M h *2 MAC operations. The first large GRU layer uses a sparsified matrix (see discussion on LPC-GAN above), so operations are computed with a reduced matrix size. Overhead due to additional addressing-operations is ignored. In the first GRU, all matrices are square with M i =M h =256, and in the second GRU M i =256 and M h =32.

最後のCNN層は、出力次元を合計するだけで、32回のADD演算が必要である。LPC-CNN-GANの計算上の複雑さは、上記のように、並列に、チャネル次元がわずか8のこのようなネットワークを4つ持つものとして計算される。 The final CNN layer requires 32 ADD operations just to sum the output dimensions. The computational complexity of the LPC-CNN-GAN is calculated as having four such networks with channel dimensions of only 8 in parallel, as described above.

評価時には、LPCフィルタは12タップのIIRフィルタとして適用され、1サンプルあたり12回のMAC演算が必要となる。LPCからLSF係数への変換、およびその逆の変換はここでは無視される。なぜなら、これらの変換はフレームベースで行われ、全体的な複雑さへの寄与は小さいと予想されるためである。上記の表1は、使用されたパラメーター化を使用した演算の数をまとめたものである。 During evaluation, the LPC filter is applied as a 12-tap IIR filter, requiring 12 MAC operations per sample. Conversion from LPC to LSF coefficients and vice versa is ignored here. This is because these transformations are performed on a frame-by-frame basis and their contribution to the overall complexity is expected to be small. Table 1 above summarizes the number of operations with the parameterizations used.

アルゴリズム遅延に関して、アルゴリズム遅延は、音声サンプルのブロック処理によって引き起こされる、入力音声と処理された出力音声との間のミリ秒単位の理論上の遅延である。CPUまたはGPUの時間は考慮されない。数値は上記の表1に要約される。 Regarding algorithm delay, algorithm delay is the theoretical delay in milliseconds between input audio and processed output audio caused by block processing of audio samples. CPU or GPU time is not considered. The numbers are summarized in Table 1 above.

Figure 2023175767000016
Figure 2023175767000016

LPC-RNN-GANとLPC-CNN-GANに関して、これらのシステムのアルゴリズム遅延の原因は、初期畳み込み層とLPC処理である。GRU層は、いかなるアルゴリズム遅延を発生させない。4つの畳み込み層のカーネルサイズは16タブで、将来のサンプルで16タブが計算されるため、4ミリ秒の遅延が発生する。したがって、ウィンドウ化された自己相関関数に起因するLPC処理のアルゴリズム遅延は15ミリ秒である。このブロック処理は畳み込み層から独立しているため、システム全体のアルゴリズム遅延の合計は15ミリ秒である。LPC-CNN-GANは、CNN-GANの半分のサイズで拡張が2のカーネルを使用するため、CNN-GANと同じアルゴリズム遅延がある。 Regarding LPC-RNN-GAN and LPC-CNN-GAN, the source of algorithm delay in these systems is the initial convolutional layer and LPC processing. The GRU layer does not introduce any algorithmic delays. The kernel size of the four convolutional layers is 16 tabs, and 16 tabs are computed in future samples, resulting in a 4 ms delay. Therefore, the algorithmic delay in LPC processing due to the windowed autocorrelation function is 15 ms. Since this block processing is independent of the convolutional layer, the total algorithmic delay for the entire system is 15 ms. LPC-CNN-GAN uses a kernel that is half the size of CNN-GAN and has an extension of 2, so it has the same algorithm delay as CNN-GAN.

人間の聴取者によるリスニングテストは、(たとえば、客観的な)知覚品質を評価するための究極の基盤であるが、実施するにはかなりの努力を必要とする。客観的な指標は、簡単に使える代替手段である。ここでは、知覚客観的リスニング品質分析(Perceptual Objective Listening Quality Analysis)、フレシェディープスピーチ距離(Fr´echet Deep Speech Distance)、単語誤り率(Word Error Rate)、および短時間客観的了解度測定(Short-Time Objective Intelligibility measure)の4つの異なる測定が使用される。単語誤り率を除くすべての測定値は、学習セットの一部ではない、約1時間の多言語の複数話者データベースで計算される。 Listening tests with human listeners are the ultimate basis for assessing (e.g., objective) perceptual quality, but require considerable effort to perform. Objective indicators are an easy-to-use alternative. Here, Perceptual Objective Listening Quality Analysis, Fr´echet Deep Speech Distance, Word Error Rate, and Short Time Objective intelligibility measurement (Short Four different measurements are used: - Time Objective Intelligibility measure). All measurements except word error rate are computed on an approximately 1 hour multilingual, multi-speaker database that is not part of the training set.

知覚客観的リスニング品質分析(POLQA)は、リスニングテストで使用されるのと同じ平均オピニオンスケール(MOS)で符号化された音声信号の知覚品質を予測することを目的とした標準化された方法である[63]。推定結果は図9にまとめられており、LPC-RNN-GANが最高の評価を達成し、次にCNN-GANが続くことを示す。 Perceptual Objective Listening Quality Analysis (POLQA) is a standardized method aimed at predicting the perceived quality of audio signals encoded with the same Mean Opinion Scale (MOS) used in listening tests. [63]. The estimation results are summarized in Fig. 9, showing that LPC-RNN-GAN achieves the highest evaluation, followed by CNN-GAN.

特に、図9は、95%信頼区間でのさまざまなBBWEの知覚客観的リスニング品質分析(POLQA)を示す。値が大きいほど品質が良いことを意味する。 In particular, FIG. 9 shows the Perceived Objective Listening Quality Analysis (POLQA) of various BBWEs with 95% confidence intervals. A larger value means better quality.

GANによって生成された音声や画像の品質を評価することは、難しい課題である。典型的な使用例では、GANはノイズからアイテムを生成するので、比較する基準がないため、Lpノルムに基づくメトリクスは使用できない。 Assessing the quality of audio and images generated by GANs is a difficult challenge. In typical use cases, GANs generate items from noise, so metrics based on the Lp norm cannot be used because there is no standard to compare them to.

Figure 2023175767000017
Figure 2023175767000017

Figure 2023175767000018
Figure 2023175767000018

図10は、さまざまなBBWEのフレシェディープスピーチ距離(FDSD)を示す。値が小さいほど品質が高くなる。 FIG. 10 shows the Fréchet deep speech distance (FDSD) of various BBWEs. The smaller the value, the higher the quality.

単語誤り率に関しては、BBWEは知覚品質を改善するだけでなく、音声の明瞭度[5]、[6]、さらには自動音声認識(ASR)システムのパフォーマンスも改善できる。最先端のASRシステムは、固定サンプリング周波数(主に16kHz)の音声で学習されたDNNに基づく。その結果、音声がNBコーデックでコーディングされている場合、このようなシステムのパフォーマンスは大幅に低下する。最先端のASRシステムの単語誤り率(WER)に対するAMR-NBを使用した音声コーディングの影響と、BBWEがこの影響をどのように軽減できるかを評価する。ここで使用されているASRシステムは、一般的な音声多言語音声コーパス[70]で学習されたコネクショニスト時分類(CTC)損失[69]を備えたディープスピーチシステム[68]に基づくRNNのMozillaのオープン実装である。評価は、このデータベースの評価セットに対して行われる。WERメトリックは、文字起こしされた音声の単語レベルで評価され、次のように計算される:

Figure 2023175767000019
ここで、Sは置換数、Dは削除数、Iは挿入数、Cは転写の正しい単語の数である。 Regarding word error rate, BBWE can not only improve perceptual quality but also speech intelligibility [5], [6] and even the performance of automatic speech recognition (ASR) systems. State-of-the-art ASR systems are based on DNNs trained on audio with a fixed sampling frequency (mainly 16 kHz). As a result, the performance of such systems is significantly degraded if the audio is coded with the NB codec. We evaluate the impact of speech coding using AMR-NB on the word error rate (WER) of state-of-the-art ASR systems and how BBWE can alleviate this impact. The ASR system used here is a Mozilla RNN based deep speech system [68] with a connectionist time classification (CTC) loss [69] trained on a general spoken multilingual speech corpus [70]. It is an open implementation. The evaluation is performed against the evaluation set of this database. The WER metric is evaluated at the word level of the transcribed audio and is calculated as follows:
Figure 2023175767000019
Here, S is the number of substitutions, D is the number of deletions, I is the number of insertions, and C is the number of correct words in the transcription.

図11は、さまざまなBBWEの単語誤り率(WER)と文字誤り率(CER)を示す。値が小さいほどパフォーマンスが高いことを意味する。特に、図11は、AMR-NBとさまざまなBBWEのASRパフォーマンスを、WERと同様に計算されるが、単語レベルではなく文字レベルで計算される文字誤り率(CER)とともに示す。 FIG. 11 shows the word error rate (WER) and character error rate (CER) for various BBWEs. A smaller value means higher performance. In particular, FIG. 11 shows the ASR performance of AMR-NB and various BBWEs, along with Character Error Rate (CER), which is calculated similarly to WER, but at the character level instead of the word level.

表2は、最もパフォーマンスの低いアイテムの1つの例を示す。興味深いことに、コード化されていないアイテムの方が平均して良い結果を出しているが、データベースからAMR-NBコード化されたアイテムを使った場合、0:6よりも悪い結果を出す異常値はない。BBWEで処理されたアイテムは、平均WERを改善するが、WERが8:0以上の異常値も生成する。 Table 2 shows an example of one of the worst performing items. Interestingly, uncoded items perform better on average, but when using AMR-NB coded items from the database, outliers perform worse than 0:6. There isn't. Items processed with BBWE improve average WER, but also produce outliers with WER greater than 8:0.

Figure 2023175767000020
Figure 2023175767000020

短時間客観的了解度測定(STOI)に関して、短時間客観的了解度測定(STOI)は、クリーンな時間エネルギー包絡線とBBWE処理された音声サブバンドとの間の線形相関係数の推定値として定義される。これらのサブバンドは、音声信号を50%オーバーラップした256サンプルの長さのハニング窓付きフレームに分割から得られ、各フレームを512サンプルまでゼロパディングしてフーリエ変換した時間-周波数表現に基づいて計算される。15の1/3オクターブバンドは、DFTビンを平均することによって計算される。 Regarding the short-term objective intelligibility measurement (STOI), the short-term objective intelligibility measurement (STOI) is calculated as an estimate of the linear correlation coefficient between the clean temporal energy envelope and the BBWE-processed speech subband. defined. These subbands are derived from dividing the audio signal into Hanning-windowed frames of 256 samples length with 50% overlap, zero-padded each frame to 512 samples, and based on a Fourier-transformed time-frequency representation. calculated. The 15 1/3 octave bands are calculated by averaging the DFT bins.

もともと、この測定値は、10kHzのサンプリング周波数でサンプリングされた音声で計算される。WB音声の品質を評価しているため、この測定値は16kHzに拡張される。 Originally, this measurement was calculated on audio sampled at a sampling frequency of 10 kHz. Since we are evaluating the quality of WB audio, this measurement is extended to 16kHz.

図12は、提示されたシステムの結果を示す。 Figure 12 shows the results of the presented system.

特に、図12は、提示されたシステムの短時間客観的了解度測定(STOI)を示す。値が小さいほど、品質が低くなることを意味する。 In particular, FIG. 12 shows a short-term objective intelligibility measurement (STOI) of the proposed system. The smaller the value, the lower the quality.

この測定値によると、LPC-RNN-GANが最も優れた性能を発揮し、次いでLPC-CNN-GANとなる。 According to this measurement, LPC-RNN-GAN exhibits the best performance, followed by LPC-CNN-GAN.

以下では、主観的な知覚品質について検討する。 Below, we will consider subjective perceived quality.

提案されたシステムの知覚的品質を最終的に判断するために、MUSHRAリスニングテスト[71]が実施された。MUSHRAの方法論によれば、テストアイテムには、そのようにマークされた参照、非表示の参照、およびアンカーとして機能するAMR-NBコード化信号が含まれる。12人の経験豊富なリスナーがテストに参加した。テストで使用されるスピーチ項目は約10秒の長さであり、学習の一部でもテストセットでもない。アイテムは、中国語、英語、フランス語、ドイツ語、スペイン語のネイティブスピーカーによる音声を収録している。その結果を、アイテムごとに図13に、全アイテムを平均して図14に、平均値と95%信頼区間を示した箱ひげ図で示した。図15に結果を棒グラフで示す。 To finally judge the perceptual quality of the proposed system, the MUSHRA listening test [71] was conducted. According to the MUSHRA methodology, test items include references marked as such, hidden references, and AMR-NB coded signals that serve as anchors. Twelve experienced listeners participated in the test. The speech items used in the test are approximately 10 seconds long and are not part of the training or test set. The items include audio from native speakers of Chinese, English, French, German, and Spanish. The results are shown in FIG. 13 for each item, and in FIG. 14 for the average of all items, as a boxplot showing the average value and 95% confidence interval. The results are shown in a bar graph in FIG.

特に、図13は、アイテムごとに95%の信頼区間を持つ箱ひげ図としてさまざまなBBWEを評価するリスニングテストの結果を示す。 In particular, Figure 13 shows the results of a listening test assessing various BBWEs as boxplots with 95% confidence intervals for each item.

図14は、さまざまなBBWEを評価したリスニングテストの結果を、すべてのアイテムで平均した95%信頼区間を持つ棒グラフで示す。 Figure 14 shows the results of a listening test assessing various BBWEs in a bar graph with 95% confidence intervals averaged across all items.

図15は、さまざまなBBWEを評価したリスニングテストの結果を、各ユーザーからの評価をウォームプロットで示す。 FIG. 15 shows the results of a listening test in which various BBWEs were evaluated, and the evaluations from each user are shown in a warm plot.

CNN-feat-condとしてマークされたシステムは、ディスクリミネーターに関して上記で説明した機能に基づいた条件付き入力を持つディスクリミネーターで学習されたCNN-GANである。L1損失も学習目標から削除される。 The system marked as CNN-feat-cond is a CNN-GAN trained with a discriminator with conditional inputs based on the features described above for the discriminator. L1 loss is also removed from the learning objectives.

結果は、提示されたすべてのシステムが、すべてのアイテムのAMR-NB音声の品質を大幅に向上させることを示す。CNN-feat-condを除いて、提示されたシステムはどれも他のシステムよりも大幅に優れているものはない。傾向的に最良のシステムはLPC-CNN-GANであり、これもCNN-feat-condシステムよりも大幅に優れている。 The results show that all the presented systems significantly improve the quality of AMR-NB audio for all items. With the exception of CNN-feat-cond, none of the presented systems significantly outperforms the others. The best system tends to be LPC-CNN-GAN, which also significantly outperforms the CNN-feat-cond system.

単一のアイテムの結果を調べると、品質はアイテムにかなり依存していることがわかる。LPC-CNN-GANは、常に最高のパフォーマンスを発揮するシステムとは限らない。スペインの女性、ドイツの女性、男性の2つのアイテムの場合、LPCNetベースのシステムが最高のパフォーマンスを発揮する。中国の男性アイテムの場合、LPC-RNN-GANが最高のパフォーマンスを発揮し、スペインの男性アイテムの場合、CNN-GANが最高のパフォーマンスを発揮する。CNN-GANは、ノイズの多いアーティファクトが最も少ないことがよくあるが、摩擦音をうまく再構築できないことがよくある。 Examining the results for single items reveals that quality is highly item dependent. LPC-CNN-GAN is not always the best performing system. For the two items Spanish women, German women, and men, the LPCNet-based system performs best. For Chinese male items, LPC-RNN-GAN performs best, and for Spanish male items, CNN-GAN performs best. CNN-GANs often have the least noisy artifacts, but often fail to reconstruct fricatives well.

LPCNetベースのシステムでは、品質のばらつきが特に大きくなる。このシステムでは、非常に高い品質が得られる一方で、クリック感やピッチの不安定さなどの深刻なアーティファクトが発生することがある。一方、GANベースのシステムは、このような深刻なアーティファクトの影響を受けないが、広帯域のクラックリングノイズの影響を受ける。LPCNetベースのシステム、および場合によっては機能調整ベースのシステムは、両方のシステムが生成された波形に課す制約が少ないため、音声の特性を変更する。MUSHRAテストでは、参照が与えられていない絶対カテゴリー評価(ACR)テストなどのさまざまなテスト方法のように、これによりスコアが低くなる可能性がある。 Quality variations are particularly large in LPCNet-based systems. While this system provides very high quality, it can introduce severe artifacts such as clicks and pitch instability. GAN-based systems, on the other hand, are not susceptible to such severe artifacts, but suffer from broadband crackling noise. LPCNet-based systems, and in some cases feature adjustment-based systems, change the characteristics of the audio because both systems place fewer constraints on the generated waveforms. In the MUSHRA test, this can lead to lower scores, as in various test methods such as the Absolute Category Rating (ACR) test where no references are given.

客観的尺度が主観的評価をどの程度反映しているかを確認するために、リスニングテストのMOS値との相関を調べる。公正な比較のために、すべての測定値はゼロ平均と標準偏差に正規化される。FDSD、WER、CERは、より良い品質の推定値に対して低い値を与えるため、これらの値は最初に否定される。 In order to confirm the extent to which objective measures reflect subjective evaluations, we examine the correlation with MOS values of listening tests. For fair comparison, all measurements are normalized to zero mean and standard deviation. FDSD, WER, and CER give lower values for better quality estimates, so these values are initially negated.

図16に正規化された値を示し、表3に相関値を示す。 FIG. 16 shows the normalized values, and Table 3 shows the correlation values.

特に、図16は正規化された客観的測定値と主観的測定値を示す。 In particular, FIG. 16 shows normalized objective and subjective measurements.

Figure 2023175767000021
Figure 2023175767000021

STOIがMOS値と最も高い相関を示し、次にPOLQA、WER、CER.WERが続くが、リスニングテストの結果と同じ次数を持つ唯一の測定値であることがわかる。WER値とFDSD値の違いは奇妙である。なぜなら、どちらの測定値も、同様のネットワーク(DeepSpeechとDeepSpeech 2)の出力に基づいているためである。 STOI showed the highest correlation with MOS value, followed by POLQA, WER, CER. WER follows and turns out to be the only measurement with the same order as the listening test results. The difference between WER and FDSD values is strange. This is because both measurements are based on the output of similar networks (DeepSpeech and DeepSpeech 2).

BBWEを実行するための2つの基本的な異なるアプローチ、つまりGANモデルと自己回帰モデルが比較された。どちらのアプローチも、時間領域の音声の分布など、複雑なデータ分布をモデル化できる生成モデルに依存しており、どちらのアプローチも平滑化の問題に悩まされることはない。 Two fundamentally different approaches for performing BBWE were compared: the GAN model and the autoregressive model. Both approaches rely on generative models that can model complex data distributions, such as the distribution of speech in the time domain, and neither approach suffers from smoothing problems.

どちらのアプローチも、WaveNet(登録商標)[35]のような最先端のモデルと比較して、計算の複雑さが中程度である。 Both approaches have moderate computational complexity compared to state-of-the-art models such as WaveNet® [35].

LPCNetに基づくBBWEは、計算の複雑さが最も低いモデルである。複雑さが軽減された主な理由は、このモデルが生成された波形に与える制約が少ないことである。LPCNetによって生成される波形は、元の波形とは大きく異なる可能性があるが、GANに基づくBBWEは、条件付けと敵対的損失およびL1損失との混合により、元の波形を維持する。残念ながら、条件付けを機能条件付けに変更し、L1損失を削除しても、生成される音声の品質は向上しなかった。 BBWE based on LPCNet is the model with the lowest computational complexity. The main reason for the reduced complexity is that this model imposes fewer constraints on the generated waveforms. The waveform generated by LPCNet can be significantly different from the original waveform, but GAN-based BBWE maintains the original waveform due to conditioning and mixing with adversarial and L1 losses. Unfortunately, changing the conditioning to functional conditioning and removing the L1 loss did not improve the quality of the speech produced.

LPC-RNN-GANとLPC-CNN-GANは、励起信号の外挿に使用されるDNNが異なる。前者はCNNとRNNの混合に基づいており、後者はCNNのみを使用する。 LPC-RNN-GAN and LPC-CNN-GAN differ in the DNN used for extrapolation of the excitation signal. The former is based on a mixture of CNN and RNN, while the latter uses only CNN.

両方のDNNの計算の複雑さはほぼ同じである。パフォーマンスに大きな違いはないが、LPC-CNN-GANのパフォーマンスは傾向的に優れている。さらに、CNNの学習時間は短く、ハイパーパラメータの調整にはそれほど影響を受けない。LPC-RNN-GANは、GAN学習のコンテキストで初めてスパース化を正常に適用する。 The computational complexity of both DNNs is approximately the same. Although there is no big difference in performance, the performance of LPC-CNN-GAN tends to be superior. Furthermore, the training time of CNN is short and is not very sensitive to hyperparameter tuning. LPC-RNN-GAN successfully applies sparsification for the first time in the context of GAN learning.

リスニングテストの結果を客観的な測定値と相関させると、あいまいな結果が得られる。[66]の著者は、FDSD測定が敵対的に生成された音声の品質を推定するのにうまく機能していることを示したが、ここでは提示されたシステム間の小さな違いにアクセスできない。主観的な結果と最もよく相関する尺度は、STOIおよびWERの尺度である。 Correlating listening test results with objective measurements yields ambiguous results. The authors of [66] showed that FDSD measurements work well for estimating the quality of adversarially generated speech, but here small differences between the systems presented are not accessible. The measures that best correlate with subjective outcomes are the STOI and WER measures.

これまでいくつかの側面を装置の文脈で説明してきたが、これらの側面は対応する方法の説明でもあり、ブロックまたは装置が方法のステップまたは方法のステップの特徴に対応していることは明らかである。同様に、方法ステップの文脈で記述された側面は、対応する装置の対応するブロックまたはアイテムまたは機能の記述でもある。方法ステップのいくつかまたはすべては、例えば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路などのハードウェア装置によって(または使用して)実行され得る。いくつかの実施の形態では、1つまたは複数の最も重要な方法ステップは、そのような装置によって実行され得る。 Although some aspects have been described so far in the context of devices, these aspects are also descriptions of corresponding methods, and it is clear that the blocks or devices correspond to method steps or features of method steps. be. Similarly, aspects described in the context of method steps are also descriptions of corresponding blocks or items or functions of the corresponding apparatus. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, programmable computer, or electronic circuit. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

特定の実装要件に応じて、本発明の実施の形態は、ハードウェアまたはソフトウェアで、あるいは少なくとも部分的にハードウェアで、または少なくとも部分的にソフトウェアで実装することができる。実装は、例えば、フロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROM、FLASHメモリなどのデジタル記憶媒体であって、その上に格納された電子的に読み取り可能な制御信号を有し、それぞれの方法が実行されるようなプログラム可能なコンピュータシステムと協働する(または協働可能な)デジタル記憶媒体を用いて行うことができる。したがって、デジタル記憶媒体は、コンピュータで読み取り可能であり得る。 Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or software, or at least partially in hardware or at least partially in software. The implementation is, for example, a digital storage medium, such as a floppy disk, DVD, Blu-ray, CD, ROM, PROM, EPROM, EEPROM, FLASH memory, having electronically readable control signals stored thereon. , can be performed using a digital storage medium that cooperates (or is cooperable) with a programmable computer system on which the respective method is executed. Thus, a digital storage medium may be computer readable.

本発明によるいくつかの実施の形態は、電子的に読み取り可能な制御信号を有するデータキャリアであって、本明細書に記載されている方法の1つが実行されるように、プログラム可能なコンピュータシステムと協働することができるデータキャリアを含む。 Some embodiments according to the invention are a data carrier having an electronically readable control signal, the data carrier being a programmable computer system such that one of the methods described herein is carried out. including data carriers that can cooperate with

一般に、本発明の実施の形態は、プログラムコードを備えたコンピュータ・プログラム製品として実施することができ、プログラムコードは、コンピュータ・プログラム製品がコンピュータ上で実行されるときに、方法の1つを実行するために動作可能である。プログラムコードは、例えば、機械読み取り可能なキャリアに格納することができる。 Generally, embodiments of the invention may be implemented as a computer program product comprising program code, the program code being configured to perform one of the methods when the computer program product is executed on a computer. is operable to do so. The program code may be stored on a machine-readable carrier, for example.

他の実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムを、機械読み取り可能なキャリアに格納したものである。 Other embodiments have a computer program for performing one of the methods described herein stored on a machine-readable carrier.

言い換えれば、本発明の方法の実施の形態は、したがって、本明細書に記載された方法の1つを実行するためのプログラムコードを有するコンピュータ・プログラムであって、そのコンピュータ・プログラムがコンピュータ上で実行される場合のものである。 In other words, an embodiment of the method of the invention is therefore a computer program having a program code for carrying out one of the methods described herein, the computer program being executed on a computer. This is the case when it is executed.

したがって、本発明の方法のさらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムをその上に記録したデータキャリア(またはデジタル記憶媒体、またはコンピュータ読み取り可能な媒体)である。データキャリア、デジタル記憶媒体、または記録媒体は、通常、有形および/または非一時的なものである。 A further embodiment of the method of the invention therefore provides a data carrier (or digital storage medium, or computer readable medium). A data carrier, digital storage medium or recording medium is typically tangible and/or non-transitory.

したがって、本発明の方法のさらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、例えば、インターネットなどのデータ通信接続を介して伝送されるように構成され得る。 A further embodiment of the method of the invention is therefore a sequence of data streams or signals representing a computer program for carrying out one of the methods described herein. The data stream or sequence of signals may be configured to be transmitted over a data communications connection, such as the Internet, for example.

さらなる実施の形態は、本明細書に記載された方法の1つを実行するように構成された、または適応された、例えばコンピュータ、またはプログラム可能な論理装置などの処理手段を備える。 Further embodiments comprise processing means, such as a computer or a programmable logic device, configured or adapted to carry out one of the methods described herein.

さらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムをその上にインストールしたコンピュータを備える。 A further embodiment comprises a computer having a computer program installed thereon for performing one of the methods described herein.

本発明によるさらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムを受信機に伝送(例えば、電子的または光学的に)するように構成された装置またはシステムを備える。受信機は、例えば、コンピュータ、モバイル機器、記憶装置などである。本装置またはシステムは、例えば、コンピュータ・プログラムを受信機に伝送するためのファイルサーバを構成し得る。 A further embodiment according to the invention provides an apparatus configured to transmit (e.g. electronically or optically) to a receiver a computer program for performing one of the methods described herein. Or have a system. The receiver is, for example, a computer, mobile device, storage device, etc. The device or system may constitute, for example, a file server for transmitting computer programs to a receiver.

いくつかの実施の形態では、本明細書に記載されている方法の一部またはすべての機能性を実行するために、プログラム可能な論理デバイス(例えば、フィールドプログラマブルゲートアレイ)を使用することができる。いくつかの実施の形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法の1つを実行するために、マイクロプロセッサと協働することができる。一般に、これらの方法は、好ましくは、任意のハードウェア装置によって実行される。 In some embodiments, programmable logic devices (e.g., field programmable gate arrays) can be used to perform the functionality of some or all of the methods described herein. . In some embodiments, a field programmable gate array can cooperate with a microprocessor to perform one of the methods described herein. Generally, these methods are preferably performed by any hardware device.

本明細書に記載されている装置は、ハードウェア装置を使用しても、コンピュータを使用しても、あるいはハードウェア装置とコンピュータの組み合わせを使用しても実装することができる。 The apparatus described herein can be implemented using hardware devices, computers, or a combination of hardware devices and computers.

本明細書に記載されている方法は、ハードウェア装置を使用しても、コンピュータを使用しても、またはハードウェア装置とコンピュータの組み合わせを使用しても実行できる。 The methods described herein can be performed using a hardware device, a computer, or a combination of a hardware device and a computer.

上述した実施の形態は、本発明の原理を例示したものに過ぎない。本明細書に記載の配置および詳細の改良および変形は、当業者には明らかであることが理解される。したがって、本明細書では、差し迫った特許請求の範囲によってのみ制限され、本実施の形態の説明と解説によって提示された特定の詳細によっては制限されないことを意図する。 The embodiments described above are merely illustrative of the principles of the invention. It is understood that modifications and variations in the arrangements and details described herein will be apparent to those skilled in the art. It is the intention, therefore, herein to be limited only by the scope of the appended claims and not by the specific details presented in the description and discussion of the embodiments.

参照文献
[1] International Telecommunication Union, "Pulse code modulation (pcm) of voice frequencies," ITU-T Recommendation G.711, November 1988.

[2] S. Bruhn, H. Pobloth, M. Schnell, B. Grill, J. Gibbs, L. Miao, K. Jaervinen, L. Laaksonen, N. Harada, N. Naka, S. Ragot, S. Proust, T. Sanda, I. Varga, C. Greer, M. Jelinek, M. Xie, and P. Usai, "Standardization of the new 3GPP EVS codec," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 5703-5707. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7179064

[3] S. Disch, A. Niedermeier, C. R. Helmrich, C. Neukam, K. Schmidt, R. Geiger, J. Lecomte, F. Ghido, F. Nagel, and B. Edler, "Intelligent gap filling in perceptual transform coding of audio," in Audio Engineering Society Convention 141, Los Angeles, Sep 2016. [Online]. Available: http://www.aes.org/e-lib/browse.cfm?elib=18465

[4] 3GPP, "TS 26.090, Mandatory Speech Codec speech processing functions; Adaptive Multi-Rate (AMR) speech codec; Transcoding functions," 1999.

[5] P. Bauer, R. Fischer, M. Bellanova, H. Puder, and T. Fingscheidt, "On improving telephone speech intelligibility for hearing impaired persons," in Proceedings of the 10. ITG Conference on Speech Communication, Braunschweig, Germany, September 26-28, 2012, 2012, pp. 1-4. [Online]. Available: http://ieeexplore.ieee.org/document/6309632/

[6] P. Bauer, J. Jones, and T. Fingscheidt, "Impact of hearing impairment on fricative intelligibility for artificially bandwidth-extended telephone speech in noise," in IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2013, Vancouver, BC, Canada, May 26-31, 2013, 2013, pp. 7039-7043. [Online]. Available: https://doi.org/10.1109/ICASSP.2013.6639027

[7] J. Abel, M. Kaniewska, C. Guillaume, W. Tirry, H. Pulakka, V. Myllylae, J. Sjoberg, P. Alku, I. Katsir, D. Malah, I. Cohen, M. A. T. Turan, E. Erzin, T. Schlien, P. Vary, A. H. Nour-Eldin, P. Kabal, and T. Fingscheidt, "A subjective listening test of six different artificial bandwidth extension approaches in english, chinese, german, and korean," in 2016 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2016, Shanghai, China, March 20-25, 2016, 2016, pp. 5915-5919. [Online]. Available: https://doi.org/10.1109/ICASSP.2016.7472812

[8] K. Schmidt and B. Edler, "Blind bandwidth extension based on convolutional and recurrent deep neural networks," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5444-5448.

[9] K. Schmidt, "Neubildung von unterdrueckten Sprachfrequenzen durch ein nichtlinear verzerrendes Glied," Dissertation, Techn. Hochsch. Berlin, 1933.

[10] M. Schroeder, "Recent progress in speech coding at bell telephone laboratories," in Proceedings of the third international congress on acoustics, Stuttgart, 1959.

[11] Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol. 86, no. 11, pp. 2278-2324, Nov 1998.

[12] C. Ledig, L. Theis, F. Huszar, J. Caballero, A. P. Aitken, A. Tejani, J. Totz, Z. Wang, and W. Shi, "Photo-realistic single image super-resolution using a generative adversarial network," CoRR, vol. abs/1609.04802, 2016. [Online]. Available: http://arxiv.org/abs/1609.04802

[13] X. Li, V. Chebiyyam, and K. Kirchhoff, "Speech audio super-resolution for speech recognition," in Interspeech 2019, 20th Annual Conference of the International Speech Communication Association, Graz, Austria, September 15-19, 2019, 09 2019.

[14] P. Jax and P. Vary, "Wideband extension of telephone speech using a hidden markov model," in 2000 IEEE Workshop on Speech Coding. Proceedings., 2000, pp. 133-135.

[15] K. Schmidt and B. Edler, "Deep neural network based guided speech bandwidth extension," in Audio Engineering Society Convention 147, Oct 2019. [Online]. Available: http://www.aes.org/e-lib/browse.cfm? elib=20627

[16] H. Carl and U. Heute, "Bandwidth enhancement of narrow-band speech signals," in Signal Processing VII: Theories and Applications: Proceedings of EUSIPCO-94 Seventh European Signal Processing Conference, September 1994, pp. 1178-1181.

[17] H. Pulakka and P. Alku, "Bandwidth extension of telephone speech using a neural network and a filter bank implementation for highband mel spectrum," IEEE Trans. Audio, Speech & Language Processing, vol. 19, no. 7, pp. 2170-2183, 2011. [Online]. Available: https://doi.org/10.1109/TASL.2011.2118206

[18] K. Li and C. Lee, "A deep neural network approach to speech bandwidth expansion," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 4395-4399. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7178801

[19] P. Bauer, J. Abel, and T. Fingscheidt, "Hmm-based artificial bandwidth extension supported by neural networks," in 14th International Workshop on Acoustic Signal Enhancement, IWAENC 2014, Juan-les-Pins, France, September 8-11, 2014, 2014, pp. 1-5. [Online]. Available: https://doi.org/10.1109/IWAENC.2014.6953304

[20] J. Sautter, F. Faubel, M. Buck, and G. Schmidt, "Artificial bandwidth extension using a conditional generative adversarial network with discriminative training," in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 7005-7009.

[21] J. Abel, M. Strake, and T. Fingscheidt, "A simple cepstral domain dnn approach to artificial speech bandwidth extension," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5469-5473.

[22] J. Abel and T. Fingscheidt, "Artificial speech bandwidth extension using deep neural networks for wideband spectral envelope estimation," IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 26, no. 1, pp. 71-83, 2018.

[23] Z. Ling, Y. Ai, Y. Gu, and L. Dai, "Waveform modeling and generation using hierarchical recurrent neural networks for speech bandwidth extension," IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 26, no. 5, pp. 883-894, May 2018.

[24] A. Gupta, B. Shillingford, Y. M. Assael, and T. C. Walters, "Speech bandwidth extension with wavenet," ArXiv, vol. abs/1907.04927, 2019.

[25] S. Kim and V. Sathe, "Bandwidth extension on raw audio via generative adversarial networks," 2019.

[26] Y. Dong, Y. Li, X. Li, S. Xu, D. Wang, Z. Zhang, and S. Xiong, "A time-frequency network with channel attention and non-local modules for artificial bandwidth extension," in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 6954-6958.

[27] J. Makhoul and M. Berouti, "High-frequency regeneration in speech coding systems," in ICASSP '79. IEEE International Conference on Acoustics, Speech, and Signal Processing, April 1979, pp. 428-431.

[28] N. Kalchbrenner, E. Elsen, K. Simonyan, S. Noury, N. Casagrande, E. Lockhart, F. Stimberg, A. van den Oord, S. Dieleman, and K. Kavukcuoglu, "Efficient neural audio synthesis," CoRR, vol. abs/1802.08435, 2018. [Online]. Available: http://arxiv.org/abs/1802. 08435

[29] S. Li, S. Villette, P. Ramadas, and D. J. Sinder, "Speech bandwidth extension using generative adversarial networks," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5029-5033.

[30] S. E. Eskimez, K. Koishida, and Z. Duan, "Adversarial training for speech super-resolution," IEEE Journal of Selected Topics in Signal Processing, vol. 13, no. 2, pp. 347-358, 2019.

[31] X. Hao, C. Xu, N. Hou, L. Xie, E. S. Chng, and H. Li, "Time-domain neural network approach for speech bandwidth extension," in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 866-870.

[32] J. Valin and J. Skoglund, "Lpcnet: Improving neural speech synthesis through linear prediction," in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 5891-5895.

[33] K. Schmidt and B. Edler, "Blind bandwidth extension of speech based on lpcnet," in 2020 28th European Signal Processing Conference (EUSIPCO).

[34] L. Rabiner and R. Schafer, Digital Processing of Speech Signals. Englewood Cliffs: Prentice Hall, 1978.

[35] A. van den Oord, S. Dieleman, H. Zen, K. Simonyan, O. Vinyals, A. Graves, N. Kalchbrenner, A. W. Senior, and K. Kavukcuoglu, "Wavenet: A generative model for raw audio," in The 9th ISCA Speech Synthesis Workshop, Sunnyvale, CA, USA, 13-15 September 2016, 2016, p. 125.

[36] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio, "Generative adversarial networks," 2014.

[37] Y. Gu and Z. Ling, "Waveform modeling using stacked dilated convolutional neural networks for speech bandwidth extension," in Interspeech 2017, 18th Annual Conference of the International Speech Communication Association, Stockholm, Sweden, August 20-24, 2017, 2017, pp. 1123-1127. [Online]. Available: http: //www.isca-speech.org/archive/Interspeech 2017/abstracts/0336.html

[38] S. Hochreiter and J. Schmidhuber, "Long short-term memory," Neural Computation, vol. 9, no. 8, pp. 1735-1780, 1997. [Online]. Available: https://doi.org/10.1162/neco.1997.9.8.1735

[39] Y. Gu, Z. Ling, and L. Dai, "Speech bandwidth extension using bottleneck features and deep recurrent neural networks," in Interspeech 2016, 17th Annual Conference of the International Speech Communication Association, San Francisco, CA, USA, September 8-12, 2016, 2016, pp. 297-301. [Online]. Available: https://doi.org/10.21437/ Interspeech.2016-678

[40] J. Chung, C. Guelcehre, K. Cho, and Y. Bengio, "Empirical evaluation of gated recurrent neural networks on sequence modeling," NIPS Deep Learning workshop, Montreal, Canada, 2014. [Online]. Available: http://arxiv.org/abs/1412.3555

[41] A. van den Oord, N. Kalchbrenner, O. Vinyals, L. Espeholt, A. Graves, and K. Kavukcuoglu, "Conditional image generation with pixelcnn decoders," CoRR, vol. abs/1606.05328, 2016. [Online]. Available: http://arxiv.org/abs/1606.05328

[42] W. B. Kleijn, F. S. C. Lim, A. Luebs, J. Skoglund, F. Stimberg, Q. Wang, and T. C. Walters, "Wavenet based low rate speech coding," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 676-680.

[43] Z. Jin, A. Finkelstein, G. J. Mysore, and J. Lu, "Fftnet: A real-time speaker-dependent neural vocoder," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 2251-2255.

[44] J.-M. Valin and J. Skoglund, "A real-time wideband neural vocoder at 1.6 kb/s using lpcnet," ArXiv, vol. abs/1903.12087, 2019.

[45] A. Mustafa, A. Biswas, C. Bergler, J. Schottenhamml, and A. Maier, "Analysis by Adversarial Synthesis - A Novel Approach for Speech Vocoding," in Proc. Interspeech, 2019, pp. 191-195. [Online]. Available: http://dx.doi.org/10.21437/Interspeech.2019-1195

[46] T. Salimans and D. P. Kingma, "Weight normalization: A simple reparameterization to accelerate training of deep neural networks," in Advances in NeurIPS, 2016, pp. 901-909.

[47] K. He, X. Zhang, S. Ren, and J. Sun, "Deep residual learning for image recognition," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 770-778.

[48] Yao Tianren, Xiang Juanjuan, and Lu Wei, "The computation of line spectral frequency using the second chebyshev polynomials," in 6th International Conference on Signal Processing, 2002., vol. 1, Aug 2002, pp. 190-192 vol.1.

[49] N. Kalchbrenner, E. Elsen, K. Simonyan, S. Noury, N. Casagrande, E. Lockhart, F. Stimberg, A. van den Oord, S. Dieleman, and K. Kavukcuoglu, "Efficient neural audio synthesis," 2018.

[50] T. Miyato, T. Kataoka, M. Koyama, and Y. Yoshida, "Spectral normalization for generative adversarial networks," 2018.

[51] M. Mirza and S. Osindero, "Conditional generative adversarial nets," ArXiv, vol. abs/1411.1784, 2014.

[52] A. Salman, E. Muhammad, and K. Khurshid, "Speaker verification using boosted cepstral features with gaussian distributions," in 2007 IEEE International Multitopic Conference, 2007, pp. 1-5. [53] J. H. Lim and J. C. Ye, "Geometric gan," 2017.

[54] M. Arjovsky, S. Chintala, and L. Bottou, "Wasserstein gan," 2017.

[55] C. Veaux, J. Yamagishi, and K. Macdonald, "Cstr vctk corpus: English multi-speaker corpus for cstr voice cloning toolkit," 2017.

[56] V. Panayotov, G. Chen, D. Povey, and S. Khudanpur, "Librispeech: An ASR corpus based on public domain audio books," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 5206-5210. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7178964

[57] M. Soloducha, A. Raake, F. Kettler, and P. Voigt, "Lombard speech database for german language," in Proc. DAGA 2016 Aachen, 03 2016.

[58] "Webrtc vad v2.0.10," https://webrtc.org.

[59] D. P. Kingma and J. Ba, "Adam: A method for stochastic optimization," CoRR, vol. abs/1412.6980, 2014.

[60] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen, Z. Lin, N. Gimelshein, L. Antiga, A. Desmaison, A. Kopf, E. Yang, Z. DeVito, M. Raison, A. Tejani, S. Chilamkurthy, B. Steiner, L. Fang, J. Bai, and S. Chintala, "Pytorch: An imperative style, high-performance deep learning library," in Advances in Neural Information Processing Systems 32, H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alche-Buc, E. Fox, and R. Garnett, Eds. Curran Associates, Inc., 2019, pp. 8024-8035. [Online]. Available: http://papers.neurips.cc/paper/9015-pytorch-an-imperative-style-high-performance-deep-learning-library.pdf

[61] ITU-T Study Group 12, Software tools for speech and audio coding standardization, Geneva, 2005.

[62] G. T. 26.445, "EVS codec; detailed algorithmic description; technical specification, release 12," Sep. 2014.

[63] ITU-T Study Group 12, P.863 : Perceptual objective listening quality prediction, Geneva, 2018.

[64] M. Heusel, H. Ramsauer, T. Unterthiner, B. Nessler, G. Klambauer, and S. Hochreiter, "Gans trained by a two time-scale update rule converge to a nash equilibrium," CoRR, vol. abs/1706.08500, 2017. [Online]. Available: http://arxiv.org/abs/1706.08500

[65] T. Salimans, I. Goodfellow, W. Zaremba, V. Cheung, A. Radford,X. Chen, and X. Chen, "Improved techniques for training gans," in Advances in Neural Information Processing Systems, D. Lee, M. Sugiyama, U. Luxburg, I. Guyon, and R. Garnett, Eds., vol. 29. Curran Associates, Inc., 2016, pp. 2234-2242. [Online]. Available: https://proceedings.neurips.cc/paper/2016/file/8a3363abe792db2d8761d6403605aeb7-Paper.pdf

[66] M. Binkowski, J. Donahue, S. Dieleman, A. Clark, E. Elsen, N. Casagrande, L. C. Cobo, and K. Simonyan, "High fidelity speech synthesis with adversarial networks," CoRR, vol. abs/1909.11646, 2019. [Online]. Available: http://arxiv.org/abs/1909.11646

[67] D. Amodei, R. Anubhai, E. Battenberg, C. Case, J. Casper, B. Catanzaro, J. Chen, M. Chrzanowski, A. Coates, G. Diamos, E. Elsen, J. H. Engel, L. Fan, C. Fougner, T. Han, A. Y. Hannun, B. Jun, P. LeGresley, L. Lin, S. Narang, A. Y. Ng, S. Ozair, R. Prenger, J. Raiman, S. Satheesh, D. Seetapun, S. Sengupta, Y. Wang, Z. Wang, C. Wang, B. Xiao, D. Yogatama, J. Zhan, and Z. Zhu, "Deep speech 2: End-to-end speech recognition in english and mandarin," CoRR, vol. abs/1512.02595, 2015. [Online]. Available: http://arxiv.org/abs/1512.02595

[68] A. Y. Hannun, C. Case, J. Casper, B. Catanzaro, G. Diamos, E. Elsen, R. Prenger, S. Satheesh, S. Sengupta, A. Coates, and A. Y. Ng, "Deep speech: Scaling up end-to-end speech recognition," CoRR, vol. abs/1412.5567, 2014. [Online]. Available: http://arxiv.org/abs/1412.5567

[69] A. Graves, S. Fernandez, and F. Gomez, "Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks," in In Proceedings of the International Conference on Machine Learning, ICML 2006, 2006, pp. 369-376.

[70] R. Ardila, M. Branson, K. Davis, M. Henretty, M. Kohler, J. Meyer, R. Morais, L. Saunders, F. M. Tyers, and G. Weber, "Common voice: A massively-multilingual speech corpus," CoRR, vol. abs/1912.06670, 2019. [Online]. Available: http://arxiv.org/abs/1912.06670

[71] ITU-R, Recommendation BS.1534-1 Method for subjective assessment of intermediate sound quality (MUSHRA), Geneva, 2003.
References
[1] International Telecommunication Union, "Pulse code modulation (pcm) of voice frequencies," ITU-T Recommendation G.711, November 1988.

[2] S. Bruhn, H. Pobloth, M. Schnell, B. Grill, J. Gibbs, L. Miao, K. Jaervinen, L. Laaksonen, N. Harada, N. Naka, S. Ragot, S. Proust , T. Sanda, I. Varga, C. Greer, M. Jelinek, M. Xie, and P. Usai, "Standardization of the new 3GPP EVS codec," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 5703-5707. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7179064

[3] S. Disch, A. Niedermeier, CR Helmrich, C. Neukam, K. Schmidt, R. Geiger, J. Lecomte, F. Ghido, F. Nagel, and B. Edler, “Intelligent gap filling in perceptual transform coding of audio," in Audio Engineering Society Convention 141, Los Angeles, Sep 2016. [Online]. Available: http://www.aes.org/e-lib/browse.cfm?elib=18465

[4] 3GPP, "TS 26.090, Mandatory Speech Codec speech processing functions; Adaptive Multi-Rate (AMR) speech codec; Transcoding functions," 1999.

[5] P. Bauer, R. Fischer, M. Bellanova, H. Puder, and T. Fingscheidt, "On improving telephone speech intelligibility for hearing impaired persons," in Proceedings of the 10. ITG Conference on Speech Communication, Braunschweig, Germany, September 26-28, 2012, pp. 1-4. [Online]. Available: http://ieeexplore.ieee.org/document/6309632/

[6] P. Bauer, J. Jones, and T. Fingscheidt, "Impact of hearing impairment on fricative intelligibility for artificially bandwidth-extended telephone speech in noise," in IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2013, Vancouver, BC, Canada, May 26-31, 2013, pp. 7039-7043. [Online]. Available: https://doi.org/10.1109/ICASSP.2013.6639027

[7] J. Abel, M. Kaniewska, C. Guillaume, W. Tirry, H. Pulakka, V. Myllylae, J. Sjoberg, P. Alku, I. Katsir, D. Malah, I. Cohen, MAT Turan, E. Erzin, T. Schlien, P. Vary, AH Nour-Eldin, P. Kabal, and T. Fingscheidt, "A subjective listening test of six different artificial bandwidth extension approaches in english, chinese, german, and korean," in 2016 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2016, Shanghai, China, March 20-25, 2016, 2016, pp. 5915-5919. [Online]. Available: https://doi.org/10.1109/ ICASSP.2016.7472812

[8] K. Schmidt and B. Edler, "Blind bandwidth extension based on convolutional and recurrent deep neural networks," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5444-5448.

[9] K. Schmidt, "Neubildung von unterdrueckten Sprachfrequenzen durch ein nichtlinear verzerrendes Glied," Dissertation, Techn. Hochsch. Berlin, 1933.

[10] M. Schroeder, "Recent progress in speech coding at bell telephone laboratories," in Proceedings of the third international congress on acoustics, Stuttgart, 1959.

[11] Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol. 86, no. 11, pp. 2278-2324, Nov 1998.

[12] C. Ledig, L. Theis, F. Huszar, J. Caballero, AP Aitken, A. Tejani, J. Totz, Z. Wang, and W. Shi, “Photo-realistic single image super-resolution using a generative adversarial network," CoRR, vol. abs/1609.04802, 2016. [Online]. Available: http://arxiv.org/abs/1609.04802

[13] X. Li, V. Chebiyyam, and K. Kirchhoff, "Speech audio super-resolution for speech recognition," in Interspeech 2019, 20th Annual Conference of the International Speech Communication Association, Graz, Austria, September 15-19, 2019, 09 2019.

[14] P. Jax and P. Vary, "Wideband extension of telephone speech using a hidden markov model," in 2000 IEEE Workshop on Speech Coding. Proceedings., 2000, pp. 133-135.

[15] K. Schmidt and B. Edler, "Deep neural network based guided speech bandwidth extension," in Audio Engineering Society Convention 147, Oct 2019. [Online]. Available: http://www.aes.org/e- lib/browse.cfm? elib=20627

[16] H. Carl and U. Heute, "Bandwidth enhancement of narrow-band speech signals," in Signal Processing VII: Theories and Applications: Proceedings of EUSIPCO-94 Seventh European Signal Processing Conference, September 1994, pp. 1178-1181 .

[17] H. Pulakka and P. Alku, "Bandwidth extension of telephone speech using a neural network and a filter bank implementation for highband mel spectrum," IEEE Trans. Audio, Speech & Language Processing, vol. 19, no. 7, pp. 2170-2183, 2011. [Online]. Available: https://doi.org/10.1109/TASL.2011.2118206

[18] K. Li and C. Lee, "A deep neural network approach to speech bandwidth expansion," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24 , 2015, 2015, pp. 4395-4399. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7178801

[19] P. Bauer, J. Abel, and T. Fingscheidt, "Hmm-based artificial bandwidth extension supported by neural networks," in 14th International Workshop on Acoustic Signal Enhancement, IWAENC 2014, Juan-les-Pins, France, September. 8-11, 2014, 2014, pp. 1-5. [Online]. Available: https://doi.org/10.1109/IWAENC.2014.6953304

[20] J. Sautter, F. Faubel, M. Buck, and G. Schmidt, "Artificial bandwidth extension using a conditional generative adversarial network with discriminative training," in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 7005-7009.

[21] J. Abel, M. Strake, and T. Fingscheidt, "A simple cepstral domain dnn approach to artificial speech bandwidth extension," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp .5469-5473.

[22] J. Abel and T. Fingscheidt, "Artificial speech bandwidth extension using deep neural networks for wideband spectral envelope estimation," IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 26, no. 1, pp. 71-83, 2018.

[23] Z. Ling, Y. Ai, Y. Gu, and L. Dai, "Waveform modeling and generation using hierarchical recurrent neural networks for speech bandwidth extension," IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. . 26, no. 5, pp. 883-894, May 2018.

[24] A. Gupta, B. Shillingford, YM Assael, and TC Walters, "Speech bandwidth extension with wavenet," ArXiv, vol. abs/1907.04927, 2019.

[25] S. Kim and V. Sathe, "Bandwidth extension on raw audio via generative adversarial networks," 2019.

[26] Y. Dong, Y. Li, X. Li, S. Xu, D. Wang, Z. Zhang, and S. Xiong, “A time-frequency network with channel attention and non-local modules for artificial bandwidth extension ," in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 6954-6958.

[27] J. Makhoul and M. Berouti, "High-frequency regeneration in speech coding systems," in ICASSP '79. IEEE International Conference on Acoustics, Speech, and Signal Processing, April 1979, pp. 428-431.

[28] N. Kalchbrenner, E. Elsen, K. Simonyan, S. Noury, N. Casagrande, E. Lockhart, F. Stimberg, A. van den Oord, S. Dieleman, and K. Kavukcuoglu, “Efficient neural audio synthesis," CoRR, vol. abs/1802.08435, 2018. [Online]. Available: http://arxiv.org/abs/1802. 08435

[29] S. Li, S. Villette, P. Ramadas, and DJ Sinder, "Speech bandwidth extension using generative adversarial networks," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5029-5033.

[30] SE Eskimez, K. Koishida, and Z. Duan, "Adversarial training for speech super-resolution," IEEE Journal of Selected Topics in Signal Processing, vol. 13, no. 2, pp. 347-358, 2019.

[31] X. Hao, C. Xu, N. Hou, L. Xie, ES Chng, and H. Li, "Time-domain neural network approach for speech bandwidth extension," in ICASSP 2020 - 2020 IEEE International Conference on Acoustics , Speech and Signal Processing (ICASSP), 2020, pp. 866-870.

[32] J. Valin and J. Skoglund, "Lpcnet: Improving neural speech synthesis through linear prediction," in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 5891-5895 .

[33] K. Schmidt and B. Edler, "Blind bandwidth extension of speech based on lpcnet," in 2020 28th European Signal Processing Conference (EUSIPCO).

[34] L. Rabiner and R. Schafer, Digital Processing of Speech Signals. Englewood Cliffs: Prentice Hall, 1978.

[35] A. van den Oord, S. Dieleman, H. Zen, K. Simonyan, O. Vinyals, A. Graves, N. Kalchbrenner, AW Senior, and K. Kavukcuoglu, “Wavenet: A generative model for raw audio ," in The 9th ISCA Speech Synthesis Workshop, Sunnyvale, CA, USA, 13-15 September 2016, 2016, p. 125.

[36] IJ Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio, "Generative adversarial networks," 2014.

[37] Y. Gu and Z. Ling, "Waveform modeling using stacked dilated convolutional neural networks for speech bandwidth extension," in Interspeech 2017, 18th Annual Conference of the International Speech Communication Association, Stockholm, Sweden, August 20-24, 2017 , 2017, pp. 1123-1127. [Online]. Available: http: //www.isca-speech.org/archive/Interspeech 2017/abstracts/0336.html

[38] S. Hochreiter and J. Schmidhuber, "Long short-term memory," Neural Computation, vol. 9, no. 8, pp. 1735-1780, 1997. [Online]. Available: https://doi. org/10.1162/neco.1997.9.8.1735

[39] Y. Gu, Z. Ling, and L. Dai, "Speech bandwidth extension using bottleneck features and deep recurrent neural networks," in Interspeech 2016, 17th Annual Conference of the International Speech Communication Association, San Francisco, CA, USA. , September 8-12, 2016, pp. 297-301. [Online]. Available: https://doi.org/10.21437/ Interspeech.2016-678

[40] J. Chung, C. Guelcehre, K. Cho, and Y. Bengio, "Empirical evaluation of gated recurrent neural networks on sequence modeling," NIPS Deep Learning workshop, Montreal, Canada, 2014. [Online]. Available: http://arxiv.org/abs/1412.3555

[41] A. van den Oord, N. Kalchbrenner, O. Vinyals, L. Espeholt, A. Graves, and K. Kavukcuoglu, "Conditional image generation with pixelcnn decoders," CoRR, vol. abs/1606.05328, 2016. [ Online]. Available: http://arxiv.org/abs/1606.05328

[42] WB Kleijn, FSC Lim, A. Luebs, J. Skoglund, F. Stimberg, Q. Wang, and TC Walters, "Wavenet based low rate speech coding," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 676-680.

[43] Z. Jin, A. Finkelstein, GJ Mysore, and J. Lu, "Fftnet: A real-time speaker-dependent neural vocoder," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 2251-2255.

[44] J.-M. Valin and J. Skoglund, "A real-time wideband neural vocoder at 1.6 kb/s using lpcnet," ArXiv, vol. abs/1903.12087, 2019.

[45] A. Mustafa, A. Biswas, C. Bergler, J. Schottenhamml, and A. Maier, "Analysis by Adversarial Synthesis - A Novel Approach for Speech Vocoding," in Proc. Interspeech, 2019, pp. 191-195 [Online]. Available: http://dx.doi.org/10.21437/Interspeech.2019-1195

[46] T. Salimans and DP Kingma, "Weight normalization: A simple reparameterization to accelerate training of deep neural networks," in Advances in NeurIPS, 2016, pp. 901-909.

[47] K. He, X. Zhang, S. Ren, and J. Sun, "Deep residual learning for image recognition," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 770-778.

[48] Yao Tianren, Xiang Juanjuan, and Lu Wei, "The computation of line spectral frequency using the second chebyshev polynomials," in 6th International Conference on Signal Processing, 2002., vol. 1, Aug 2002, pp. 190-192 vol.1.

[49] N. Kalchbrenner, E. Elsen, K. Simonyan, S. Noury, N. Casagrande, E. Lockhart, F. Stimberg, A. van den Oord, S. Dieleman, and K. Kavukcuoglu, “Efficient neural audio synthesis," 2018.

[50] T. Miyato, T. Kataoka, M. Koyama, and Y. Yoshida, "Spectral normalization for generative adversarial networks," 2018.

[51] M. Mirza and S. Osindero, "Conditional generative adversarial nets," ArXiv, vol. abs/1411.1784, 2014.

[52] A. Salman, E. Muhammad, and K. Khurshid, "Speaker verification using boosted cepstral features with gaussian distributions," in 2007 IEEE International Multitopic Conference, 2007, pp. 1-5. [53] JH Lim and JC Ye, "Geometric gan," 2017.

[54] M. Arjovsky, S. Chintala, and L. Bottou, "Wasserstein gan," 2017.

[55] C. Veaux, J. Yamagishi, and K. Macdonald, "Cstr vctk corpus: English multi-speaker corpus for cstr voice cloning toolkit," 2017.

[56] V. Panayotov, G. Chen, D. Povey, and S. Khudanpur, "Librispeech: An ASR corpus based on public domain audio books," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, pp. 5206-5210. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7178964

[57] M. Soloducha, A. Raake, F. Kettler, and P. Voigt, "Lombard speech database for german language," in Proc. DAGA 2016 Aachen, 03 2016.

[58] "Webrtc vad v2.0.10," https://webrtc.org.

[59] DP Kingma and J. Ba, "Adam: A method for stochastic optimization," CoRR, vol. abs/1412.6980, 2014.

[60] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen, Z. Lin, N. Gimelshein, L. Antiga, A. Desmaison, A. Kopf , E. Yang, Z. DeVito, M. Raison, A. Tejani, S. Chilamkurthy, B. Steiner, L. Fang, J. Bai, and S. Chintala, "Pytorch: An imperative style, high-performance deep learning library," in Advances in Neural Information Processing Systems 32, H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alche-Buc, E. Fox, and R. Garnett, Eds. Curran Associates, Inc., 2019 , pp. 8024-8035. [Online]. Available: http://papers.neurips.cc/paper/9015-pytorch-an-imperative-style-high-performance-deep-learning-library.pdf

[61] ITU-T Study Group 12, Software tools for speech and audio coding standardization, Geneva, 2005.

[62] GT 26.445, "EVS codec; detailed algorithmic description; technical specification, release 12," Sep. 2014.

[63] ITU-T Study Group 12, P.863 : Perceptual objective listening quality prediction, Geneva, 2018.

[64] M. Heusel, H. Ramsauer, T. Unterthiner, B. Nessler, G. Klambauer, and S. Hochreiter, “Gans trained by a two time-scale update rule converge to a nash equilibrium,” CoRR, vol. abs/1706.08500, 2017. [Online]. Available: http://arxiv.org/abs/1706.08500

[65] T. Salimans, I. Goodfellow, W. Zaremba, V. Cheung, A. Radford,X. Chen, and X. Chen, "Improved techniques for training guns," in Advances in Neural Information Processing Systems, D. Lee, M. Sugiyama, U. Luxburg, I. Guyon, and R. Garnett, Eds., vol. 29. Curran Associates, Inc., 2016, pp. 2234-2242. [Online]. Available: https:// proceedings.neurips.cc/paper/2016/file/8a3363abe792db2d8761d6403605aeb7-Paper.pdf

[66] M. Binkowski, J. Donahue, S. Dieleman, A. Clark, E. Elsen, N. Casagrande, LC Cobo, and K. Simonyan, "High fidelity speech synthesis with adversarial networks," CoRR, vol. abs. /1909.11646, 2019. [Online]. Available: http://arxiv.org/abs/1909.11646

[67] D. Amodei, R. Anubhai, E. Battenberg, C. Case, J. Casper, B. Catanzaro, J. Chen, M. Chrzanowski, A. Coates, G. Diamos, E. Elsen, JH Engel, L. Fan, C. Fougner, T. Han, AY Hannun, B. Jun, P. LeGresley, L. Lin, S. Narang, AY Ng, S. Ozair, R. Prenger, J. Raiman, S. Satheesh, D. Seetapun, S. Sengupta, Y. Wang, Z. Wang, C. Wang, B. Xiao, D. Yogatama, J. Zhan, and Z. Zhu, "Deep speech 2: End-to-end speech recognition in english and mandarin," CoRR, vol. abs/1512.02595, 2015. [Online]. Available: http://arxiv.org/abs/1512.02595

[68] AY Hannun, C. Case, J. Casper, B. Catanzaro, G. Diamos, E. Elsen, R. Prenger, S. Satheesh, S. Sengupta, A. Coates, and AY Ng, “Deep speech: Scaling up end-to-end speech recognition," CoRR, vol. abs/1412.5567, 2014. [Online]. Available: http://arxiv.org/abs/1412.5567

[69] A. Graves, S. Fernandez, and F. Gomez, "Connectionist temporal classification: Labeling unsegmented sequence data with recurrent neural networks," in In Proceedings of the International Conference on Machine Learning, ICML 2006, 2006, pp. 369 -376.

[70] R. Ardila, M. Branson, K. Davis, M. Henretty, M. Kohler, J. Meyer, R. Morais, L. Saunders, FM Tyers, and G. Weber, “Common voice: A massively- multilingual speech corpus," CoRR, vol. abs/1912.06670, 2019. [Online]. Available: http://arxiv.org/abs/1912.06670

[71] ITU-R, Recommendation BS.1534-1 Method for subjective assessment of intermediate sound quality (MUSHRA), Geneva, 2003.

Claims (25)

狭帯域音声入力信号の帯域幅拡張を実行することによって前記狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置であって、前記装置は、
第1のニューラルネットワーク(125)を含む信号包絡線外挿器(120)であって、前記第1のニューラルネットワーク(125)は前記第1のニューラルネットワーク(125)の入力値として前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信するように構成され、また前記第1のニューラルネットワーク(125)の出力値として、複数の外挿された信号包絡線のサンプルを決定するように構成される、前記信号包絡線外挿器(120)と、
前記狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成され、かつ複数の外挿された励起信号サンプルを決定するように構成される、励起信号外挿器(130)と、
前記広帯域音声出力信号が、前記複数の外挿された信号包絡線のサンプルに依存して、および前記複数の外挿された励起信号サンプルに依存して、前記狭帯域音声入力信号に対して帯域幅が拡張されているように、前記広帯域音声出力信号を生成するように構成されるコンバイナ(140)と、
を含む、装置。
An apparatus for processing a narrowband audio input signal to obtain a wideband audio output signal by performing bandwidth expansion of the narrowband audio input signal, the apparatus comprising:
a signal envelope extrapolator (120) comprising a first neural network (125), wherein the first neural network (125) uses the narrowband audio as an input value of the first neural network (125); configured to receive a plurality of signal envelope samples of an input signal and configured to determine a plurality of extrapolated signal envelope samples as an output value of said first neural network (125); the signal envelope extrapolator (120);
an excitation signal extrapolator (130) configured to receive a plurality of samples of an excitation signal of the narrowband audio input signal and configured to determine a plurality of extrapolated excitation signal samples;
The wideband audio output signal has a bandwidth relative to the narrowband audio input signal depending on the plurality of extrapolated signal envelope samples and depending on the plurality of extrapolated excitation signal samples. a combiner (140) configured to produce the wideband audio output signal such that the width is expanded;
equipment, including.
前記第1のニューラルネットワーク(125)の前記入力値は、前記狭帯域音声入力信号の第1の複数の線スペクトル周波数であり、前記第1のニューラルネットワーク(125)は、前記第1のニューラルネットワーク(125)の前記出力値として、前記広帯域音声出力信号の第2の複数の線スペクトル周波数を決定するように構成され、ここで、1つ以上の前記第2の複数の線スペクトル周波数のそれぞれは、前記第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数と関連付けられる、請求項1に記載の装置。 the input values of the first neural network (125) are a first plurality of line spectral frequencies of the narrowband audio input signal; (125) configured to determine a second plurality of line spectral frequencies of the broadband audio output signal as the output value of (125), wherein each of the one or more second plurality of line spectral frequencies is , is associated with a frequency that is greater than any frequency associated with any of the first plurality of line spectral frequencies. 前記第1のニューラルネットワーク(125)を学習させると、前記信号包絡線外挿器(120)は、インパルス応答を計算し、前記インパルス応答を切り捨てることによって、元の広帯域音声信号から導出される複数の広帯域線形予測符号化係数を有限インパルス応答フィルタ係数に変換するように構成される、請求項2に記載の装置。 Upon training the first neural network (125), the signal envelope extrapolator (120) calculates an impulse response and truncates the impulse response to 3. The apparatus of claim 2, configured to convert wideband linear predictive coding coefficients of 1 to finite impulse response filter coefficients. 前記第1のニューラルネットワーク(125)を学習させると、前記信号包絡線外挿器(120)は、前記広帯域音声出力信号と前記元の広帯域音声信号との間の誤差または前記誤差の勾配をフィードバックするように構成される、請求項3に記載の装置。 Upon training the first neural network (125), the signal envelope extrapolator (120) feeds back the error between the wideband audio output signal and the original wideband audio signal or the slope of the error. 4. The apparatus of claim 3, configured to. 前記第1のニューラルネットワーク(125)は、第1のディスクリミネーターニューラルネットワークを使用して学習し、前記第1のニューラルネットワーク(125)を学習させると、前記第1のニューラルネットワーク(125)および前記第1のディスクリミネーターニューラルネットワークは、敵対的生成ネットワークとして動作するように構成され、
前記第1のニューラルネットワーク(125)の学習中は、前記第1のディスクリミネーターニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークの入力値として前記第1のニューラルネットワーク(125)の前記出力値を受信するように構成される、または前記第1のディスクリミネーターネットワークの前記入力値として、前記第1のニューラルネットワーク(125)の前記出力値から導出される導出値を受信するように構成され、
ここで、前記第1のディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記第1のディスクリミネーターニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークの出力として、前記第1のディスクリミネーターニューラルネットワークの前記入力値の第1の品質表示を決定するように構成され、前記第1のニューラルネットワーク(125)は、前記第1の品質表示に依存して学習するように構成される、請求項1ないし請求項4のいずれかに記載の装置。
The first neural network (125) is trained using a first discriminator neural network, and when the first neural network (125) is trained, the first neural network (125) and the first discriminator neural network is configured to operate as a generative adversarial network;
During training of the first neural network (125), the first discriminator neural network uses the output of the first neural network (125) as an input value of the first discriminator neural network. configured to receive a value, or configured to receive a derived value derived from the output value of the first neural network (125) as the input value of the first discriminator network. is,
Here, upon receiving the input value of the first discriminator neural network, the first discriminator neural network outputs the first discriminator neural network as an output of the first discriminator neural network. configured to determine a first quality representation of said input values of a minator neural network, said first neural network (125) configured to learn in dependence on said first quality representation; The apparatus according to any one of claims 1 to 4.
前記第1のディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記第1のディスクリミネーターニューラルネットワークは、前記品質表示が、前記第1のディスクリミネーターニューラルネットワークの前記入力値が人工的に生成された音声信号ではなく記録音声信号に関係する確率を示すように、または前記品質表示が、前記第1のディスクリミネーターニューラルネットワークの前記出力値が記録信号と関係しているのか人工的に生成された信号に関係しているのかの推定を示すように、前記品質表示を決定するように構成される、請求項5に記載の装置。 Upon receiving the input value of the first discriminator neural network, the first discriminator neural network determines whether the quality indication is such that the input value of the first discriminator neural network is artificially or artificially such that the quality indication indicates the probability that the output value of the first discriminator neural network is related to the recorded audio signal rather than the generated audio signal. 6. The apparatus of claim 5, configured to determine the quality indication to indicate an estimate of the quality associated with the generated signal. 前記第1のニューラルネットワーク(125)または前記第2のニューラルネットワーク(135)は、前記第1のディスクリミネーターニューラルネットワークによって決定された前記品質表示に依存する損失関数を使用して学習する、請求項5または請求項6に記載の装置。 The first neural network (125) or the second neural network (135) is trained using a loss function that is dependent on the quality indication determined by the first discriminator neural network. The apparatus according to claim 5 or claim 6. 前記損失関数は、ヒンジ損失、またはワッサースタイン距離、またはエントロピーベースの損失に依存する、請求項7に記載の装置。 8. The apparatus of claim 7, wherein the loss function depends on a hinge loss, or a Wasserstein distance, or an entropy-based loss.
Figure 2023175767000022
Figure 2023175767000022
前記損失関数は、追加のLp-lossに依存する、請求項7ないし請求項9のいずれかに記載の装置。 Apparatus according to any of claims 7 to 9, wherein the loss function depends on an additional Lp-loss.
Figure 2023175767000023
Figure 2023175767000023
前記第1のディスクリミネーターニューラルネットワークは、記録音声を使用して学習する、請求項4ないし請求項11のいずれかに記載の装置。 12. The apparatus of any of claims 4 to 11, wherein the first discriminator neural network is trained using recorded audio. 前記励起信号外挿器(130)は第2のニューラルネットワーク(135)を含み、前記第2のニューラルネットワーク(135)は、前記第2のニューラルネットワーク(135)の入力値として、前記狭帯域音声入力信号の前記励起信号の複数のサンプルを受信するように構成される、および/または、前記狭帯域音声入力信号である、および/または、前記狭帯域音声入力信号の整形バージョンであり、かつ前記第2のニューラルネットワーク(135)の出力値として、前記複数の外挿された励起信号サンプルを決定するように構成される、請求項1ないし請求項12のいずれかに記載の装置。 The excitation signal extrapolator (130) includes a second neural network (135), wherein the second neural network (135) receives the narrowband audio signal as an input value of the second neural network (135). configured to receive a plurality of samples of said excitation signal of an input signal, and/or is said narrowband audio input signal, and/or is a shaped version of said narrowband audio input signal, and said 13. Apparatus according to any of claims 1 to 12, arranged to determine the plurality of extrapolated excitation signal samples as output values of a second neural network (135). 前記第2のニューラルネットワーク(135)の前記入力値は、前記狭帯域音声入力信号の前記励起信号の第1の複数の時間領域信号サンプルである、および/または前記狭帯域音声入力信号である、および/または、前記狭帯域音声入力信号の整形バージョンであり、ここで、前記第2のニューラルネットワーク(135)は、前記複数の外挿された励起信号サンプルが、前記狭帯域音声入力信号の前記励起信号に対して帯域幅が拡張された拡張時間領域励起信号の第2の複数の時間領域信号のサンプルであるように、前記第2のニューラルネットワーク(135)の前記出力値を決定するように構成される、請求項13に記載の装置。 the input values of the second neural network (135) are a first plurality of time-domain signal samples of the excitation signal of the narrowband audio input signal and/or are the narrowband audio input signal; and/or a shaped version of said narrowband audio input signal, wherein said second neural network (135) determines that said plurality of extrapolated excitation signal samples is a shaped version of said narrowband audio input signal. determining the output value of the second neural network (135) to be a sample of a second plurality of time-domain signals of an extended time-domain excitation signal with extended bandwidth relative to the excitation signal; 14. The apparatus of claim 13, configured. 前記第2のニューラルネットワーク(135)は第2のディスクリミネーターニューラルネットワークを使用して学習し、前記第2のニューラルネットワーク(135)の学習中は、前記第2のニューラルネットワーク(135)および前記第2のディスクリミネーターニューラルネットワークは第2の敵対的生成ネットワークとして動作するように構成され、
前記第2のニューラルネットワーク(135)の学習中は、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの入力値として、
前記第2のニューラルネットワーク(135)の前記出力値を受信するように構成される、または前記第2のディスクリミネーターネットワークの前記入力値として、前記第2のニューラルネットワーク(135)の前記出力値から導出される導出値、および/または、
前記コンバイナ(140)の出力
を受信するように構成され、
前記第2のディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの出力として、前記第2のディスクリミネーターニューラルネットワークの前記入力値の第2の品質表示を決定するように構成され、ここで、前記第2のニューラルネットワーク(135)は前記第2の品質表示に依存して学習するように構成される、請求項13または請求項14に記載の装置。
The second neural network (135) is trained using a second discriminator neural network, and during training of the second neural network (135), the second neural network (135) and the the second discriminator neural network is configured to operate as a second generative adversarial network;
During the learning of the second neural network (135), the second discriminator neural network is configured to:
the output value of the second neural network (135) configured to receive the output value of the second neural network (135) or as the input value of the second discriminator network; a derived value derived from, and/or
configured to receive the output of the combiner (140);
Upon receiving the input value of the second discriminator neural network, the second discriminator neural network is configured to: , wherein the second neural network (135) is configured to learn in dependence on the second quality representation. The apparatus according to claim 13 or claim 14.
前記装置は、前記狭帯域音声入力信号の前記信号包絡線の前記複数のサンプルおよび前記狭帯域音声入力信号の前記励起信号の前記複数のサンプルを前記狭帯域音声入力信号から生成するように構成される信号分析器(110)を含む、請求項1ないし請求項15のいずれかに記載の装置。 The apparatus is configured to generate the plurality of samples of the signal envelope of the narrowband audio input signal and the plurality of samples of the excitation signal of the narrowband audio input signal from the narrowband audio input signal. 16. Apparatus according to any of claims 1 to 15, comprising a signal analyzer (110). 前記第1のニューラルネットワーク(125)は1つ以上の畳み込みニューラルネットワークを含む、請求項1ないし請求項16のいずれかに記載の装置。 17. Apparatus according to any preceding claim, wherein the first neural network (125) comprises one or more convolutional neural networks. 前記第1のニューラルネットワーク(125)は1つ以上のディープニューラルネットワークを含む、請求項1ないし請求項17のいずれかに記載の装置。 18. Apparatus according to any of claims 1 to 17, wherein the first neural network (125) comprises one or more deep neural networks. 狭帯域音声入力信号の帯域幅拡張を実行することによって前記狭帯域音声入力信号を処理して広帯域音声出力信号を得るための方法であって、前記方法は、
第1のニューラルネットワークの入力値として、前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定するステップと、
前記狭帯域音声入力信号の励起信号の複数のサンプルを受信し、複数の外挿された励起信号サンプルを決定するステップと、
前記広帯域音声出力信号が、前記複数の外挿された信号包絡線のサンプルおよび前記複数の外挿励起信号サンプルに依存して、前記狭帯域音声入力信号に対して帯域幅が拡張されているように、前記広帯域音声出力信号を生成するステップと、
を含む、方法。
A method for processing a narrowband audio input signal to obtain a wideband audio output signal by performing bandwidth expansion of the narrowband audio input signal, the method comprising:
receiving as an input value of a first neural network a plurality of samples of a signal envelope of said narrowband audio input signal; and as an output value of said first neural network a plurality of extrapolated signal envelope samples; a step of determining
receiving a plurality of samples of an excitation signal of the narrowband audio input signal and determining a plurality of extrapolated excitation signal samples;
the wideband audio output signal being extended in bandwidth with respect to the narrowband audio input signal in dependence on the plurality of extrapolated signal envelope samples and the plurality of extrapolated excitation signal samples; generating the wideband audio output signal;
including methods.
ニューラルネットワークを学習させるための方法であって、
前記ニューラルネットワークは前記ニューラルネットワークの入力値として、狭帯域音声入力信号の第1の複数の線スペクトル周波数を受信し、
前記ニューラルネットワークは、前記第1のニューラルネットワークの出力値として、前記広帯域音声出力信号の第2の複数の線スペクトル周波数を決定し、ここで、1つ以上の前記第2の複数の線スペクトル周波数のそれぞれは、前記第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数に関連付けられ、
前記広帯域音声出力信号の前記第2の複数の線スペクトル周波数は、前記広帯域音声出力信号の第2の複数の前記線形予測符号化係数を得るために、線スペクトル周波数領域から線形予測符号化領域に変換され、
前記広帯域音声出力信号の前記第2の複数の線形予測符号化係数を前記線形予測符号化領域から有限インパルス応答フィルタ領域に変換して、複数の有限インパルスフィルターで変換された線形予測符号化係数を得るために有限インパルス応答フィルタが用いられ、
前記方法は、前記複数の有限インパルスフィルターで変換された線形予測符号化係数に依存して、前記第1のニューラルネットワークを学習させるステップを含む、方法。
A method for training a neural network, the method comprising:
the neural network receives as an input to the neural network a first plurality of line spectral frequencies of a narrowband audio input signal;
The neural network determines a second plurality of line spectral frequencies of the wideband audio output signal as an output value of the first neural network, where one or more of the second plurality of line spectral frequencies each of which is associated with a frequency that is greater than any frequency associated with any of the first plurality of line spectral frequencies;
The second plurality of line spectral frequencies of the wideband audio output signal are converted from the line spectral frequency domain to the linear predictive coding domain to obtain the second plurality of linear predictive coding coefficients of the wideband audio output signal. converted,
Converting the second plurality of linear predictive coding coefficients of the wideband audio output signal from the linear predictive coding domain to a finite impulse response filter domain, and converting the linear predictive coding coefficients transformed by the plurality of finite impulse filters into a finite impulse response filter domain. A finite impulse response filter is used to obtain
The method includes the step of training the first neural network depending on linear predictive coding coefficients transformed by the plurality of finite impulse filters.
前記第1のニューラルネットワークを学習させると、前記複数の有限インパルスフィルターで変換された線形予測符号化係数、または前記複数の有限インパルスフィルターで変換された線形予測符号化係数から導出された値が、前記ニューラルネットワークにフィードバックされる、請求項20に記載の方法。 When the first neural network is trained, the linear predictive coding coefficients converted by the plurality of finite impulse filters, or the values derived from the linear predictive coding coefficients converted by the plurality of finite impulse filters, 21. The method of claim 20, wherein the neural network is fed back. 前記第1のニューラルネットワークを学習させると、前記複数の有限インパルスフィルターで変換された線形予測符号化係数および複数の外挿された励起信号サンプルに依存して、前記広帯域音声出力信号の複数のサンプルが生成され、前記複数の広帯域音声出力信号または前記広帯域音声出力信号の複数のサンプルから導出された値が前記ニューラルネットワークにフィードバックされる、請求項20に記載の方法。 Training the first neural network to generate a plurality of samples of the broadband audio output signal depending on the linear predictive coding coefficients transformed with the plurality of finite impulse filters and the plurality of extrapolated excitation signal samples. 21. The method of claim 20, wherein a plurality of wideband audio output signals or values derived from a plurality of samples of the wideband audio output signal are fed back to the neural network. 第1および/または第2のニューラルネットワークを学習させるための方法であって、
前記第1のニューラルネットワークは、前記第1のニューラルネットワークの入力値として、前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定する、および/または、前記第2のニューラルネットワークは前記第2のニューラルネットワークの入力値として、前記狭帯域音声入力信号の前記励起信号の複数のサンプルを受信し、前記第2のニューラルネットワークの出力値として、前記複数の外挿された励起信号サンプルを決定し、
前記第1および/または前記第2のニューラルネットワークは、ディスクリミネーターニューラルネットワークを使用して学習し、前記第1および/または前記第2のニューラルネットワークを学習させると、前記第1および/または前記第2のニューラルネットワークと前記ディスクリミネーターニューラルネットワークとは敵対的生成ネットワークとして動作し、
前記第1および/または前記第2のニューラルネットワークの学習中は、前記ディスクリミネーターニューラルネットワークは、前記ディスクリミネーターニューラルネットワークの入力値として、前記第1および/または前記第2のニューラルネットワークの前記出力値を受信する、または、前記ディスクリミネーターネットワークの前記入力値として、前記第1および/または前記第2のニューラルネットワークの前記出力値から導出される導出値を受信し、
前記ディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記ディスクリミネーターニューラルネットワークは、前記ディスクリミネーターニューラルネットワークの出力として、前記ディスクリミネーターニューラルネットワークの前記入力値の品質表示を決定し、そして前記第1および/または前記第2のニューラルネットワークは、前記品質表示に依存して学習する、方法。
A method for training a first and/or second neural network, the method comprising:
The first neural network receives a plurality of samples of a signal envelope of the narrowband audio input signal as an input value of the first neural network, and receives a plurality of samples of a signal envelope of the narrowband audio input signal as an output value of the first neural network. determining samples of an extrapolated signal envelope; and/or the second neural network receives a plurality of samples of the excitation signal of the narrowband audio input signal as input values of the second neural network; receiving and determining the plurality of extrapolated excitation signal samples as output values of the second neural network;
The first and/or the second neural network is trained using a discriminator neural network, and when the first and/or the second neural network is trained, the first and/or the second neural network is trained using a discriminator neural network. the second neural network and the discriminator neural network operate as a generative adversarial network;
During the training of the first and/or the second neural network, the discriminator neural network uses the input values of the first and/or the second neural network as input values of the discriminator neural network. receiving an output value, or receiving a derived value derived from the output value of the first and/or the second neural network as the input value of the discriminator network;
Upon receiving the input value of the discriminator neural network, the discriminator neural network determines, as an output of the discriminator neural network, a quality representation of the input value of the discriminator neural network; and The method, wherein the first and/or the second neural network learns depending on the quality indication.
前記ディスクリミネーターニューラルネットワークは、第1のディスクリミネーターニューラルネットワークであり、
前記第1のニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークを使用して学習し、前記第1のニューラルネットワークは、第1の品質表示である前記品質表示に依存して学習し、
前記第2のニューラルネットワークは第2のディスクリミネーターニューラルネットワークを使用して学習し、前記第2のニューラルネットワークの学習中は、前記第2のニューラルネットワークおよび前記第2のディスクリミネーターニューラルネットワークは、第2の敵対的生成ネットワークとして動作し、
前記第2のニューラルネットワークの学習中は、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの入力値として、前記第2のニューラルネットワークの前記出力値を受信する、または、前記第2のディスクリミネーターネットワークの前記入力値として、前記第2のニューラルネットワークの前記出力値から導出される導出値を受信し、
前記第2のディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの出力として、前記第2のディスクリミネーターニューラルネットワークの前記入力値の第2の品質表示を決定し、前記第2のニューラルネットワークは、前記第2の品質表示に依存して学習するように構成される、
請求項23に記載の方法。
The discriminator neural network is a first discriminator neural network,
the first neural network is trained using the first discriminator neural network, the first neural network is trained in dependence on the quality representation, which is a first quality representation;
The second neural network is trained using a second discriminator neural network, and during training of the second neural network, the second neural network and the second discriminator neural network are , operates as a second generative adversarial network,
During training of the second neural network, the second discriminator neural network receives the output value of the second neural network as an input value of the second discriminator neural network. or receiving a derived value derived from the output value of the second neural network as the input value of the second discriminator network;
Upon receiving the input value of the second discriminator neural network, the second discriminator neural network is configured to: determining a second quality representation of the input values of , the second neural network being configured to learn in dependence on the second quality representation;
24. The method according to claim 23.
コンピュータまたは信号プロセッサで実行されると、請求項19ないし請求項24のいずれかに記載の方法を実行するためのコンピュータ・プログラム。 25. A computer program product for carrying out a method according to any of claims 19 to 24 when executed on a computer or a signal processor.
JP2023146925A 2021-07-07 2023-09-11 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network Pending JP2023175767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023146925A JP2023175767A (en) 2021-07-07 2023-09-11 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021113056A JP2023009622A (en) 2021-07-07 2021-07-07 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network
JP2023146925A JP2023175767A (en) 2021-07-07 2023-09-11 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021113056A Division JP2023009622A (en) 2021-07-07 2021-07-07 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network

Publications (1)

Publication Number Publication Date
JP2023175767A true JP2023175767A (en) 2023-12-12

Family

ID=85118808

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021113056A Pending JP2023009622A (en) 2021-07-07 2021-07-07 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network
JP2023146925A Pending JP2023175767A (en) 2021-07-07 2023-09-11 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021113056A Pending JP2023009622A (en) 2021-07-07 2021-07-07 Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network

Country Status (1)

Country Link
JP (2) JP2023009622A (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2956548B2 (en) * 1995-10-05 1999-10-04 松下電器産業株式会社 Voice band expansion device
JP2019008206A (en) * 2017-06-27 2019-01-17 日本放送協会 Voice band extension device, voice band extension statistical model learning device and program thereof

Also Published As

Publication number Publication date
JP2023009622A (en) 2023-01-20

Similar Documents

Publication Publication Date Title
Oord et al. Wavenet: A generative model for raw audio
Van Den Oord et al. Wavenet: A generative model for raw audio
Giacobello et al. Sparse linear prediction and its applications to speech processing
CN111583954B (en) Speaker independent single-channel voice separation method
McLoughlin Line spectral pairs
CN110648684B (en) Bone conduction voice enhancement waveform generation method based on WaveNet
CN114023300A (en) Chinese speech synthesis method based on diffusion probability model
US20230016637A1 (en) Apparatus and Method for End-to-End Adversarial Blind Bandwidth Extension with one or more Convolutional and/or Recurrent Networks
Lim et al. Robust low rate speech coding based on cloned networks and wavenet
Chen et al. Model-based speech enhancement with improved spectral envelope estimation via dynamics tracking
Moore et al. Say What? A Dataset for Exploring the Error Patterns That Two ASR Engines Make.
Jiang et al. Latent-domain predictive neural speech coding
US20240127832A1 (en) Decoder
Gupta et al. High‐band feature extraction for artificial bandwidth extension using deep neural network and H∞ optimisation
Anees Speech coding techniques and challenges: A comprehensive literature survey
Vali et al. End-to-end optimized multi-stage vector quantization of spectral envelopes for speech and audio coding
JP2023175767A (en) Device and method for hostile blind bandwidth extension of end-to-end using one or more convolutional networks and/or recurrent network
Srivastava Fundamentals of linear prediction
CN114203151A (en) Method, device and equipment for training speech synthesis model
CN114298019A (en) Emotion recognition method, emotion recognition apparatus, emotion recognition device, storage medium, and program product
Sankar et al. Mel scale-based linear prediction approach to reduce the prediction filter order in CELP paradigm
Prakash et al. Fourier-Bessel based Cepstral Coefficient Features for Text-Independent Speaker Identification.
Addou et al. A noise-robust front-end for distributed speech recognition in mobile communications
Kassim et al. Compressive sensing based low bit rate speech encoder
WO2024055752A1 (en) Speech synthesis model training method, speech synthesis method, and related apparatuses

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231011

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20231016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20231016